華為HCIA人工智能試題庫(kù)及答案_第1頁(yè)
華為HCIA人工智能試題庫(kù)及答案_第2頁(yè)
華為HCIA人工智能試題庫(kù)及答案_第3頁(yè)
華為HCIA人工智能試題庫(kù)及答案_第4頁(yè)
華為HCIA人工智能試題庫(kù)及答案_第5頁(yè)
已閱讀5頁(yè),還剩16頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

1、華為HCIA人工智能試題庫(kù)及答案神經(jīng)網(wǎng)絡(luò)研究屬于下列哪個(gè)學(xué)派符號(hào)主義連接主義(正確答案)行為主義以上都不是以下哪個(gè)不是ModelArts開(kāi)發(fā)類(lèi)型零基礎(chǔ)建模敏捷開(kāi)發(fā)(正確答案)快速建模標(biāo)準(zhǔn)模型開(kāi)發(fā)HUWEI HIAI Engine無(wú)法提供以下哪個(gè)引擎NLU引擎CV引擎ASR引擎DSP引擎(正確答案)關(guān)于L1正則化與L2正則化以下表述正確的是?L2正則化比L1正則化產(chǎn)生更加稀疏的模型L1正則項(xiàng)有利于增強(qiáng)模型的泛化能力(正確答案)加上L2正則項(xiàng)后,無(wú)法使用梯度下降算法迭代參數(shù)值L2正則項(xiàng)不能作用在損失函數(shù)之上。池化層一般接在哪種網(wǎng)絡(luò)層之后。輸入層輸出層卷積層(正確答案)全連接層下列關(guān)于隨機(jī)變量的分布

2、函數(shù),分布律,密度函數(shù)的理解描 述不正確的是?離散型隨機(jī)變量沒(méi)有分布函數(shù)(正確答案)密度函數(shù)只能描述連續(xù)型隨機(jī)變量的取值規(guī)律。分布函數(shù)描述隨機(jī)變量的取值規(guī)律分布律只能描述離散型隨機(jī)變量的取值規(guī)律感知器在空間中可以展現(xiàn)為?點(diǎn)(正確答案)線(xiàn)平面超平面常見(jiàn)的聚類(lèi)算法有哪些?K-means (正確答案)譜聚類(lèi)密度聚類(lèi)層次聚類(lèi)下列選項(xiàng)中對(duì)泊松分布與二項(xiàng)分布的關(guān)系描述正確的是?泊松分布可以代替二項(xiàng)分布泊松分布是二項(xiàng)分布當(dāng)n很大p很小時(shí)的近似計(jì)算(正確答案)泊松分布與二項(xiàng)分布的數(shù)學(xué)模型都是拉格朗日概型泊松分布與二項(xiàng)分布沒(méi)有關(guān)系Python3中5/2的結(jié)果是?322.5 (正確答案)1人工智能現(xiàn)在的技術(shù)應(yīng)用方

3、向主要有控制系統(tǒng)語(yǔ)音識(shí)別(正確答案)計(jì)算機(jī)視覺(jué)(正確答案)自然語(yǔ)言處理(正確答案)以下哪些是ModelsArts開(kāi)發(fā)模式自定義開(kāi)發(fā)(正確答案)迭代學(xué)習(xí)數(shù)據(jù)標(biāo)注(正確答案)自動(dòng)學(xué)習(xí)(正確答案)tf.keras.preprocessing 的作用是?keras模型部署工具keras數(shù)據(jù)處理工具(正確答案)Keras生成模型工具Keras內(nèi)置優(yōu)化器Python具備以下哪些特性面向?qū)ο螅ㄕ_答案)開(kāi)源(正確答案)簡(jiǎn)單(正確答案)解釋性(正確答案)以下哪些選項(xiàng)是決策樹(shù)用于劃分節(jié)點(diǎn)的依據(jù)。ID3 (正確答案)Gini系數(shù)(正確答案)信息熵(正確答案)CART (正確答案)以下標(biāo)識(shí)符命令錯(cuò)誤的是print

4、(正確答案)If_0aa0 (正確答案)Python可以用在以下哪些領(lǐng)域中網(wǎng)站開(kāi)發(fā)(正確答案)人工智能(正確答案)APP (正確答案)數(shù)據(jù)科學(xué)(正確答案)以下屬于Python操作MySQL數(shù)據(jù)庫(kù)操作步驟是?建立數(shù)據(jù)庫(kù)連接(正確答案)執(zhí)行SQL語(yǔ)句(正確答案)安裝PyMysql (正確答案)關(guān)閉數(shù)據(jù)庫(kù)連接(正確答案)答案CABD以下選項(xiàng)中對(duì)隨機(jī)變量數(shù)值特征描述正確的是?期望越大,方差越小方差反映的是隨機(jī)變量和其數(shù)學(xué)期望之間的偏離程度(正確答案 )期望反映的是隨機(jī)變量取值的平均水平(正確答案)相關(guān)系數(shù)用來(lái)度量?jī)蓚€(gè)變量間的線(xiàn)性關(guān)系(正確答案)模型訓(xùn)練中避免過(guò)擬合的策略有哪些?提前停止訓(xùn)練(正確答案)

5、Dropout (正確答案)延遲停止訓(xùn)練(正確答案)L2,L1正則(正確答案)以下關(guān)于張量說(shuō)法正確的是。四階及以上的張量,如四維及以上的向量一樣沒(méi)有直接的幾何 意義。(正確答案)數(shù)組是一個(gè)張量(正確答案)TensorFlow中的運(yùn)算與模型優(yōu)化過(guò)程都是基于張量完成的。(正確答案)一個(gè)矩陣是一個(gè)二階張量。(正確答案)關(guān)于卷積神經(jīng)網(wǎng)絡(luò)池化成層以下描述正確的是?經(jīng)過(guò)池化的特征圖像變小了(正確答案)池化操作采用掃描窗口實(shí)現(xiàn)(正確答案)池化層可以起到降維的作用(正確答案)常用的池化方法有最大池化和平均池化(正確答案)以下哪些激活函數(shù)容易產(chǎn)生梯度消失問(wèn)題?ReLUTanh (正確答案)Softplus (正

6、確答案)Sigmoid (正確答案)tf.keras.losses下內(nèi)置的損失函數(shù)有?絕對(duì)百分比誤差(正確答案)相似度二進(jìn)制交叉熵?fù)p失(正確答案)誤差平方損失 ( 正確答案 )TensorFlow2.0支持的服務(wù)有?Lite ( 正確答案 )TensorFlow2.0核心庫(kù)(正確答案)JavaScript (正確答案)Extended (正確答案)關(guān)于矩陣分解,以下描述正確的是?只有方陣才能進(jìn)行奇異值分解。對(duì)矩陣A進(jìn)行奇異值分解,其左奇異矩陣與右奇異矩陣都是正 交矩陣。(正確答案)一個(gè)矩陣乘以其特征向量后,向量只發(fā)生伸縮變化。奇異值越大,其所對(duì)應(yīng)的奇異向量上包含的信息量越大。(正確答案 )對(duì)一

7、個(gè)矩陣進(jìn)行奇異值分解,其奇異值矩陣一定是一個(gè)方 陣且奇異值一直按從大到小的順序排列。對(duì)錯(cuò)(正確答案)一個(gè)向量乘以一個(gè)正交矩陣后,矩陣對(duì)向量值產(chǎn)生伸縮作 用,而沒(méi)有旋轉(zhuǎn)和空間映射作用對(duì)錯(cuò)(正確答案)梯度的方向是最大方向?qū)?shù)的方向。對(duì)(正確答案)錯(cuò)并發(fā)是指多個(gè)任務(wù)同時(shí)執(zhí)行,使用Python中多進(jìn)程可以 完成并發(fā)操作FalseHIAI Foundation不支持稀疏化模型加速TrueFalse (正確答案)json格式的數(shù)據(jù)就是python中的字典TrueFalse (正確答案)TensortFlow是當(dāng)下最流行的深度學(xué)習(xí)框架之一。對(duì)(正確答案)錯(cuò)TensorFlow2.0 中 gather 用來(lái)增

8、加維度對(duì)錯(cuò)(正確答案)TensortFlow是一個(gè)用于機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的端到端開(kāi) 源平臺(tái)。對(duì)(正確答案)錯(cuò)一階張量是一個(gè)標(biāo)量對(duì)(正確答案)錯(cuò)智能音箱是語(yǔ)音處理典型應(yīng)用場(chǎng)景之一FalseKeras中model.summary ()是用來(lái)打印網(wǎng)絡(luò)概況的方 法。對(duì)(正確答案)錯(cuò)全連接層一般位于整個(gè)網(wǎng)絡(luò)的中間位置,用于減少參數(shù) 量。對(duì)錯(cuò)(正確答案)tf.keras.datasets可以查看keras中內(nèi)置的數(shù)據(jù)集對(duì)錯(cuò)(正確答案)點(diǎn)估計(jì)中無(wú)偏估計(jì)是指估計(jì)量抽樣分布的數(shù)學(xué)期望等于總 體參數(shù)的真值。對(duì)(正確答案)錯(cuò)樸素貝葉斯算法不需要樣本特征之間的獨(dú)立同分布。對(duì)錯(cuò)(正確答案)點(diǎn)估計(jì)的有效性越高,估計(jì)量的離

9、散程度就越高。小批量梯度下降中的小批量體現(xiàn)在?每次參數(shù)迭代時(shí)都從誤差中抽取一部分進(jìn)行訓(xùn)練。每次參數(shù)迭代時(shí)都從超參數(shù)中抽取一部分進(jìn)行訓(xùn)練。每次參數(shù)迭代時(shí)都從特征中抽取一部分進(jìn)行訓(xùn)練。每次參數(shù)迭代時(shí)都從數(shù)據(jù)集中抽出一部分進(jìn)行訓(xùn)練(正確答案)以下關(guān)于哪些結(jié)構(gòu)屬于LSTM ?輸入門(mén)(正確答案)遺忘門(mén)(正確答案)記憶門(mén)輸出門(mén)(正確答案)在深度學(xué)習(xí)模型訓(xùn)練的過(guò)程中,常見(jiàn)的優(yōu)化器有哪些?Momenturm (正確答案)Adagrad (正確答案)SGD (正確答案)Adam (正確答案)Softmax函數(shù)常用作多分類(lèi)任務(wù)的輸出層。True (正確答案)False循環(huán)神經(jīng)網(wǎng)絡(luò)所使用的訓(xùn)練法則叫做時(shí)序反向傳播,

10、簡(jiǎn)稱(chēng)BPTT。False關(guān)于反向傳播,以下說(shuō)法錯(cuò)誤的是?反向傳播會(huì)經(jīng)過(guò)激活函數(shù)反向傳播只能在前饋神經(jīng)網(wǎng)絡(luò)中運(yùn)用(正確答案)反向傳播可以結(jié)合梯度下降算法更新網(wǎng)絡(luò)權(quán)重。反向傳播指的是誤差通過(guò)網(wǎng)絡(luò)反向傳播。關(guān)于卷積神經(jīng)網(wǎng)絡(luò)以下說(shuō)法錯(cuò)誤的是?常見(jiàn)的池化層有最大池化與平均池化卷積核不可以用來(lái)提取圖片全局特征。(正確答案)在處理圖片時(shí),是以?huà)呙璐翱诘姆绞綄?duì)圖像做卷積卷積神經(jīng)網(wǎng)絡(luò)可以包含卷積層,池化層和全連接層卷積神經(jīng)網(wǎng)絡(luò)中同一卷積層的所有卷積核是權(quán)重共享對(duì)(正確答案)錯(cuò)以下不屬于對(duì)抗生成網(wǎng)絡(luò)的應(yīng)用是?文字生成數(shù)據(jù)增強(qiáng)圖像生成圖像識(shí)別(正確答案)循環(huán)神經(jīng)網(wǎng)絡(luò)可以捕捉序列化數(shù)據(jù)中的動(dòng)態(tài)信息。對(duì)(正確答案)錯(cuò)人

11、工智能包括哪些要素?算法(正確答案)數(shù)據(jù)(正確答案)場(chǎng)景(正確答案)算力(正確答案)現(xiàn)階段的人工智能仍處于弱人工智能階段。對(duì)(正確答案)錯(cuò)重復(fù)性強(qiáng),要求弱社交能力的工作是最容易被AI取代的 工作。對(duì)(正確答案)錯(cuò)HiAI Service包含以下哪些平臺(tái)快服務(wù)智慧平臺(tái)(正確答案)小藝對(duì)話(huà)開(kāi)發(fā)平臺(tái)(正確答案)IOS應(yīng)用開(kāi)發(fā)平臺(tái)安卓應(yīng)用開(kāi)發(fā)(正確答案)關(guān)于迭代器和生成器以下說(shuō)法正確的是?迭代器對(duì)象中只實(shí)現(xiàn)了 _iter方法。yield和return作用一樣列表就是一個(gè)迭代器。(正確答案)生成器會(huì)保存當(dāng)前狀態(tài)。(正確答案)Python的可以用在以下哪些領(lǐng)域。人工智能(正確答案)APP (正確答案)網(wǎng)站

12、開(kāi)發(fā)(正確答案)數(shù)據(jù)科學(xué)(正確答案)Python支持多版本共存對(duì)(正確答案)錯(cuò)關(guān)于Python正確的是?Python中的異常只能系統(tǒng)拋出。使用try語(yǔ)句可以捕獲異常(正確答案)用戶(hù)可以自定義異常(正確答案)異常不會(huì)終止程序的執(zhí)行。關(guān)于函數(shù)參數(shù)中的args說(shuō)法正確的是?args以字典的形式接收參數(shù)。args可以在函數(shù)的其他參數(shù)前定義。args必須出現(xiàn)在所有參數(shù)的最后。(正確答案)args可以接收多個(gè)參數(shù)(正確答案)Python的類(lèi)中使用雙下劃線(xiàn)開(kāi)頭的方法可能是私有方法對(duì)(正確答案)錯(cuò)以下說(shuō)法正確的是若函數(shù)在某一點(diǎn)處方向?qū)?shù)存在,則其方向?qū)?shù)唯一(正確答 案)函數(shù)的極值點(diǎn)一定是駐點(diǎn)函數(shù)的駐點(diǎn)一定是

13、極值點(diǎn)若函數(shù)在某點(diǎn)梯度存在,則其梯度唯一(正確答案)協(xié)方差矩陣是對(duì)稱(chēng)矩陣,且對(duì)角線(xiàn)上的元素是兩兩隨機(jī)變 的協(xié)方差對(duì)(正確答案)錯(cuò)關(guān)于正態(tài)分布描述錯(cuò)誤的是?標(biāo)準(zhǔn)差越大,正態(tài)分布曲線(xiàn)越陡。(正確答案)服從標(biāo)準(zhǔn)正態(tài)分布的隨機(jī)變量t,其均值與方差均為0。正態(tài)分布在均值處取得最大值。標(biāo)準(zhǔn)差越大,正態(tài)分布曲線(xiàn)越緩。最優(yōu)化問(wèn)題根據(jù)約束條件可分為以下哪些類(lèi)?無(wú)約束問(wèn)題(正確答案)等式約束問(wèn)題(正確答案)不等式約束問(wèn)題(正確答案)半約束問(wèn)題一個(gè)矩陣就對(duì)應(yīng)一個(gè)線(xiàn)性變換,通過(guò)矩陣乘法實(shí)現(xiàn)對(duì)(正確答案)錯(cuò)已知原因求解件發(fā)生的概率通常被叫做條件概率,也叫先 驗(yàn)概率。True (正確答案)FalseQ77.以下屬于激活函

14、數(shù)的是Adamsigmoid (正確答案)Re lu (正確答案)soft max (正確答案)Keras中的model.sumnary (是用來(lái)打印網(wǎng)絡(luò)概況的方 法。)對(duì)(正確答案)錯(cuò)下列選項(xiàng)中,不是TensorFlow2.0支持的運(yùn)算符是?/(正確答案)POW創(chuàng)建網(wǎng)絡(luò)層時(shí),添加dropout的主要目的是什么?防止過(guò)擬合(正確答案)提取圖像特征起到分類(lèi)器的作用增加非線(xiàn)性TensorFlow發(fā)布過(guò)的版本有?1(正確答案)2(正確答案)0.1 (正確答案)3一個(gè)汽車(chē)公司的產(chǎn)品,A廠(chǎng)占40%,B廠(chǎng)占60%,A 的次品率是1% , B的次品率是2%,現(xiàn)在抽出一輛汽車(chē)是次品, 問(wèn)是A生產(chǎn)的可能性是多少

15、0.25 (正確答案)樸素貝葉斯算法不需要樣本特征之間的獨(dú)立同分布。對(duì)錯(cuò)(正確答案)以下哪個(gè)選項(xiàng)不是參數(shù)估計(jì)的評(píng)價(jià)指標(biāo)?一致性無(wú)偏性自適應(yīng)(正確答案)有效性以下屬于機(jī)器學(xué)習(xí)算法的有?有監(jiān)督學(xué)習(xí)(正確答案)無(wú)監(jiān)督學(xué)習(xí)(正確答案)強(qiáng)化學(xué)習(xí)(正確答案)半監(jiān)督學(xué)習(xí)(正確答案)點(diǎn)估計(jì)的有效性越高,估計(jì)t的離散程度就越高對(duì)錯(cuò)(正確答案)關(guān)于循環(huán)神經(jīng)網(wǎng)絡(luò)以下說(shuō)法錯(cuò)誤的是?循環(huán)神經(jīng)網(wǎng)絡(luò)可以簡(jiǎn)寫(xiě)為RNNLSTM無(wú)法解決梯度消失的問(wèn)題(正確答案)LSTM也是一種循環(huán)神經(jīng)網(wǎng)絡(luò)循環(huán)神經(jīng)網(wǎng)絡(luò)可以根據(jù)時(shí)間軸展開(kāi)以下哪些是屬于深度學(xué)習(xí)算法的激活函數(shù)ReLU (正確答案)SinTanh (正確答案)Sigmoid (正確答案)深度學(xué)習(xí)中以下哪些步驟是由模型自動(dòng)完成的模型訓(xùn)練(正確答案)特征選擇分析定位任務(wù)特征提?。ㄕ_答案)關(guān)于對(duì)抗生成網(wǎng)絡(luò)以下說(shuō)法錯(cuò)誤的是。判別模型需要輸入帶標(biāo)簽的真實(shí)樣本。對(duì)抗生成網(wǎng)絡(luò)包含生成模型與判別模型。對(duì)抗生成網(wǎng)絡(luò)不能用來(lái)產(chǎn)生新的圖片。(正確答案)生成模型的

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論