(新版)HCIA人工智能題庫(含答案)_第1頁
(新版)HCIA人工智能題庫(含答案)_第2頁
(新版)HCIA人工智能題庫(含答案)_第3頁
(新版)HCIA人工智能題庫(含答案)_第4頁
(新版)HCIA人工智能題庫(含答案)_第5頁
已閱讀5頁,還剩49頁未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

(新版)HCIA人工智能題庫(含答案)一、單選題1.如果一個(gè)模型在測(cè)試集上偏差很大,方差很小,則說明該模型?A、 過擬合B、 可能過擬合可能欠擬合C、 剛好擬合D、 欠擬合參考答案:B昇騰AI處理器的邏輯架構(gòu)不包括以下哪個(gè)選項(xiàng)?A、 DVPPB、 GPUC、 AI計(jì)算引擎D、 芯片系統(tǒng)控制CPU參考答案:B關(guān)于反向傳播,以下說法錯(cuò)誤的是?A、 反向傳播只能在前饋神經(jīng)網(wǎng)絡(luò)中運(yùn)用B、 反向傳播可以結(jié)合梯度下降算法更新網(wǎng)絡(luò)權(quán)重C、 反向傳播會(huì)經(jīng)過激活函數(shù)D、 反向傳播指的是誤差通過網(wǎng)絡(luò)反向傳播參考答案:A華為昇騰AI芯片是NPU(神經(jīng)網(wǎng)絡(luò)處理器)的典型代表之一。A、 TRUEB、 FALSE參考答案:A關(guān)于循環(huán)神經(jīng)網(wǎng)絡(luò)以下說法錯(cuò)誤的是?A、 循環(huán)神經(jīng)網(wǎng)絡(luò)可以根據(jù)時(shí)間軸展開B、 LSTM無法解決梯度消失的問題C、 LSTM也是一種循環(huán)神經(jīng)網(wǎng)絡(luò)D、 循環(huán)神經(jīng)網(wǎng)絡(luò)可以簡寫為RNN參考答案:B損失函數(shù)與模型函數(shù)是一回事。A、 TRUEB、 FALSE參考答案:B華為的AI全場景包括公有云、私有云、各種邊緣計(jì)算、物聯(lián)網(wǎng)行業(yè)終端以及消費(fèi)類終端等端、邊、云的部署環(huán)境。A、 TRUEB、 FALSE參考答案:ATensorFlow2.0中取消了圖和會(huì)話的機(jī)制。A、 TRUEB、 FALSE參考答案:B以下屬于回歸算法的評(píng)價(jià)指標(biāo)是?A、 召回率B、 混淆矩陣C、 均方誤差D、 準(zhǔn)確率參考答案:C批量梯度下降,小批量梯度下降,隨機(jī)梯度下降最重要的區(qū)別在哪里?A、 梯度大小B、 梯度方向C、 學(xué)習(xí)率D、 使用樣本數(shù)參考答案:D神將網(wǎng)絡(luò)訓(xùn)練時(shí),常會(huì)遇到很多問題,對(duì)于梯度消失問題,我們可以通過選擇使用以下哪種函數(shù)減輕該問題?A、 Relu函數(shù)B、 Sigmoid函數(shù)C、 tanh函數(shù)D、 Softsign函數(shù)參考答案:A華為的AI全場景包括公有云、私有云、各種邊緣計(jì)算、物聯(lián)網(wǎng)行業(yè)終端以及消費(fèi)類終端等端、邊、云的部署環(huán)境。A、 TRUEB、 FALSE參考答案:AHUAWEIHiAI平臺(tái)支持與哪一個(gè)工具集成?A、 JupyterNotebookB、 MyEclipseC、 AndroidStudioD、 Spicier參考答案:C以下哪一個(gè)不屬于人臉識(shí)別技術(shù)?A、 人臉?biāo)阉鰾、 人臉比對(duì)C、 人臉檢測(cè)D、 翻拍識(shí)別參考答案:DTensorFlow是當(dāng)下最流行的深度學(xué)習(xí)框架之一。A、 TRUEB、 FALSE參考答案:AHUAWEIHiAIEngine能夠輕松將多種AI能力與App集成。A、 TRUEB、 FALSE參考答案:A“從有標(biāo)簽的歷史數(shù)據(jù)中來預(yù)測(cè)下季度的商鋪營收會(huì)在2030萬還是3040萬”,這是一個(gè)什么問題?A、 回歸問題B、 規(guī)則問題C、 分類問題D、 聚類問題參考答案:C下列選項(xiàng)中昇騰310和昇騰910屬性相同的是?A、 最大功率B、 架構(gòu)C、 整數(shù)精度D、 7nm制程參考答案:B以下哪個(gè)關(guān)于監(jiān)督式學(xué)習(xí)的說法是正確的?A、 決策樹是一種監(jiān)督式學(xué)習(xí)B、 監(jiān)督式學(xué)習(xí)不可以使用交叉驗(yàn)證進(jìn)行訓(xùn)練C、 監(jiān)督式學(xué)習(xí)是一種基于規(guī)則的算法D、 監(jiān)督式學(xué)習(xí)不需要標(biāo)簽就可以訓(xùn)練參考答案:A我們?cè)谟?xùn)練神經(jīng)網(wǎng)絡(luò)過程中,使用梯度下降法不斷更新哪種數(shù)值,進(jìn)而使得損失函數(shù)最小化?參考答案:參考答案:BA、 樣本數(shù)目B、 特征值C、 超參數(shù)D、 參數(shù)參考答案:DHUAWETHiAT平臺(tái)中的人臉檢測(cè)是屬于哪個(gè)模塊?A、 HiAIEngineB、 HiAIFrameworkC、 HiAIFoundationD、 HiAIService參考答案:AAtlas200DK所基于的異騰310芯片主要的應(yīng)用是?A、 模型推理B、 構(gòu)建模型C、 訓(xùn)練模型參考答案:A機(jī)器學(xué)習(xí)的算法中,以下哪個(gè)不是無監(jiān)督學(xué)習(xí)?A、 GMMB、 XgboostC、 聚類D、 關(guān)聯(lián)規(guī)則以下哪一項(xiàng)是HUAWElHiAIFoundation模塊的功能?A、 App集成B、 讓服務(wù)主動(dòng)找到用戶C、 快速轉(zhuǎn)化和遷移己有模型D、 根據(jù)用戶所需,適時(shí)適地推送服務(wù)八、華為云企業(yè)智能應(yīng)用平臺(tái)參考答案:C以下哪個(gè)不是MindSpore常用的Operation?A、 signalB、 mathC、 arrayD、 nn參考答案:A全局梯度下降算法、隨機(jī)梯度下降算法和批量梯度下降算法均屬于梯度下降算法,以下關(guān)于其有優(yōu)缺點(diǎn)說法錯(cuò)誤的是:A、 全局梯度算法可以找到損失函數(shù)的最小值B、 批量梯度算法可以解決局部最小值問題C、 隨機(jī)梯度算法可以找到損失函數(shù)的最小值D、 全局梯度算法收斂過程比較耗時(shí)參考答案:C護(hù)照識(shí)別服務(wù)的圖像數(shù)據(jù)是不需要用base64編碼的。A、 TRUEB、 FALSE參考答案:參考答案:A參考答案:Btf.keras.datasets可以查看keras中內(nèi)置的數(shù)據(jù)集。A、 TRUEB、 FALSE參考答案:A循環(huán)神經(jīng)網(wǎng)絡(luò)不同于卷積神經(jīng)網(wǎng)絡(luò),它比較擅長解決以下哪些問題?A、 序列相關(guān)問題B、 圖像分類C、 圖像檢測(cè)D、 推薦問題參考答案:A人臉比對(duì)服務(wù)調(diào)用肘只傳入一張圖像也可以。A、 TRUEB、 FALSE參考答案:B語音識(shí)別服務(wù)調(diào)用成功時(shí),識(shí)別的結(jié)果保存在下面哪個(gè)字段中?A、 resultB、 contentC、 dataD、 text當(dāng)使用TensorFiow2.0的keras接口搭建神經(jīng)網(wǎng)絡(luò)時(shí),需要進(jìn)行網(wǎng)絡(luò)的編譯工作,需要用到以下哪種方法?A、 pileB、 writeC、 joinD、 fit參考答案:A計(jì)算機(jī)視覺是研究如何讓計(jì)算機(jī)“看”的科學(xué)。A、 TRUEB、 FALSE參考答案:ATensorFlow2.0中的Keras接口的三個(gè)主要優(yōu)勢(shì)是方便用戶使用,模塊化和可組合,易于擴(kuò)展。A、 TRUEB、 FALSE參考答案:A網(wǎng)格搜索是一種參數(shù)調(diào)節(jié)的方法。A、 TRUEB、 FALSE參考答案:BTensorFlow2.0支持GPU加速主要表現(xiàn)在對(duì)矩陣的加減乘除有一個(gè)并行運(yùn)算的加速。A、 TRUEB、 FALSE參考答案:A哪條命令可以檢查Atlas300(3000)加速卡是否在位?A、 Ispci|grep'npu'B、 IspciIgrep'dlOO'C、 Ispcigrep*atlas,D、 atlasinfo參考答案:B在訓(xùn)練神經(jīng)網(wǎng)絡(luò)過程中我們目的是讓損失函數(shù)不斷減少,我們常用以下哪種方法最小化損失函數(shù)?A、 梯度下降B、 DropoutC、 交叉驗(yàn)證D、 正則化參考答案:A在華為云EI中,以下哪項(xiàng)可以將AI技術(shù)融入各行各業(yè)的應(yīng)用場景中,發(fā)揮AI技術(shù)的優(yōu)勢(shì),從而提高效率,提升體驗(yàn)。A、 EI智能體B、 OBS對(duì)象存儲(chǔ)服務(wù)C、 云數(shù)據(jù)庫A、TRUEA、TRUED、EI大數(shù)據(jù)服務(wù)參考答案:ABagging集成學(xué)習(xí)中,每個(gè)基學(xué)習(xí)器之間的關(guān)系是?A、 相加關(guān)系B、 相關(guān)關(guān)系C、 后面的模型必須建立在前面的模型之上D、 相互獨(dú)立參考答案:BTensorFlow2.0的keras.preprocessing的作用是?A、 keras數(shù)據(jù)處理工具B、 keras內(nèi)置優(yōu)化器C、 keras模型部署工具D、 Keras生成模型工具參考答案:A下列選項(xiàng)中不屬于華為全棧解決方案范疇的是?A、 應(yīng)用使能B、 邊緣計(jì)算C、 開源框架D、 芯片使能參考答案:B在TensorFlow2.0中tf.contrib方法可以繼續(xù)使用。B、FALSE參考答案:B循環(huán)神經(jīng)網(wǎng)絡(luò)可以捕捉序列化數(shù)據(jù)中的動(dòng)態(tài)信息。A、 TRUEB、 FALSE參考答案:A關(guān)于圖像內(nèi)容審核服務(wù)說法錯(cuò)誤的是?A、 politics為涉政敏感人物檢測(cè)結(jié)果B、 terrorism為涉政暴恐檢測(cè)結(jié)果C、 confidence代表置信度,范圍0100D、 label代表每個(gè)檢測(cè)結(jié)果的標(biāo)簽參考答案:C線性回歸在3維以上的維度中擬合面是?A、 曲面B、 平面C、 超平面D、 超曲面參考答案:C輸入32*32的圖像,用大小5*5的卷積核做步長為1的卷積計(jì)算,輸出圖像的大小是A、28*23B、28*28TOC\o"1-5"\h\zC、 29*29D、 23*23參考答案:B梯度下降算法中,損失函數(shù)曲面上軌跡最混亂的算法是以下哪種算法?A、 SGDB、 BGDC、 MGDD、 MBGD參考答案:A根據(jù)美國汽車工程師協(xié)會(huì)(SAE)將自動(dòng)駕駛按照車輛行駛對(duì)于系統(tǒng)依賴程度分為哪些級(jí)別?TOC\o"1-5"\h\zA、 Ll~L4B、 L1~L5C、 L0~L4D、 L0~L5參考答案:DOnDevice執(zhí)行,即整圖卸載執(zhí)行,充分發(fā)揮異騰芯片的算力,可以大大降低交互的開銷,從而提升加速器占用率,關(guān)于OnDevice執(zhí)行以下描述錯(cuò)誤的是?A、MindSpore通過梯度數(shù)據(jù)驅(qū)動(dòng)的自適應(yīng)圖優(yōu)化,實(shí)現(xiàn)去中心化的自主AllReduce,梯度聚合步調(diào)一致,計(jì)算與通信充分流水B、 超強(qiáng)芯片算力下模型執(zhí)行的挑戰(zhàn):內(nèi)存墻問題、交互開銷大、數(shù)據(jù)供給難。部分在Host執(zhí)行,部分在Device執(zhí)行,交互開銷甚至遠(yuǎn)大于執(zhí)行開銷,導(dǎo)致加速器占用率低C、 MindSpore通過面向芯片的深度圖優(yōu)化技術(shù),同步等待少,最大化“數(shù)據(jù)計(jì)算通信”的并行度,訓(xùn)練性能相比Host側(cè)圖調(diào)度方式持平D、 超強(qiáng)芯片算力下分布式梯度聚合的挑戰(zhàn):ReslNet50單迭代2Dms時(shí)間時(shí)會(huì)產(chǎn)生中心控制的同步開銷和頻繁同步的通信開銷。傳統(tǒng)方法需要3次同步完成AllRcduce,數(shù)據(jù)驅(qū)動(dòng)方法自主AllReduce,無控制開銷參考答案:CK折交叉驗(yàn)證是指將測(cè)試數(shù)據(jù)集劃分成K個(gè)子數(shù)據(jù)集。A、 TRUEB、 FALSE參考答案:B52.回歸算法預(yù)測(cè)的標(biāo)簽是?A、 自變型B、 離散型C、 應(yīng)變型D、 連續(xù)型參考答案:D聯(lián)邦學(xué)習(xí)在保證數(shù)據(jù)隱私安全的前提下,利用不同數(shù)據(jù)源合作訓(xùn)練模型,進(jìn)步突破數(shù)據(jù)的瓶頸。A、 TRUEB、 FALSE參考答案:A下列選項(xiàng)中不是TensorFlow2.0支持的運(yùn)算符是A、 powB、C、 "D、 //參考答案:C我們描述住房的時(shí)候,常用住宅面積,戶型,裝修類型等屬性,如果使用樸素貝葉斯作為模型的話,則我們假設(shè)屬性之間不存在關(guān)系。A、 TRUEB、 FALSE參考答案:A深度學(xué)習(xí)中如果神經(jīng)網(wǎng)絡(luò)的層數(shù)較多比較容易出現(xiàn)梯度消失問題。嚴(yán)格意義上來講是在以下哪個(gè)環(huán)節(jié)岀現(xiàn)樣度消失間題?A、 反向傳播更新參數(shù)B、 正向傳播更新夢(mèng)故C、 反向傳播計(jì)算結(jié)果D、 正向傳播計(jì)算結(jié)果參考答案:A面對(duì)行業(yè)研究與全場景AI應(yīng)用之間的巨大鴻溝,MindSpom跨越應(yīng)用鴻溝助力普惠Al的技術(shù)創(chuàng)新不包括以下哪項(xiàng)?A、 新協(xié)作方式B、 新編程語言C、 新編程范式D、 新執(zhí)行模式參考答案:B華為的芯片支持HUAWEIHiAI的哪一個(gè)模塊?A、 HiAIEngineB、 HiAIFoundationC>HiAlFrameworkD>HiAIService參考答案:BPyTorch現(xiàn)有版本均支持Python2和Python3?A、 TRUEB、 FALSE參考答案:B下列選項(xiàng)中不支持TensorFLow2.0進(jìn)行維度變換的屬性是。A、 squeezeB、 reshapeC>gatherD、transpose五、華為Al開發(fā)框架MindSpore參考答案:c多項(xiàng)式回歸當(dāng)中,模型的公式中存在平方項(xiàng),因此其不是線性的。A、 TRUEB、 FALSE參考答案:B深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)的隱藏層數(shù)對(duì)網(wǎng)絡(luò)的性能有一定的影響,以下關(guān)于其影響說法正確的是:A、隱藏層數(shù)適當(dāng)減少,神經(jīng)網(wǎng)絡(luò)的分辨能力不變B、隱藏層數(shù)適當(dāng)增加,神經(jīng)網(wǎng)絡(luò)的分辨能力越強(qiáng)C、隱藏層數(shù)適當(dāng)減少,神經(jīng)網(wǎng)絡(luò)的分辨能力越強(qiáng)D、隱藏層數(shù)適當(dāng)增加,神經(jīng)網(wǎng)絡(luò)的分辨能力越弱參考答案:B數(shù)據(jù)在完成特征工程的操作后,在構(gòu)建模型的過程中,以下哪個(gè)選項(xiàng)不屬于決策樹構(gòu)建過程當(dāng)中的步驟?A、 剪枝B、 特征選取C、 數(shù)據(jù)清理D、 決策樹生成參考答案:CAI芯片也被稱為AI加速器,是專門用于處理人工智能應(yīng)用中的大量計(jì)算任務(wù)的功能模塊。A、 TRUEB、 FALSE參考答案:A65.神經(jīng)網(wǎng)絡(luò)研究屬于下列哪個(gè)學(xué)派?A、 符號(hào)主義B、 連接主義C、 行為主義D、 以上都不是參考答案:B人臉?biāo)阉鞣?wù)中,如果想刪除某個(gè)人臉集,我們可以使用這樣的代碼:Firs_cliet.get_v2().get_face_set_service().delete_face_sM(〃**〃),其中〃*”是填入實(shí)際的人臉集名稱。A、 TRUEB、 FALSE參考答案:A前饋神經(jīng)網(wǎng)絡(luò)是一種簡單的神經(jīng)網(wǎng)絡(luò),各神經(jīng)元分層排列,是目前應(yīng)用最廣泛,發(fā)展最迅速的人工神經(jīng)網(wǎng)絡(luò)之一。以下關(guān)于前饋神經(jīng)網(wǎng)絡(luò)說法正確的是:A、 具備計(jì)算能力的神經(jīng)元與上下兩層相連B、 其輸入節(jié)點(diǎn)具備計(jì)算能力C、 同一層神經(jīng)元相互連接D、 層間信息只沿個(gè)方向傳遞參考答案:D卷積神經(jīng)網(wǎng)絡(luò)中同一卷積層的所有卷積核是權(quán)重共享的。A、 TRUEB、 FALSE參考答案:ATensorFlow使用的數(shù)據(jù)類型是?A、 ScalarB、 VectorC、 TensorD、 Matrix參考答案:C優(yōu)化器是訓(xùn)練神經(jīng)網(wǎng)絡(luò)的重要組成部分,使用優(yōu)化器的目的不包含以下哪項(xiàng):A、 加快算法收斂速度B、 減少手工參數(shù)的設(shè)置難度C、 避過過擬合問題D、 避過局部極值參考答案:C測(cè)試誤差會(huì)隨著模型復(fù)雜度的上升不斷誠小。A、 TRUEB、 FALSE參考答案:B特征是描述樣本的特性的維度,關(guān)于其在傳統(tǒng)機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的可解釋性,以下說法正確的是:A、 特征在傳統(tǒng)機(jī)器學(xué)習(xí)可解釋性強(qiáng),而在深度學(xué)習(xí)可解釋性弱B、 特征在傳統(tǒng)機(jī)器學(xué)習(xí)可解釋性弱,而在深度學(xué)習(xí)可解釋性強(qiáng)C、 特征在傳統(tǒng)機(jī)器學(xué)習(xí)和深度學(xué)習(xí)可解釋性均弱D、 特征在傳統(tǒng)機(jī)器學(xué)習(xí)和深度學(xué)習(xí)可解釋性均強(qiáng)參考答案:A機(jī)器學(xué)習(xí)算法中,以下不屬于集成學(xué)習(xí)策略的是?A、 BoostingB、 StackingC、 BaggingD、 Marking參考答案:D邏輯回歸當(dāng)中也可以加入正則項(xiàng)用于避免過擬合。A、 TRUEB、 FALSE參考答案:A重復(fù)性強(qiáng)、要求弱社交能力的工作是最容易被AI取代的工作。A、 TRUEB、 FALSE參考答案:AHiAI移動(dòng)計(jì)算平臺(tái)提供豐富的上層功能業(yè)務(wù)API,可在移動(dòng)設(shè)備高效運(yùn)行。A、 TRUEB、 FALSE參考答案:A以下哪個(gè)不是圖像識(shí)別服務(wù)的應(yīng)用?A、 目標(biāo)檢測(cè)B、 智能相冊(cè)C、 場景分析D、 語音合成參考答案:D下列哪一個(gè)是圖像標(biāo)簽服務(wù)的URI?參考答案:D查看Atlas300(3000)加速卡驅(qū)動(dòng)是否安裝成功應(yīng)該使用哪條命令?A、 npusiminfoB、 npuinfoC、 atlas-DriverinfoD、 atlasinfo參考答案:ATensorFlow2.0不支持tensor在GPU和CPU之間相互轉(zhuǎn)移。A、 TRUEB、 FALSE參考答案:B損失函數(shù)反映了神經(jīng)網(wǎng)絡(luò)的目標(biāo)輸出和實(shí)際輸出的誤差,在深度學(xué)習(xí)中常用的損失函數(shù)是:A、 指數(shù)損失函數(shù)B、 均方損失函數(shù)C、 對(duì)數(shù)損失函數(shù)D、 Hinge損失函數(shù)參考答案:B面對(duì)超大規(guī)模模型需要實(shí)現(xiàn)高效分布式訓(xùn)練的挑戰(zhàn),MindSpore的處理方式為?A、 自動(dòng)并行B、 串行C、 手動(dòng)并行參考答案:A以下關(guān)于機(jī)器學(xué)習(xí)描述正確的是?A、 深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個(gè)分支B、 深度學(xué)習(xí)與機(jī)器學(xué)習(xí)是互相包含的關(guān)系C、 深度學(xué)習(xí)與機(jī)器學(xué)習(xí)同屬于人工智能但相互之間沒有關(guān)系D、 以上都不對(duì)參考答案:AModelArts服務(wù)與()服務(wù)相結(jié)合可以輕松將模型部署到“端”?A、 OBSB、 OCRC、 ECSD、 HiLens參考答案:D訓(xùn)練誤差會(huì)隨著模型復(fù)雜度的上升不斷減小。A、 TRUEB、 FALSE參考答案:A以下哪個(gè)不是MindSpore核心架構(gòu)的特點(diǎn)?A、 自動(dòng)微分B、 自動(dòng)調(diào)優(yōu)C、 自動(dòng)編碼D、 自動(dòng)并行參考答案:C人工智能的三個(gè)階段包含了計(jì)算智能、()、認(rèn)知智能。A、 弱人工智能B、 感知智能C、 行為智能D、 強(qiáng)人工智能參考答案:B代 碼model,fit(mnist.train,inmage,mnist.train,labels.epochs=5)中的epochs參數(shù)代表?A、 全體訓(xùn)練集將被訓(xùn)練5次B、 全體測(cè)試集將被測(cè)試5次C、 全體訓(xùn)練集將被分為6份D、 全體訓(xùn)練集將被分為5份參考答案:A人下關(guān)于神經(jīng)網(wǎng)絡(luò)的說法錯(cuò)誤的是?A、 隨著神經(jīng)網(wǎng)絡(luò)隱藏層數(shù)的增加,模型的分類能力逐步減弱B、 單層感知器的局限在于不能解決異或問題C、 前饋神經(jīng)網(wǎng)絡(luò)可用有向無環(huán)圖表示D、 前饋神經(jīng)網(wǎng)絡(luò)同一層的神經(jīng)元之間不存在聯(lián)系四、業(yè)界主流開發(fā)框架參考答案:A在對(duì)抗生成網(wǎng)絡(luò)當(dāng)中,帶有標(biāo)簽的數(shù)據(jù)應(yīng)該被放在哪里?A、 作為生成模型的輸出值B、 作為判別模型的輸入值C、 作為判別模型的輸出值D、 作為生成模型的輸入值參考答案:B在經(jīng)典的卷積神經(jīng)網(wǎng)絡(luò)模型中,Softmax函數(shù)是跟在什么隱藏層后面的?A、 卷積層B、 池化層C、 全連接層D、 以上都可以參考答案:CL1和L2正則化是傳統(tǒng)機(jī)器學(xué)習(xí)常用來減少泛化誤差的方法,以下關(guān)于兩者的說法正確的是:A、 L1正則化可以做特征選擇B、 L1和L2正則化均可做特征選擇C、 L2正則化可以做特征選擇D、 L1和L2正則化均不可做特征選擇參考答案:A在以連接主義為基礎(chǔ)的神經(jīng)網(wǎng)絡(luò)中,每個(gè)節(jié)點(diǎn)都能表達(dá)特定的意義。A、 TRUEB、 FALSE參考答案:B對(duì)于圖像分類問題,以下哪個(gè)神經(jīng)網(wǎng)絡(luò)更適合解決這個(gè)問題?A、 感知器B、 循環(huán)神經(jīng)網(wǎng)絡(luò)C、 卷積神經(jīng)網(wǎng)絡(luò)D、 全連接神經(jīng)網(wǎng)絡(luò)參考答案:C以下不屬于對(duì)抗生成網(wǎng)絡(luò)的應(yīng)用是?A、 文字生成B、 圖像生成C、 圖像識(shí)別D、 數(shù)據(jù)増強(qiáng)參考答案:C線性回歸的損失函數(shù)中加入L1正則項(xiàng),此時(shí)該回歸叫做Lasso回歸。A、 TRUEB、 FALSE參考答案:A以下不屬于TensorFlow2.0的特點(diǎn)是?A、 多核CPU加速B、 分布式C、 多語言D、 多平臺(tái)參考答案:ATensorFlow是下列哪個(gè)公司首先開發(fā)的?A、 甲骨文B、 FacebookC、 英偉達(dá)D、 Google參考答案:DTensor是MindSpore中數(shù)據(jù)的存儲(chǔ)組件。A、 TRUEB、 FALSE參考答案:A二分類過程中,我們可將任意類別設(shè)為正例。A、 TRUEB、 FALSE參考答案:A在深度學(xué)習(xí)網(wǎng)絡(luò)中,反向傳播算法用于尋求最優(yōu)參數(shù),在反向傳播算法中使用的什么法則進(jìn)行逐層求導(dǎo)的?A、 鏈?zhǔn)椒▌tB、 累加法則C、 對(duì)等法則D、 歸一法則參考答案:A交通智能體可以實(shí)現(xiàn)()小時(shí)全時(shí)段/全域交通感知?TOC\o"1-5"\h\zA、 7X24B、 5X24C、 5X12D、 7X12參考答案:A生成對(duì)抗網(wǎng)絡(luò)像是一個(gè)博弈系統(tǒng),生成器生成偽造的樣本,判別器進(jìn)行判斷是真是假,我們理想的結(jié)果是?A、 生成器產(chǎn)生樣本的大致相同B、 判別器高效的分辨生成器產(chǎn)生樣本的真假C、 判別器無法分辨生成器產(chǎn)生樣本的真假D、 生成器產(chǎn)生樣本的不盡相同參考答案:C深度學(xué)習(xí)中神經(jīng)網(wǎng)絡(luò)類型很多,以下神經(jīng)網(wǎng)絡(luò)信息是單向傳播的是:A、 LSTMB、 卷積神經(jīng)網(wǎng)絡(luò)C、 循環(huán)神經(jīng)網(wǎng)絡(luò)D、 GRU參考答案:B深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)訓(xùn)練時(shí)需要大量的矩陣計(jì)算,一般我們需要配用硬件讓計(jì)算機(jī)具備并行計(jì)算的能力,以下硬件設(shè)備可提供并行計(jì)算能力的是:A、 主板B、 內(nèi)存條C、 GPUD、 CPU參考答案:CCPU主要通過增加指令,增加核數(shù)等方式來提升AI性能。A、 TRUEB、 FALSE參考答案:A在深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)中,感知器是最簡單的神經(jīng)網(wǎng)絡(luò),關(guān)于其結(jié)構(gòu)說法正確的是:A、 其隱含層只有兩層B、 其隱含層只有一層C、 其網(wǎng)絡(luò)中使用的是Sigmoid激活函數(shù)D、 其網(wǎng)絡(luò)中使用的是Relu激活函數(shù)參考答案:B下列屬性中TensorFlow2.0不支持創(chuàng)建tensor的方法是?A、 zerosB、 fillC、 createD、 constant參考答案:C圖像標(biāo)簽服務(wù)返回的tag可以有多個(gè)。A、 TRUEB、 FALSE參考答案:A關(guān)于語音識(shí)別服務(wù)中的一句話識(shí)別指的是,用于短語音的同步識(shí)別。一次性上傳整個(gè)音頻,響應(yīng)中即返回識(shí)別結(jié)果。A、 TRUEB、 FALSE參考答案:A通用文字識(shí)別服務(wù)調(diào)用成功時(shí),返回的文字識(shí)別結(jié)果保存在下列哪個(gè)字段中?A、 textB、 resultC、 contentD、 words參考答案:B機(jī)器學(xué)習(xí)中,模型需要輸入什么來訓(xùn)練自身,預(yù)測(cè)未知?A、 人工程序B、 神經(jīng)網(wǎng)絡(luò)C、 訓(xùn)練算法D、 歷史數(shù)據(jù)參考答案:D感知器在空間中可以展現(xiàn)為?A、 線B、 平面C、 超平面D、 點(diǎn)參考答案:C邏輯回歸的損失函數(shù)是交叉炳損失函數(shù)。A、 TRUEB、 FALSE參考答案:AH5.TensorFlow2.0中查看張量維度的方法是?A、 dimensB、 dtypeC、 ndimD、 device參考答案:CTensorFlow是一個(gè)用于機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的端到端開源平臺(tái)。A、 TRUEB、 FALSE參考答案:A在應(yīng)用開發(fā)時(shí),以下哪種操作不屬于典型網(wǎng)絡(luò)定義?A、 網(wǎng)絡(luò)定義B、 網(wǎng)絡(luò)執(zhí)行C、 知識(shí)蒸餡D、 權(quán)值初始化六、Atlas人工智能計(jì)算平臺(tái)參考答案:C在調(diào)用華為云服務(wù)的環(huán)境準(zhǔn)備中,下列哪一個(gè)不需要確認(rèn)安裝?A、requestsB、setuptoolsC、 websocketClientD、 Jieba參考答案:D神將網(wǎng)絡(luò)訓(xùn)練時(shí),常會(huì)遇到很多問題,對(duì)于梯度消失問題,我們可以通過選擇使用以下哪種函數(shù)減輕該問題?A、 Softsign函數(shù)B、 Relu函數(shù)C、 tanh函數(shù)D、 Sigmoid函數(shù)參考答案:BGBDT算法相比于隨機(jī)森林算法,以下哪種表述是錯(cuò)誤的?A、 GBDT算法比隨機(jī)森林容易欠擬合B、 隨機(jī)森林是并行計(jì)算的,而GBDT不能C、 GBDT算法比隨機(jī)森林容易過擬合D、 GBDT與隨機(jī)森林都是建立在CART樹的基礎(chǔ)之上的參考答案:CAtlas加速AI推理使用的是什么處理器?A、 異騰910處理器B、 異騰310處理器C、 GPUD、 FPGA參考答案:B傳統(tǒng)機(jī)器學(xué)習(xí)和深度學(xué)習(xí)是人工智能核心技術(shù),在工程流程上略有差別,以下步驟在深度學(xué)習(xí)中不需要做的是A、 模型評(píng)估B、 特征工程C、 數(shù)據(jù)清洗D、 模型構(gòu)建參考答案:BPytorch是有哪一個(gè)公司首先推出的?A、 百度B、 GoogleC、 FacebookD、 Huawei參考答案:CPyTorch不具備以下哪種功能?A、 內(nèi)嵌kerasB、 支持動(dòng)態(tài)圖C、 自動(dòng)求導(dǎo)D、 GPU加速參考答案:A有監(jiān)督學(xué)習(xí)中,“近朱者赤近墨者黑”是用來形容下列哪個(gè)模型?A、 KMeansB、SVMC、 KNND、 神經(jīng)網(wǎng)絡(luò)參考答案:CTensorFlow2.0中可用于張量合并的方法有?A、 joinB、 concatC、 splitD、 unstack參考答案:B某電商公司一直存在官網(wǎng)卡頓,網(wǎng)絡(luò)資源利用率不佳,運(yùn)維困難的問題,那么該公司可以使用以下哪一種EI服務(wù)?A、 園區(qū)智能體B、 交通智能體C、 網(wǎng)絡(luò)智能體D、 工業(yè)智能體參考答案:CTensorFlow2.0的keras.metrics的內(nèi)置指標(biāo)不包括的方法有?A、 AccuracyB、 RecallC、 SumD、 Mean參考答案:c現(xiàn)階段的人工智能仍處于弱人工智能階段。A、 TRUEB、 FALSE參考答案:A人工智能處在感知智能階段的表現(xiàn)是什么?A、 機(jī)器開始像人類一樣能理解、思考與決策B、 機(jī)器開始像人類一樣會(huì)計(jì)算,傳遞信息C、 機(jī)器開始看懂和聽懂,做出判斷,釆取一些簡單行動(dòng)參考答案:C以下關(guān)于標(biāo)準(zhǔn)RNN模型,說法正確的是?A、 不存在一對(duì)一的模型結(jié)構(gòu)B、 反向傳播吋不考慮肘間方向C、 不存在多對(duì)多的模型結(jié)構(gòu)D、 會(huì)出現(xiàn)長時(shí)間傳輸記憶的信息衰減的問題參考答案:D人工智能是研究、開發(fā)用于模擬、延伸和擴(kuò)展人的智能的理論、方法及應(yīng)用系統(tǒng)的一門新的技術(shù)科學(xué)。A、 TRUEB、 FALSE參考答案:A激活函數(shù)對(duì)于神經(jīng)網(wǎng)絡(luò)模型學(xué)習(xí)、理解非常復(fù)雜的問題有著重要的作用,以下關(guān)于激活函數(shù)說法正確的是A、 激活函數(shù)都是線性函數(shù)B、 激活函數(shù)都是非線性函數(shù)C、 激活函數(shù)部分是非線性函數(shù),部分是線性函數(shù)D、 激活函數(shù)大多數(shù)是非線性函數(shù),少數(shù)是線性函數(shù)參考答案:B多項(xiàng)式回歸當(dāng)中,模型的公式中存在平方項(xiàng),因此其不是線性的。A、 TRUEB、 FALSE參考答案:B在神經(jīng)網(wǎng)絡(luò)中,我們是通過以下哪個(gè)方法在訓(xùn)練網(wǎng)絡(luò)的時(shí)候更新參數(shù),從而最小化損失函數(shù)的?A、 正向傳播算法B、 池化計(jì)算C、 卷積計(jì)算D、 反向傳播算法參考答案:DGPU擅長計(jì)算密集和易于并行的程序。A、 TRUEB、 FALSE參考答案:A符號(hào)主義的落腳點(diǎn)主要體現(xiàn)在哪里?A、 落腳點(diǎn)在神經(jīng)元網(wǎng)絡(luò)與深度學(xué)習(xí)。B、 落腳點(diǎn)在推理,符號(hào)推理與機(jī)器推理。C、 落腳點(diǎn)在感知和行動(dòng)。D、 落腳點(diǎn)在行為控制、自適應(yīng)與進(jìn)化計(jì)算。參考答案:B人臉檢測(cè)服務(wù)在測(cè)試圖像中沒有人臉時(shí)會(huì)報(bào)錯(cuò)。A、 TRUEB、 FALSE參考答案:BRoot用戶無法在裝有Atlas300(3000)加速卡的服務(wù)器上安裝DDK(DeviceDevelopmentKit),只能使用普通用戶進(jìn)行安裝。A、 TRUEB、 FALSE參考答案:A由機(jī)器學(xué)習(xí)算法構(gòu)成的模型,在理論層面上,它并不能表征真正的數(shù)據(jù)分布函數(shù),只是逼近它而已。A、 TRUEB、 FALSE參考答案:A二.多選題已知全連接神經(jīng)網(wǎng)絡(luò)的某一層的參數(shù)總量為330,則上一層和本層的神經(jīng)元數(shù)量可能為?A、 32和10B、 10和33C、 33和10D、 9和33參考答案:ABCD下列關(guān)于通用表格識(shí)別服務(wù)返回的type字段說法正確的是?A、type代表文字識(shí)別區(qū)域類型B>typetext時(shí)代表文本識(shí)別區(qū)域C、 type代表表格類型D、 type為table時(shí)代表表格識(shí)別區(qū)域參考答案:BD下列哪些選項(xiàng)是〈人工智能綜合實(shí)驗(yàn)〉調(diào)用華為云服務(wù)中可能會(huì)用到的?A、 akB、 regionC、 project_idD、 sk參考答案:ABCDMS1R是一種簡潔高效靈活的基于圖的函數(shù)式IR,可以表示的函數(shù)式語義類型有?A、 自由變量B、 高階函數(shù)C、 中斷D、 遞歸參考答案:ABD以下哪些是屬于深度學(xué)習(xí)算法的激活函數(shù)?A、 SigmoidB、 ReLUC、 TanhD、 Sin參考答案:ABC下列哪些屬于Al的子領(lǐng)域?A、 機(jī)器學(xué)習(xí)B、 計(jì)算機(jī)視覺C、 語音識(shí)別D、 自然語言處理參考答案:ABCD截止2019年底,TensorFlow發(fā)布過的版本有?TOC\o"1-5"\h\zA、 1B、 3C、 2D、 0.1參考答案:ACD華為云ModelArts是面向AI開發(fā)的一戰(zhàn)式開發(fā)平臺(tái),以下哪些功能在ModelArts上可以具備?A、 數(shù)據(jù)治理B、 AI市場C、 可視化工作流D、 自動(dòng)學(xué)習(xí)參考答案:ABCD當(dāng)編譯模型時(shí)用了以下代碼:model,pile(optimizer=,Adam,loss='categorical.crossentropy',metrics=[tf.keras.metrics,accuracy]),在使用evaluate方法評(píng)估模型時(shí),會(huì)輸出以下哪些指標(biāo)?A、 accuracyB、 categorical_lossC、 lossD、 categoricalaccuracy參考答案:AC以下哪些庫是在裝有Atlas300(3000)加速卡的服務(wù)器中安裝DDK(DeviceDevelopmentKit)之前需要安裝的?A、 decoratorB、 setuptoolsC、 numpyD、 tensorflow參考答案:ABCHiAI移動(dòng)計(jì)算平臺(tái)有哪些優(yōu)點(diǎn)?A、 快速上手的源碼B、 多樣的工具鏈C、 完善的文檔D、 豐富的API參考答案:ABCD以下關(guān)于KNN算法當(dāng)中k值描述正確的是?A、 K值越大,模型越容易過擬合B、 K值越大,分類的分割面越平滑C、 K值是超參數(shù)D、 可以將k值設(shè)為0參考答案:BCTensorFlow2.0中可以用來查看是否是tensor的方法有?A、 dtypeB、 isinstanceC、 is_tensorD、 device參考答案:BCHUAWEIHiAI賦能APP哪些價(jià)值?A、 安全B、 穩(wěn)定C、 實(shí)時(shí)D、隨時(shí)參考答案:ABCD在卷積神經(jīng)網(wǎng)絡(luò)中,不同層具有不同的功能,可以起到降維作用的是以下哪一層?A、 輸入層B、 全連接層C、 卷積層D、 池化層參考答案:BCD人工智能現(xiàn)在的技術(shù)應(yīng)用方向主要有?A、 自然語言處理B、 控制系統(tǒng)C、 計(jì)算機(jī)視覺D、 語音識(shí)別參考答案:ACD在深度學(xué)習(xí)模型訓(xùn)練的過程中,常見的優(yōu)化器有哪些?A、 AdamB、 AdagradC、 SGDD、 Momentum參考答案:ABCD基因知識(shí)圖譜具備以下哪幾種能力?A、 輔助病例診斷B、 疾病預(yù)測(cè)及診斷C、 基因檢測(cè)報(bào)告生成D、 實(shí)體查詢參考答案:ACD華為云EI智能體根據(jù)行業(yè)和應(yīng)用場景的不同也有很多種,目前可以實(shí)現(xiàn)的華為云EI智能體有?A、 工業(yè)智能體B、 交通智能體C、 園區(qū)智能體D、 汽車智能體參考答案:ABCD下列選項(xiàng)中屬于keras下estimator封裝的方法有?A、 評(píng)估B、 訓(xùn)練C、 預(yù)測(cè)D、 輸出模型參考答案:ABC生成對(duì)抗網(wǎng)絡(luò)目前應(yīng)用非常廣泛,以下場景中可以使用此網(wǎng)絡(luò)的是?A、 數(shù)據(jù)增強(qiáng)B、 語義分割C、 信息檢索D、 圖像生成參考答案:ABCD處理實(shí)際問題時(shí),以下什么情況下該使用機(jī)器學(xué)習(xí)?A、 數(shù)據(jù)分布本身隨時(shí)間變化,需要程序不停的重新適應(yīng),比如預(yù)測(cè)商品銷售的趨勢(shì)B、 規(guī)則復(fù)雜程度低,且問題的規(guī)模較小的問題C、 任務(wù)的規(guī)則會(huì)隨時(shí)間改變,比如生產(chǎn)線上的瑕疵檢測(cè)D、 規(guī)則十分復(fù)雜或者無法描述,比如人臉識(shí)別和語音識(shí)別參考答案:ACD人工智能包括哪些要素?A、 算法B、 場景C、 算力D、 數(shù)據(jù)參考答案:ABCD從技術(shù)架構(gòu)來看AI芯片的分類包括?A、 FPGAB、 CPUC、 GPUD、 ASIC參考答案:ABCD下面哪些屬于AI的應(yīng)用領(lǐng)域?A、 智慧教育B、 智慧城市C、 智慧家居D、 智慧醫(yī)療參考答案:ABCD常見的臟數(shù)據(jù)的類型有哪些?A、 格式錯(cuò)誤的值B、 重復(fù)值C、 邏輯錯(cuò)誤的值D、 缺失值參考答案:ABCD華為云EI讓更多的企業(yè)邊界的使用AI和大數(shù)據(jù)服務(wù),加速業(yè)務(wù)發(fā)展,造福社會(huì)

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論