HCIA-AI復(fù)習(xí)試題附答案_第1頁(yè)
HCIA-AI復(fù)習(xí)試題附答案_第2頁(yè)
HCIA-AI復(fù)習(xí)試題附答案_第3頁(yè)
HCIA-AI復(fù)習(xí)試題附答案_第4頁(yè)
HCIA-AI復(fù)習(xí)試題附答案_第5頁(yè)
已閱讀5頁(yè),還剩26頁(yè)未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

第頁(yè)HCIA-AI復(fù)習(xí)試題附答案1.機(jī)器學(xué)習(xí)中,模型需要輸入什么來訓(xùn)練自身,預(yù)測(cè)未知?A、人工程序B、神經(jīng)網(wǎng)絡(luò)C、訓(xùn)練算法D、歷史數(shù)據(jù)【正確答案】:D2.循環(huán)神經(jīng)網(wǎng)絡(luò)不同于卷積神經(jīng)網(wǎng)絡(luò),它比較擅長(zhǎng)解決以下哪些問題?A、序列相關(guān)問題B、圖像分類C、圖像檢測(cè)D、推薦問題【正確答案】:A3.邏輯回歸的損失函數(shù)是交叉熵?fù)p失函數(shù)。A、TRUEB、FALSE【正確答案】:A4.傳統(tǒng)機(jī)器學(xué)習(xí)和深度學(xué)習(xí)是人工智能核心技術(shù),在工程流程上略有差別,以下步驟在深度學(xué)習(xí)中不需要做的是A、模型評(píng)估B、特征工程C、數(shù)據(jù)清洗D、模型構(gòu)建【正確答案】:B5.ModelArts服務(wù)與()服務(wù)相結(jié)合可以輕松將模型部署到“端”?A、OBSB、OCRC、ECSD、HiLens【正確答案】:D6.GBDT算法相比于隨機(jī)森林算法,以下哪種表述是錯(cuò)誤的?A、GBDT算法比隨機(jī)森林容易欠擬合B、隨機(jī)森林是并行計(jì)算的,而GBDT不能C、GBDT算法比隨機(jī)森林容易過擬合D、GBDT與隨機(jī)森林都是建立在CART樹的基礎(chǔ)之上的【正確答案】:C7.HUAWEIHiAI平臺(tái)中的人臉檢測(cè)是屬于哪個(gè)模塊?A、HiAIEngineB、HiAIFrameworkC、HiAIFoundationD、HiAIService【正確答案】:A8.多項(xiàng)式回歸當(dāng)中,模型的公式中存在平方項(xiàng),因此其不是線性的。A、TRUEB、FALSE【正確答案】:B9.在調(diào)用華為云服務(wù)的環(huán)境準(zhǔn)備中,下列哪一個(gè)不需要確認(rèn)安裝?A、requestsB、setuptoolsC、websocket-clientD、Jieba【正確答案】:D10.輸入3232的圖像,用大小55的卷積核做步長(zhǎng)為1的卷積計(jì)算,輸出圖像的大小是A、2823B、2828C、2929D、2323【正確答案】:B11.如果一個(gè)模型在測(cè)試集上偏差很大,方差很小,則說明該模型?A、過擬合B、可能過擬合可能欠擬合C、剛好擬合D、欠擬合【正確答案】:D12.關(guān)于反向傳播,以下說法錯(cuò)誤的是?A、反向傳播只能在前饋神經(jīng)網(wǎng)絡(luò)中運(yùn)用B、反向傳播可以結(jié)合梯度下降算法更新網(wǎng)絡(luò)權(quán)重C、反向傳播會(huì)經(jīng)過激活函數(shù)D、反向傳播指的是誤差通過網(wǎng)絡(luò)反向傳播【正確答案】:A13.在應(yīng)用開發(fā)時(shí),以下哪種操作不屬于典型網(wǎng)絡(luò)定義?A、網(wǎng)絡(luò)定義B、網(wǎng)絡(luò)執(zhí)行C、知識(shí)蒸餾D、權(quán)值初始化【正確答案】:C14.Atlas200DK所基于的異騰310芯片主要的應(yīng)用是?A、模型推理B、構(gòu)建模型C、訓(xùn)練模型【正確答案】:A15.機(jī)器學(xué)習(xí)算法中,以下不屬于集成學(xué)習(xí)策略的是?A、BoostingB、StackingC、BaggingD、Marking【正確答案】:D16.梯度下降算法中,損失函數(shù)曲面上軌跡最混亂的算法是以下哪種算法?A、SGDBGDC、MGDD、MBGD【正確答案】:A17.以下哪個(gè)不是MindSpore常用的Operation?A、signalB、mathC、arrayD、nn【正確答案】:A18.人臉?biāo)阉鞣?wù)中,如果想刪除某個(gè)人臉集,我們可以使用這樣的代碼:firs_cliet.get_v2().get_face_set_service().delete_face_set(""),其中""是填入實(shí)際的人臉集名稱。A、TRUEB、FALSE【正確答案】:A19.卷積神經(jīng)網(wǎng)絡(luò)中同一卷積層的所有卷積核是權(quán)重共享的。A、TRUEB、FALSE【正確答案】:A20.聯(lián)邦學(xué)習(xí)在保證數(shù)據(jù)隱私安全的前提下,利用不同數(shù)據(jù)源合作訓(xùn)練模型,進(jìn)步突破數(shù)據(jù)的瓶頸。A、TRUEB、FALSE【正確答案】:A21.回歸算法預(yù)測(cè)的標(biāo)簽是?A、自變型B、離散型C、應(yīng)變型D、連續(xù)型【正確答案】:D22.TensorFlow2.0支持GPU加速主要表現(xiàn)在對(duì)矩陣的加減乘除有一個(gè)并行運(yùn)算的加速。A、TRUEB、FALSE【正確答案】:A23.關(guān)于語(yǔ)音識(shí)別服務(wù)中的一句話識(shí)別指的是,用于短語(yǔ)音的同步識(shí)別。一次性上傳整個(gè)音頻,響應(yīng)中即返回識(shí)別結(jié)果。A、TRUEB、FALSE【正確答案】:A24.神將網(wǎng)絡(luò)訓(xùn)練時(shí),常會(huì)遇到很多問題,對(duì)于梯度消失問題,我們可以通過選擇使用以下哪種函數(shù)減輕該問題?A、Softsign函數(shù)B、Relu函數(shù)C、tanh函數(shù)D、Sigmoid函數(shù)【正確答案】:B25.下列選項(xiàng)中不是TensorFlow2.0支持的運(yùn)算符是A、powB、@C、^D、//【正確答案】:C26.以下哪一個(gè)不屬于人臉識(shí)別技術(shù)?A、人臉?biāo)阉鰾、人臉比對(duì)C、人臉檢測(cè)D、翻拍識(shí)別【正確答案】:D27.在深度學(xué)習(xí)網(wǎng)絡(luò)中,反向傳播算法用于尋求最優(yōu)參數(shù),在反向傳播算法中使用的什么法則進(jìn)行逐層求導(dǎo)的?A、鏈?zhǔn)椒▌tB、累加法則C、對(duì)等法則D、歸一法則【正確答案】:A28.PyTorch現(xiàn)有版本均支持Python2和Python3?A、TRUEB、FALSE【正確答案】:B29.在對(duì)抗生成網(wǎng)絡(luò)當(dāng)中,帶有標(biāo)簽的數(shù)據(jù)應(yīng)該被放在哪里?A、作為生成模型的輸出值B、作為判別模型的輸入值C、作為判別模型的輸出值D、作為生成模型的輸入值【正確答案】:B30.L1和L2正則化是傳統(tǒng)機(jī)器學(xué)習(xí)常用來減少泛化誤差的方法,以下關(guān)于兩者的說法正確的是A、L1正則化可以做特征選擇B、L1和L2正則化均可做特征選擇C、L2正則化可以做特征選擇D、L1和L2正則化均不可做特征選擇【正確答案】:A31.在神經(jīng)網(wǎng)絡(luò)中,我們是通過以下哪個(gè)方法在訓(xùn)練網(wǎng)絡(luò)的時(shí)候更新參數(shù),從而最小化損失函數(shù)的?A、正向傳播算法B、池化計(jì)算C、卷積計(jì)算D、反向傳播算法【正確答案】:D32.生成對(duì)抗網(wǎng)絡(luò)像是一個(gè)博弈系統(tǒng),生成器生成偽造的樣本,判別器進(jìn)行判斷是真是假,我們理想的結(jié)果是?A、生成器產(chǎn)生樣本的大致相同B、判別器高效的分辨生成器產(chǎn)生樣本的真假C、判別器無法分辨生成器產(chǎn)生樣本的真假D、生成器產(chǎn)生樣本的不盡相同【正確答案】:C33.人臉比對(duì)服務(wù)調(diào)用時(shí)只傳入一張圖像也可以。A、TRUEB、FALSE【正確答案】:B34.華為的AI全場(chǎng)景包括公有云、私有云、各種邊緣計(jì)算、物聯(lián)網(wǎng)行業(yè)終端以及消費(fèi)類終端等端、邊、云的部署環(huán)境。A、TRUEB、FALSE【正確答案】:A35.全局梯度下降算法、隨機(jī)梯度下降算法和批量梯度下降算法均屬于梯度下降算法,以下關(guān)于其有優(yōu)缺點(diǎn)說法錯(cuò)誤的是:A、全局梯度算法可以找到損失函數(shù)的最小值B、批量梯度算法可以解決局部最小值問題C、隨機(jī)梯度算法可以找到損失函數(shù)的最小值D、全局梯度算法收斂過程比較耗時(shí)【正確答案】:C36.由機(jī)器學(xué)習(xí)算法構(gòu)成的模型,在理論層面上,它并不能表征真正的數(shù)據(jù)分布函數(shù),只是逼近它而已。A、TRUEB、FALSE【正確答案】:A37.感知器在空間中可以展現(xiàn)為?A、線B、平面C、超平面D、點(diǎn)【正確答案】:C38.代碼model.fit(mnist.train.inmage,mnist.train.labels.epochs=5)中的epochs參數(shù)代表?A、全體訓(xùn)練集將被訓(xùn)練5次B、全體測(cè)試集將被測(cè)試5次C、全體訓(xùn)練集將被分為6份D、全體訓(xùn)練集將被分為5份【正確答案】:A39.語(yǔ)音識(shí)別服務(wù)調(diào)用成功時(shí),識(shí)別的結(jié)果保存在下面哪個(gè)字段中?A、resultB、contentC、dataD、text【正確答案】:A40.下列選項(xiàng)中不支持TensorFLow2.0進(jìn)行維度變換的屬性是。A、squeezeB、reshapeC、gatherD、transpose【正確答案】:C41.當(dāng)使用TensorFlow2.0的keras接口搭建神經(jīng)網(wǎng)絡(luò)時(shí),需要進(jìn)行網(wǎng)絡(luò)的編譯工作,需要用到以下哪種方法?A、compileB、writeC、joinD、fit【正確答案】:A42.計(jì)算機(jī)視覺是研究如何讓計(jì)算機(jī)“看”的科學(xué)。A、TRUEB、FALSE【正確答案】:A43.關(guān)于圖像內(nèi)容審核服務(wù)說法錯(cuò)誤的是?A、politics為涉政敏感人物檢測(cè)結(jié)果B、terrorism為涉政暴恐檢測(cè)結(jié)果C、confidence代表置信度,范圍0-100D、labe1代表每個(gè)檢測(cè)結(jié)果的標(biāo)簽【正確答案】:C44.TensorFlow2.0中查看張量維度的方法是?CA、dimensB、dtypeC、ndimD、device【正確答案】:C45.邏輯回歸當(dāng)中也可以加入正則項(xiàng)用于避免過擬合。A、TRUEB、FALSE【正確答案】:A46.損失函數(shù)反映了神經(jīng)網(wǎng)絡(luò)的目標(biāo)輸出和實(shí)際輸出的誤差,在深度學(xué)習(xí)中常用的損失函數(shù)是:A、指數(shù)損失函數(shù)B、均方損失函數(shù)C、對(duì)數(shù)損失函數(shù)D、Hinge損失函數(shù)【正確答案】:B47.在華為云EI中,以下哪項(xiàng)可以將AI技術(shù)融入各行各業(yè)的應(yīng)用場(chǎng)景中,發(fā)揮AI技術(shù)的優(yōu)勢(shì),從而提高效率,提升體驗(yàn)。A、EI智能體B、OBS對(duì)象存儲(chǔ)服務(wù)C、云數(shù)據(jù)庫(kù)D、EI大數(shù)據(jù)服務(wù)【正確答案】:A48.人工智能處在感知智能階段的表現(xiàn)是什么?A、機(jī)器開始像人類一樣能理解、思考與決策B、機(jī)器開始像人類一樣會(huì)計(jì)算,傳遞信息C、機(jī)器開始看懂和聽懂,做出判斷,采取一些簡(jiǎn)單行動(dòng)【正確答案】:C49.對(duì)于圖像分類問題,以下哪個(gè)神經(jīng)網(wǎng)絡(luò)更適合解決這個(gè)問題?A、感知器B、循環(huán)神經(jīng)網(wǎng)絡(luò)C、卷積神經(jīng)網(wǎng)絡(luò)D、全連接神經(jīng)網(wǎng)絡(luò)【正確答案】:C50.Atlas800AI服務(wù)器有多個(gè)型號(hào),其中基于鯤鵬處理器平臺(tái)的是?Atlas800型號(hào):9000B、Atlas800型號(hào):3000C、Atlas800型號(hào):3010【正確答案】:B51.關(guān)于循環(huán)神經(jīng)網(wǎng)絡(luò)以下說法錯(cuò)誤的是?A、循環(huán)神經(jīng)網(wǎng)絡(luò)可以根據(jù)時(shí)間軸展開B、LSTM無法解決梯度消失的問題C、LSTM也是一種循環(huán)神經(jīng)網(wǎng)絡(luò)D、循環(huán)神經(jīng)網(wǎng)絡(luò)可以簡(jiǎn)寫為RNN【正確答案】:B52.TensorFlow2.0的keras.preprocessing的作用是?A、keras數(shù)據(jù)處理工具B、keras內(nèi)置優(yōu)化器C、keras模型部署工具D、Keras生成模型工具【正確答案】:A53.TensorFlow使用的數(shù)據(jù)類型是?A、ScalarB、VectorC、TensorD、Matrix【正確答案】:C54.符號(hào)主義的落腳點(diǎn)主要體現(xiàn)在哪里?A、落腳點(diǎn)在神經(jīng)元網(wǎng)絡(luò)與深度學(xué)習(xí)。B、落腳點(diǎn)在推理,符號(hào)推理與機(jī)器推理。C、落腳點(diǎn)在感知和行動(dòng)。D、落腳點(diǎn)在行為控制、自適應(yīng)與進(jìn)化計(jì)算?!菊_答案】:B55.循環(huán)神經(jīng)網(wǎng)絡(luò)可以捕捉序列化數(shù)據(jù)中的動(dòng)態(tài)信息。A、TRUEB、FALSE【正確答案】:A56.以下哪個(gè)關(guān)于監(jiān)督式學(xué)習(xí)的說法是正確的?A、決策樹是一種監(jiān)督式學(xué)習(xí)B、監(jiān)督式學(xué)習(xí)不可以使用交叉驗(yàn)證進(jìn)行訓(xùn)練C、監(jiān)督式學(xué)習(xí)是一種基于規(guī)則的算法D、監(jiān)督式學(xué)習(xí)不需要標(biāo)簽就可以訓(xùn)練【正確答案】:A57.在裝有Atlas300(3000)加速卡的服務(wù)器中安裝DDK(DeviceDevelopmentKit)依賴環(huán)境時(shí)只需要安裝Python3。A、TRUEB、FALSE【正確答案】:A58.某電商公司一直存在官網(wǎng)卡頓,網(wǎng)絡(luò)資源利用率不佳,運(yùn)維困難的問題,那么該公司可以使用以下哪一種EI服務(wù)?A、園區(qū)智能體B、交通智能體C、網(wǎng)絡(luò)智能體D、工業(yè)智能體【正確答案】:C59.激活函數(shù)對(duì)于神經(jīng)網(wǎng)絡(luò)模型學(xué)習(xí)、理解非常復(fù)雜的問題有著重要的作用,以下關(guān)于激活函數(shù)說法正確的是A、激活函數(shù)都是線性函數(shù)B、激活函數(shù)都是非線性函數(shù)C、激活函數(shù)部分是非線性函數(shù),部分是線性函數(shù)D、激活函數(shù)大多數(shù)是非線性函數(shù),少數(shù)是線性函數(shù)【正確答案】:B60.TensorFlow2.0不支持tensor在GPU和CPU之間相互轉(zhuǎn)移。A、TRUEB、FALSE【正確答案】:B61.以下哪個(gè)不是圖像識(shí)別服務(wù)的應(yīng)用?A、目標(biāo)檢測(cè)B、智能相冊(cè)C、場(chǎng)景分析D、語(yǔ)音合成【正確答案】:D62.線性回歸的損失函數(shù)中加入L1正則項(xiàng),此時(shí)該回歸叫做Lasso回歸。A、TRUEB、FALSE【正確答案】:A63.下列哪一個(gè)是圖像標(biāo)簽服務(wù)的URI?A、/v1.0/image/recognitionB、/v1.0/image/celebrity-recognitionC、/v1.0/image/recapture-detectD、/v1.0/image/tagging【正確答案】:D64.CPU主要通過增加指令,增加核數(shù)等方式來提升AI性能。A、TRUEB、FALSE【正確答案】:A65.下列選項(xiàng)中昇騰310和昇騰910屬性相同的是?A、最大功率B、架構(gòu)C、整數(shù)精度D、7nm制程【正確答案】:B66.二分類過程中,我們可將任意類別設(shè)為正例。A、TRUEB、FALSE【正確答案】:A67.On-Device執(zhí)行,即整圖卸載執(zhí)行,充分發(fā)揮異騰芯片的算力,可以大大降低交互的開銷,從而提升加速器占用率,關(guān)于0n-Device執(zhí)行以下描述錯(cuò)誤的是?A、MindSpore通過梯度數(shù)據(jù)驅(qū)動(dòng)的自適應(yīng)圖優(yōu)化,實(shí)現(xiàn)去中心化的自主A11Reduce,

梯度聚合步調(diào)一致,計(jì)算與通信充分流水B、超強(qiáng)芯片算力下模型執(zhí)行的挑戰(zhàn):內(nèi)存墻問題、交互開銷大、數(shù)據(jù)供給難。部分在Host執(zhí)行,部分在Device執(zhí)行,交互開銷甚至遠(yuǎn)大于執(zhí)行開銷,導(dǎo)致加速器占用率低C、MindSpore通過面向芯片的深度圖優(yōu)化技術(shù),同步等待少,最大化“數(shù)據(jù)計(jì)算通信”的并行度,訓(xùn)練性能相比Host側(cè)圖調(diào)度方式持平D、超強(qiáng)芯片算力下分布式梯度聚合的挑戰(zhàn):ReslNet50單迭代20ms時(shí)間時(shí)會(huì)產(chǎn)生中心控制的同步開銷和頻繁同步的通信開銷。傳統(tǒng)方法需要3次同步完成A11Reduce,數(shù)據(jù)驅(qū)動(dòng)方法自主A11Reduce,無控制開銷【正確答案】:C68.HUAWEIHiAI平臺(tái)支持與哪一個(gè)工具集成?A、JupyterNotebookB、MyEclipseC、AndroidStudioD、Spider【正確答案】:C69.在深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)中,感知器是最簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò),關(guān)于其結(jié)構(gòu)說法正確的是:A、其隱含層只有兩層B、其隱含層只有一層C、其網(wǎng)絡(luò)中使用的是Sigmoid激活函數(shù)D、其網(wǎng)絡(luò)中使用的是Relu激活函數(shù)【正確答案】:B70.深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)訓(xùn)練時(shí)需要大量的矩陣計(jì)算,一般我們需要配用硬件讓計(jì)算機(jī)具備并行計(jì)算的能力,以下硬件設(shè)備可提供并行計(jì)算能力的是:A、主板B、內(nèi)存條C、GPUD、CPU【正確答案】:C71.在經(jīng)典的卷積神經(jīng)網(wǎng)絡(luò)模型中,Softmax函數(shù)是跟在什么隱藏層后面的?A、卷積層B、池化層C、全連接層D、以上都可以【正確答案】:C72.哪條命令可以檢查Atlas300(3000)加速卡是否在位?A、1spci|grep‘npu’B、1spci|grep‘d100’C、1spcigrep‘a(chǎn)tlas’D、atlasinfo【正確答案】:B73.機(jī)器學(xué)習(xí)的算法中,以下哪個(gè)不是無監(jiān)督學(xué)習(xí)?A、GMMB、XgboostC、聚類D、關(guān)聯(lián)規(guī)則【正確答案】:B74.“從有標(biāo)簽的歷史數(shù)據(jù)中來預(yù)測(cè)下季度的商鋪營(yíng)收會(huì)在20-30萬還是30-40萬”,這是一個(gè)什么問題?A、回歸問題B、規(guī)則問題C、分類問題D、聚類問題【正確答案】:C75.TensorFlow2.0中的Keras接口的三個(gè)主要優(yōu)勢(shì)是方便用戶使用,模塊化和可組合,易于擴(kuò)展。A、TRUEB、FALSE【正確答案】:A76.AI芯片也被稱為AI加速器,是專門用于處理人工智能應(yīng)用中的大量計(jì)算任務(wù)的功能模塊。A、TRUEB、FALSE【正確答案】:A77.線性回歸在3維以上的維度中擬合面是?A、曲面B、平面C、超平面D、超曲面【正確答案】:C78.重復(fù)性強(qiáng)、要求弱社交能力的工作是最容易被AI取代的工作。A、TRUEB、FALSE【正確答案】:A79.現(xiàn)階段的人工智能仍處于弱人工智能階段。A、TRUEB、FALSE【正確答案】:A80.以下關(guān)于機(jī)器學(xué)習(xí)描述正確的是?A、深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個(gè)分支B、深度學(xué)習(xí)與機(jī)器學(xué)習(xí)是互相包含的關(guān)系C、深度學(xué)習(xí)與機(jī)器學(xué)習(xí)同屬于人工智能但相互之間沒有關(guān)系D、以上都不對(duì)【正確答案】:A81.Pytorch是有哪一個(gè)公司首先推出的?A、百度B、GoogleC、FacebookD、Huawei【正確答案】:C82.在TensorFlow2.0中tf.contrib方法可以繼續(xù)使用。A、TRUEB、FALSE【正確答案】:B83.交通智能體可以實(shí)現(xiàn)()小時(shí)全時(shí)段/全域交通感知?A、7×24B、5×24C、5×12D、7×12【正確答案】:A84.以下不屬于TensorFlow2.0的特點(diǎn)是?A、多核CPU加速B、分布式C、多語(yǔ)言D、多平臺(tái)【正確答案】:A85.損失函數(shù)與模型函數(shù)是一回事。A、TRUEB、FALSE【正確答案】:B86.TensorFlow2.0的keras.metrics的內(nèi)置指標(biāo)不包括的方法有?AccuracyB、RecallC、SumD、Mean【正確答案】:C87.Tensor是MindSpore中數(shù)據(jù)的存儲(chǔ)組件。A、TRUEB、FALSE【正確答案】:A88.在訓(xùn)練神經(jīng)網(wǎng)絡(luò)過程中我們目的是讓損失函數(shù)不斷減少,我們常用以下哪種方法最小化損失函數(shù)?A、梯度下降B、DropoutC、交叉驗(yàn)證D、正則化【正確答案】:A89.Bagging集成學(xué)習(xí)中,每個(gè)基學(xué)習(xí)器之間的關(guān)系是?A、相加關(guān)系B、相關(guān)關(guān)系C、后面的模型必須建立在前面的模型之上D、相互獨(dú)立【正確答案】:B90.語(yǔ)音識(shí)別指的是將音頻數(shù)據(jù)識(shí)別為文本數(shù)據(jù)。A、TRUEB、FALSE【正確答案】:A91.K折交叉驗(yàn)證是指將測(cè)試數(shù)據(jù)集劃分成K個(gè)子數(shù)據(jù)集。A、TRUEB、FALSE【正確答案】:B92.樸素貝葉斯算法不需要樣本特征之間的獨(dú)立同分布。A、TRUEB、FALSE【正確答案】:B93.圖像標(biāo)簽服務(wù)返回的tag可以有多個(gè)。A、TRUEB、FALSE【正確答案】:A94.網(wǎng)格搜索是一種參數(shù)調(diào)節(jié)的方法。A、TRUEB、FALSE【正確答案】:B95.特征是描述樣本的特性的維度,關(guān)于其在傳統(tǒng)機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的可解釋性,以下說法正確的是:A、特征在傳統(tǒng)機(jī)器學(xué)習(xí)可解釋性強(qiáng),而在深度學(xué)習(xí)可解釋性弱B、特征在傳統(tǒng)機(jī)器學(xué)習(xí)可解釋性弱,而在深度學(xué)習(xí)可解釋性強(qiáng)C、特征在傳統(tǒng)機(jī)器學(xué)習(xí)和深度學(xué)習(xí)可解釋性均弱D、特征在傳統(tǒng)機(jī)器學(xué)習(xí)和深度學(xué)習(xí)可解釋性均強(qiáng)【正確答案】:A96.以下關(guān)于標(biāo)準(zhǔn)RNN模型,說法正確的是?A、不存在一對(duì)一的模型結(jié)構(gòu)B、反向傳播時(shí)不考慮時(shí)間方向C、不存在多對(duì)多的模型結(jié)構(gòu)D、會(huì)出現(xiàn)長(zhǎng)時(shí)間傳輸記憶的信息衰減的問題【正確答案】:D97.人工智能的三個(gè)階段包含了計(jì)算智能、()、認(rèn)知智能。A、弱人工智能B、感知智能C、行為智能D、強(qiáng)人工智能【正確答案】:B98.有監(jiān)督學(xué)習(xí)中,“近朱者赤近墨者黑”是用來形容下列哪個(gè)模型?A、K-MeansB、SVMC、KNND、神經(jīng)網(wǎng)絡(luò)【正確答案】:C99.深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)的隱藏層數(shù)對(duì)網(wǎng)絡(luò)的性能有一定的影響,以下關(guān)于其影響說法正確的是:A、隱藏層數(shù)適當(dāng)減少,神經(jīng)網(wǎng)絡(luò)的分辨能力不變B、隱藏層數(shù)適當(dāng)增加,神經(jīng)網(wǎng)絡(luò)的分辨能力越強(qiáng)C、隱藏層數(shù)適當(dāng)減少,神經(jīng)網(wǎng)絡(luò)的分辨能力越強(qiáng)D、隱藏層數(shù)適當(dāng)增加,神經(jīng)網(wǎng)絡(luò)的分辨能力越弱【正確答案】:B100.面對(duì)行業(yè)研究與全場(chǎng)景AI應(yīng)用之間的巨大鴻溝,MindSpore跨越應(yīng)用鴻溝助力普惠AI的技術(shù)創(chuàng)新不包括以下哪項(xiàng)?A、新協(xié)作方式B、新編程語(yǔ)言C、新編程范式D、新執(zhí)行模式【正確答案】:B1.以下關(guān)于機(jī)器學(xué)習(xí)算法與傳統(tǒng)基于規(guī)則方法的區(qū)別中正確的是?A、傳統(tǒng)的基于規(guī)則的方法,其中的規(guī)律可以人工顯性的明確出來B、傳統(tǒng)基于規(guī)則的方法使用顯性編程來解決問題C、機(jī)器學(xué)習(xí)中模型的映射關(guān)系是自動(dòng)學(xué)習(xí)的D、機(jī)器學(xué)習(xí)所中模型的映射關(guān)系必須是隱性的【正確答案】:ABC2.TensorF1ow2.0中可以用來查看是否是tensor的方法有?A、dtypeB、isinstanceC、is_tensorD、device【正確答案】:BC3.HUAWEIHiAI賦能APP哪些價(jià)值?A、安全B、穩(wěn)定C、實(shí)時(shí)D、隨時(shí)【正確答案】:ABCD4.在隨機(jī)森林中,最終的集成模型是通過什么策略決定模型結(jié)果的?A、累加制B、求平均數(shù)C、投票制D、累乘制【正確答案】:BC5.TensorFlow中keras模塊的內(nèi)置優(yōu)化器有?AdamB、SGDC、AdaboostD、Adadelta【正確答案】:ABCD6.關(guān)于卷積神經(jīng)網(wǎng)絡(luò)池化層以下描述正確的是?A、池化操作采用掃描窗口實(shí)現(xiàn)B、池化層可以起到降維的作用C、常用的池化方法有最大池化和平均池化D、經(jīng)過池化的特征圖像變小了【正確答案】:ABCD7.以下哪幾個(gè)方面屬于華為的全棧AI解決方案?AscendB、CANNC、ModelArtsD、MindSpore【正確答案】:ABCD8.下列關(guān)于護(hù)照識(shí)別服務(wù)的說法正確的是?ABCDA、country_code代表護(hù)照簽發(fā)國(guó)家的國(guó)家碼B、nationality代表持有人國(guó)籍C、passport_number代表護(hù)照號(hào)碼D、confidence相關(guān)字段的置信度信息,置信度越大,表示本次識(shí)別的對(duì)應(yīng)字段的可靠性越高,在統(tǒng)計(jì)意義上,置信度越大,準(zhǔn)確率越高【正確答案】:ABCD9.關(guān)于人臉?biāo)阉鞣?wù),下列哪些說法是正確的?A、沒有人臉集時(shí),需要先創(chuàng)建人臉集,再添加人臉數(shù)據(jù),然后才能進(jìn)行搜索B、一個(gè)人臉集的大小不能超過10000張圖片C、有專門的接口可以刪除指定人臉集D、有專門的接口可以刪除某個(gè)人臉集中的人臉數(shù)據(jù)【正確答案】:ACD10.以下哪些庫(kù)是在裝有Atlas300(3000)加速卡的服務(wù)器中安裝DDK(DeviceDevelopmentKit)之前需要安裝的?A、decoratorB、setuptoolsC、numpyD、tensorflow【正確答案】:ABC11.正則化是傳統(tǒng)機(jī)器學(xué)習(xí)中重要且有效的減少泛化誤差的技術(shù),以下技術(shù)屬于正則化技術(shù)的是:A、L1正則化B、L2正則化C、DropoutD、動(dòng)量?jī)?yōu)化器【正確答案】:ABC12.根據(jù)華為云EI智能平臺(tái),可以提供以下哪些解決方案?A、人流統(tǒng)計(jì)方案B、基于知識(shí)圖譜的政策查詢方案C、車輛識(shí)別方案D、入侵識(shí)別方案【正確答案】:ABCD13.卷積神經(jīng)網(wǎng)絡(luò)中的池化層可以減小下層輸入的尺寸。常見的池化有:A、最小地化層B、乘積池化層C、最大池化層D、平均池化層【正確答案】:CD14.已知全連接神經(jīng)網(wǎng)絡(luò)的某一層的參數(shù)總量為330,則上一層和本層的神經(jīng)元數(shù)量可能為?A、32和10B、10和33C、33和10D、9和33【正確答案】:BC15.深度學(xué)習(xí)中以下哪些步驟是由模型自動(dòng)完成的?A、模型訓(xùn)練B、特征選擇C、分析定位任務(wù)D、特征提取【正確答案】:BD16.HiAI移動(dòng)計(jì)算平臺(tái)有哪些優(yōu)點(diǎn)?A、快速上手的源碼B、多樣的工具鏈C、完善的文檔D、豐富的API【正確答案】:ABCD17.SVM中常用的核函數(shù)包括哪些?A、高斯核函數(shù)B、多項(xiàng)式核函數(shù)C、Sigmiod核函數(shù)D、線性核函數(shù)【正確答案】:ABCD18.當(dāng)編譯模型時(shí)用了以下代碼:pile(optimizer='Adam,loss=‘categorical.crossentropy’,metrics=[tf.keras.metrics.accuracy]),在使用evaluate方法評(píng)估模型時(shí),會(huì)輸出以下哪些指標(biāo)?A、accuracyB、categorical_1ossC、lossD、categoricalaccuracy【正確答案】:AC19.HUAWEIHiAI支持的機(jī)型有哪些?A、P30B、Mate20C、榮耀V20D、iPhone10【正確答案】:ABC20.下列關(guān)于通用表格識(shí)別服務(wù)的說法正確的是?A、rows代表文字塊占用的行信息,編號(hào)從0開始,列表形式B、colums代表文字塊占用的列信息,編號(hào)從0開始,列表形式C、傳入的圖像數(shù)據(jù)需要經(jīng)過base64編碼D、words代表文字塊識(shí)別結(jié)果【正確答案】:ABCD21.華為云ModelArts是面向AI開發(fā)的一戰(zhàn)式開發(fā)平臺(tái),以下哪些功能在Mode1Arts上可以具備?A、數(shù)據(jù)治理B、AI市場(chǎng)C、可視化工作流D、自動(dòng)學(xué)習(xí)【正確答案】:ABCD22.在深度學(xué)習(xí)任務(wù)中,遇到數(shù)據(jù)不平衡問題時(shí),我們可以用以下哪些方法進(jìn)行解訣?A、批量刪除B、隨機(jī)過采樣C、合成采樣D、隨機(jī)欠采【正確答案】:BCD23.以下關(guān)于KNN算法當(dāng)中k值描述正確的是?A、K值越大,模型越容易過擬合B、K值越大,分類的分割面越平滑C、K值是超參數(shù)D、可以將k值設(shè)為0【正確答案】:BC24.在卷積神經(jīng)網(wǎng)絡(luò)中,不同層具有不同的功能,可以起到降維作用的是以下哪一層?A、輸入層B、全連接層C、卷積層D、池化層【正確答案】:BCD25.AI芯片從業(yè)務(wù)應(yīng)用上來分,可以分為?ADA、訓(xùn)練B、GPUC、模型構(gòu)建D、推理【正確答案】:AD26.達(dá)芬奇架構(gòu)計(jì)算單元主要包含的計(jì)算資源有?A、向量計(jì)算單元B、標(biāo)量計(jì)算單元C、張量計(jì)算單元D、矩陣計(jì)算單元【正確答案】:ABD27.以下哪些服務(wù)屬于華為EI服務(wù)家族?A、對(duì)話機(jī)器人B、EI基礎(chǔ)服務(wù)C、自然語(yǔ)言處理D、EI大數(shù)據(jù)服務(wù)【正確答案】:ABCD28.以下屬于TensorFlow2.0的特性的是?A、引入Keras接口B、支持靜態(tài)圖機(jī)制C、支持更多平臺(tái)和更多語(yǔ)言D、繼續(xù)兼容Tensorflowl.x的相關(guān)模塊【正確答案】:ACD29.有大量銷售數(shù)據(jù),但沒有標(biāo)簽的情況下,企業(yè)想甄別出VIP客戶,以下模型中合適的有?A、邏輯回歸B、SVMC、K-MeansD、層次聚類【正確答案】:CD30.深度學(xué)習(xí)中常用的損失函數(shù)有?A、L1損失函數(shù)B、均方誤差損失函數(shù)C、交叉熵誤差損失函數(shù)D、自下降損失函數(shù)【正確答案】:BC31.下列哪些屬于AI的子領(lǐng)域?A、機(jī)器學(xué)習(xí)B、計(jì)算機(jī)視覺C、語(yǔ)音識(shí)別D、自然語(yǔ)言處理【正確答案】:ABCD32.下列哪些選項(xiàng)是<人工智能綜合實(shí)驗(yàn)>調(diào)用華為云服務(wù)中可能會(huì)用到的?A、akB、regionC、project_idD、sk【正確答案】:ABCD33.在深度學(xué)習(xí)模型訓(xùn)練的過程中,常見的優(yōu)化器有哪些?AdamB、AdagradC、SGDD、Momentum【正確答案】:ABCD34.以下哪些是語(yǔ)音處理研究的主題?A、語(yǔ)音處理B、聲紋識(shí)別C、語(yǔ)音識(shí)別D、語(yǔ)音喚醒【正確答案】:BCD35.在神經(jīng)網(wǎng)絡(luò)中常有權(quán)重共享現(xiàn)象,以下哪些神經(jīng)網(wǎng)絡(luò)會(huì)發(fā)生權(quán)重共享?A、感知器B、卷積神經(jīng)網(wǎng)絡(luò)C、全連接神經(jīng)網(wǎng)絡(luò)D、循環(huán)神經(jīng)網(wǎng)絡(luò)【正確答案】:BD36.生成對(duì)抗網(wǎng)絡(luò)目前應(yīng)用非常廣泛,以下場(chǎng)景中可以使用此網(wǎng)絡(luò)的是?A、數(shù)據(jù)增強(qiáng)B、語(yǔ)義分割C、信息檢索D、圖像生成【正確答案】:ABCD37.使用裝有Atlas300(3000)加速卡的服務(wù)器編譯運(yùn)行程序時(shí)需要檢查哪些條件?A、完成Atlas驅(qū)動(dòng)安裝B、已安裝CUDA軟件包C、已安裝Cmake編譯工具D、完成環(huán)境配置【正確答案】:ACD38.華為云EI讓更多的企業(yè)邊界的使用AI和大數(shù)據(jù)服務(wù),加速業(yè)務(wù)發(fā)展,造福社會(huì)。華為云EI服務(wù)可以在以下哪些方面服務(wù)企業(yè)?A、行業(yè)數(shù)據(jù)B、行業(yè)智慧C、算法D、算力【正確答案】:ABCD39.華為云EI智能體根據(jù)行業(yè)和應(yīng)用場(chǎng)景的不同也有很多種,目前可以實(shí)現(xiàn)的華為云EI智能體有?A、工業(yè)智能體B、交通智能體C、園區(qū)智能體D、汽車智能體【正確答案】:ABCD40.下面哪些屬于AI的應(yīng)用領(lǐng)域?A、智慧教育B、智慧城市C、智慧家居D、智慧醫(yī)療【正確答案】:ABCD41.關(guān)于圖像內(nèi)容審核服務(wù)調(diào)用成功時(shí)返回的suggestion字段,說法正確的是?A、pass代表不包含敏感信息,通過B、review代表需要人工復(fù)檢C、suggestion字段代表檢測(cè)是否通過D、block代表包含敏感信息,不通過【正確答案】:ABCD42.人工智能現(xiàn)在的技術(shù)應(yīng)用方向主要有?A、自然語(yǔ)言處理B、控制系統(tǒng)C、計(jì)算機(jī)視覺D、語(yǔ)音識(shí)別【正確答案】:ACD43.MSIR是一種簡(jiǎn)潔高效靈活的基于圖的函數(shù)式IR,可以表示的函數(shù)式語(yǔ)義類型有?A

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論