版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡介
PAGEPAGE1(新版)HCIA-AIH13-311v3.5近年考試真題題庫(含答案)一、單選題1.線性回歸在3維以上的維度中擬合面是?A、曲面B、平面C、超平面D、超曲面答案:C2.以下哪個(gè)選項(xiàng)不屬于昇騰AI處理器的硬件架構(gòu)?A、TBEB、DVPPC、ontrolCPUD、AICore答案:A3.自動(dòng)車險(xiǎn)定損場景中,用戶依次上傳車輛的全景照片、受損部位照片以及受損部位細(xì)節(jié)照片,然后定損系統(tǒng)通過所上傳圖片的細(xì)節(jié)進(jìn)行判定。這一場景運(yùn)用了以下哪一項(xiàng)技術(shù)?A、語音合成和處理技術(shù)B、語音識(shí)別和處理技術(shù)C、自然語言處理技術(shù)D、圖像識(shí)別和目標(biāo)檢測技術(shù)答案:D4.MindCompiler子系統(tǒng)提供圖級(jí)即時(shí)編譯能力,以下哪一項(xiàng)不屬于其面向硬件所進(jìn)行的優(yōu)化操作?A、算子融合B、layout優(yōu)化C、冗余消除D、自動(dòng)并行答案:C5.以下關(guān)于神經(jīng)網(wǎng)絡(luò)的說法中,哪一項(xiàng)是正確的?A、LSTM全稱LessShort-TermMemcry.表示短期記憶網(wǎng)絡(luò)。B、神經(jīng)網(wǎng)絡(luò)只能是從前往后單向傳播,C、LSTM適合應(yīng)用于長時(shí)間的相關(guān)信息和位置間隔的場景,D、LSTM和RNN完全沒有關(guān)系。答案:C6.以下哪個(gè)不是MindSpore核心架構(gòu)的特點(diǎn)?A、自動(dòng)并行B、自動(dòng)調(diào)優(yōu)C、自動(dòng)編碼D、自動(dòng)微分答案:C7.損失函數(shù)反映了神經(jīng)網(wǎng)絡(luò)的目標(biāo)輸出和實(shí)際輸出的誤差,在深度學(xué)習(xí)中常用的損失函數(shù)是?A、指數(shù)損失函數(shù)B、均方損失函數(shù)C、對(duì)數(shù)損失函數(shù)D、Hinge損失函數(shù)答案:B8.以下不屬于對(duì)抗生成網(wǎng)絡(luò)的應(yīng)用是?A、文字生成B、圖像生成C、圖像識(shí)別D、數(shù)據(jù)增強(qiáng)答案:C9.以下哪一項(xiàng)不屬于壓縮人工智能模型體積的方法?A、緊湊網(wǎng)絡(luò)設(shè)計(jì)B、低秩近似C、網(wǎng)絡(luò)量化D、減小有效數(shù)據(jù)量答案:D10.下列哪一個(gè)是圖像標(biāo)簽服務(wù)的URI?A、/v1.0/image/recognitionB、/v1.0/image/celebrity-recognitionC、/v1.0/image/recapture-detectD、/v1.0/image/tagging答案:D11.面對(duì)行業(yè)研究與全場景AI應(yīng)用之間的巨大鴻溝,Mindspore跨越應(yīng)用鴻溝助力普惠AI的技術(shù)創(chuàng)新不包括以下哪項(xiàng)?A、新協(xié)作方式B、新編程語言C、新編程范式D、新執(zhí)行模式答案:B12.人工智能是指下列哪一項(xiàng)的智能?A、自然智能B、通用智能C、機(jī)器智能D、人的智能答案:C13.以下關(guān)于剪枝的描述中,哪一項(xiàng)是錯(cuò)誤的?A、決策樹容易過擬合需要剪枝來縮小樹的結(jié)構(gòu)和規(guī)模。預(yù)剪枝中設(shè)置的層數(shù)是一個(gè)超參數(shù)。B、預(yù)剪枝中設(shè)置的層數(shù)是一個(gè)超參數(shù)。C、ID3算法中都會(huì)進(jìn)行剪枝。D、剪枝可以分為預(yù)剪枝和后剪枝答案:C14.某企業(yè)在使用Mindspore構(gòu)建AI應(yīng)用后,又想和合作伙伴共享數(shù)據(jù)進(jìn)一步增加模型的準(zhǔn)確度但是數(shù)據(jù)需要保密不能直接提供他們可以通過以下哪個(gè)工具解決這個(gè)問題?A、MindSporeFederaterB、MindSporeGoldenstickC、MindSporeReinforcementD、MindSporeProbabillty答案:A15.人工智能的三個(gè)階段包含了計(jì)算智能、()、認(rèn)知智能。A、弱人工智能B、感知智能C、行為智能D、強(qiáng)人工智能答案:B16.關(guān)于機(jī)器學(xué)習(xí)的數(shù)據(jù)集,以下說法哪一項(xiàng)是正確的?A、數(shù)據(jù)集可分為訓(xùn)練集和測試集,其中測試集用于模型訓(xùn)練,即尋找特征與目標(biāo)之間的關(guān)系,B、數(shù)據(jù)集中的樣本指的是每條記錄的不同屬性,比如姓名,年齡,性別等信息C、數(shù)據(jù)集的特征指的是每條記錄的不同屬性、比如姓名,年齡,性別等信息D、有監(jiān)督學(xué)習(xí)任務(wù)中,數(shù)據(jù)集的目標(biāo)列一般不包含標(biāo)簽答案:C17.以下關(guān)于決策樹的描述中,哪一項(xiàng)是錯(cuò)誤的?A、構(gòu)建決策樹的關(guān)鍵步驟就是按照所有的特征屬性進(jìn)行劃分操作B、決策樹中除了根節(jié)點(diǎn)之外的其它節(jié)點(diǎn)統(tǒng)稱為葉子節(jié)點(diǎn)C、GNI系數(shù)可以被看作是一種純度的量化指標(biāo)D、ID3算法使用信息增益率進(jìn)行屬性選擇答案:B18.以下哪一項(xiàng)是靜態(tài)圖模式的劣勢?A、debugB、部署C、性能優(yōu)化D、分布式訓(xùn)練答案:A19.交通智能體可以實(shí)現(xiàn)()小時(shí)全時(shí)段/全域交通感知?A、5x24B、7x24C、5x12D、7x12答案:B20.在深度學(xué)習(xí)網(wǎng)絡(luò)中,反向傳播算法用于尋求最優(yōu)參數(shù),在反向傳播算法中使用的什么法則進(jìn)行逐層求導(dǎo)的?A、鏈?zhǔn)椒▌tB、累加法則C、對(duì)等法則D、歸一法則答案:A21.在神經(jīng)網(wǎng)絡(luò)中,我們是通過以下哪個(gè)方法在訓(xùn)練網(wǎng)絡(luò)的時(shí)候更新參數(shù),從而最小化損失函數(shù)的?A、正向傳播算法B、池化計(jì)算C、卷積計(jì)算D、反向傳播算法答案:D22.使用MindSpore執(zhí)行圖片中的代碼時(shí),以下哪一項(xiàng)是這段代碼的正確輸出結(jié)果?Tensor=Tensor(np.array([[0,1],[2.3]]).astype(np.float32))Print(tensor[,0])A、["02"]B、["0.1.]C、["1.3.]D、["0.2.”]答案:D23.深度學(xué)習(xí)中,以下哪種方法不能解決過擬合的問題?A、參數(shù)正則化B、數(shù)據(jù)增強(qiáng)C、提前停止訓(xùn)練D、減小學(xué)習(xí)率答案:D24.以下選項(xiàng)中不屬于回歸算法的性能評(píng)估的是哪一項(xiàng)?A、MSE均方誤差B、Recall召回率C、R-Square可決系數(shù)D、MAE平均絕對(duì)誤差答案:B25.以下關(guān)于特征選擇描述的選項(xiàng)中,哪一個(gè)選項(xiàng)是錯(cuò)誤的?A、使用特征選擇的原因是在采集到的數(shù)據(jù)集中,有一些特征可能是多余的或者與我們要預(yù)測的值無關(guān)的。B、特征選擇無法避免維度爆炸的問題C、特征選擇可以幫助我們簡化模型,使模型更容易被使用者所解釋。D、特征選擇技術(shù)可減少訓(xùn)練的時(shí)間,提升模型泛化性,避免過擬合答案:B26.循環(huán)神經(jīng)網(wǎng)絡(luò)不同于卷積神經(jīng)網(wǎng)絡(luò),它比較擅長解決以下哪些問題?A、序列相關(guān)問題B、圖像分類C、圖像檢測D、推薦問題答案:A27.在訓(xùn)練神經(jīng)網(wǎng)絡(luò)過程中我們目的是讓損失函數(shù)不斷減少,我們常用以下哪種方法最小化損失函數(shù)?A、DropoutB、正則化C、梯度下降D、交叉驗(yàn)證答案:C28.Mindspore中,Tensor初始化時(shí),如果包含多種不同類型的數(shù)據(jù),則按照以下哪一項(xiàng)優(yōu)先級(jí)完成數(shù)據(jù)類型轉(zhuǎn)換?A、int<bool<floatB、int<float<boolC、bool<float<intD、bool<int<float答案:D29.以下哪個(gè)選項(xiàng)不屬于異騰AI處理器中AICore的基礎(chǔ)計(jì)算資源?A、向量計(jì)算單元B、張量計(jì)算單元C、矩陣計(jì)算單元D、標(biāo)量計(jì)算單元答案:B30.TensorFlow20發(fā)布的時(shí)間,是在哪一年?A、2015B、2017C、2019D、2018答案:C31.“從有標(biāo)簽的歷史數(shù)據(jù)中來預(yù)測下季度的商鋪營收會(huì)在20-30萬還是30-40萬”,這是一個(gè)什么問題?A、回歸問題B、規(guī)則問題C、分類問題D、聚類問題答案:C32.以下關(guān)于機(jī)器學(xué)習(xí)描述正確的是?A、深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個(gè)分支B、深度學(xué)習(xí)與機(jī)器學(xué)習(xí)是互相包含的關(guān)系C、深度學(xué)習(xí)與機(jī)器學(xué)習(xí)同屬于人工智能但相互之間沒有關(guān)系D、以上都不對(duì)答案:A33.在深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)中,感知器是最簡單的神經(jīng)網(wǎng)絡(luò),關(guān)于其結(jié)構(gòu)說法正確的是?A、其隱含層只有兩層B、其隱含層只有一層C、其網(wǎng)絡(luò)中使用的是Sigmoid激活函數(shù)D、其網(wǎng)絡(luò)中使用的是Relu激活函數(shù)答案:B34.下列哪一項(xiàng)不屬于深度學(xué)習(xí)中常用的優(yōu)化器?A、SoftplusB、AdagradC、AdamD、RMSprop答案:A35.“對(duì)抗生成網(wǎng)絡(luò)(GAN)可以用來生成假圖片達(dá)到以假亂真的目的?!标P(guān)于上述描述,以下哪一個(gè)說法是正確的?A、該說法錯(cuò)誤,GAN網(wǎng)絡(luò)屬于聚類模型B、該說法錯(cuò)誤,GAN屬于回歸模型C、該說法正確,GAN網(wǎng)絡(luò)屬于分類模型D、該說法正確,GAN網(wǎng)絡(luò)性能很強(qiáng),屬于生成學(xué)習(xí)模型答案:D36.通用文字識(shí)別服務(wù)調(diào)用成功時(shí),返回的文字識(shí)別結(jié)果保存在下列哪個(gè)字段中?A、textB、resultC、ontentD、words答案:B37.以下哪一項(xiàng)是HUAWEIHiAlFoundation模塊的功能?A、pp集成B、讓服務(wù)主動(dòng)找到用戶C、快速轉(zhuǎn)化和遷移已有模型D、根據(jù)用戶所需,適時(shí)適地推送服務(wù)答案:C38.以下關(guān)于模型泛化能力的描述中,哪一項(xiàng)是正確的?A、泛化能力指每一條數(shù)據(jù)的預(yù)測需更多長時(shí)間。B、泛化能力指預(yù)測的結(jié)果是否容易被解釋。C、泛化能力指實(shí)際業(yè)務(wù)過程中數(shù)據(jù)量可能很大,隨著業(yè)務(wù)量增大,預(yù)測的速率是否仍然可以接受D、泛化能力指能否在實(shí)際的業(yè)務(wù)數(shù)據(jù)也能預(yù)測準(zhǔn)確。答案:D39.以下哪一項(xiàng)不屬于人工智能技術(shù)帶來的爭議性問題?A、利用GAN網(wǎng)絡(luò)生成家居圖像發(fā)布在租房和訂酒店的平臺(tái),以達(dá)到欺騙消費(fèi)者的目的。B、高鐵站利用計(jì)算機(jī)視覺技術(shù)進(jìn)行人臉識(shí)別,快速完成身份信息比對(duì)C、通過圖像處理技術(shù),很多減肥藥廣告可以改變?nèi)宋锏耐庥^以達(dá)到減肥前后的對(duì)比D、通過圖像處理技術(shù),把犯罪嫌疑人P在一個(gè)從未去過的地方或?qū)⑺c未見過的人放在一起以此來制造假證據(jù)答案:B40.以下哪個(gè)關(guān)于監(jiān)督式學(xué)習(xí)的說法是正確的?A、決策樹是一種監(jiān)督式學(xué)習(xí)B、監(jiān)督式學(xué)習(xí)不可以使用交叉驗(yàn)證進(jìn)行訓(xùn)練C、監(jiān)督式學(xué)習(xí)是一種基于規(guī)則的算法D、監(jiān)督式學(xué)習(xí)不需要標(biāo)簽就可以訓(xùn)練答案:A41.PyTorch不具備以下哪種功能?A、內(nèi)嵌kerasB、支持動(dòng)態(tài)圖C、自動(dòng)求導(dǎo)D、GPU加速答案:A42.長短記憶網(wǎng)絡(luò)是基于循環(huán)神經(jīng)網(wǎng)絡(luò)發(fā)展而來的,長短袖經(jīng)網(wǎng)絡(luò)主要解決了循環(huán)神經(jīng)網(wǎng)絡(luò)的什么問題?A、過擬合問題B、梯度爆炸問題C、梯度消失問題D、欠擬合問題答案:C43.以下關(guān)于機(jī)器學(xué)習(xí)整體流程正確的是A、數(shù)據(jù)收集->,數(shù)據(jù)清洗->特征提取與選擇->模型訓(xùn)練->模型部署與整合->模型評(píng)估測試B、數(shù)據(jù)收集->特征提取與選擇->數(shù)據(jù)清洗->模型訓(xùn)練->模型評(píng)估測試->模型部署與整合C、數(shù)據(jù)收集->數(shù)據(jù)清洗->特征提取與選擇->模型訓(xùn)練->模型評(píng)估測試->模型部署與整合D、數(shù)據(jù)收集->數(shù)據(jù)清洗->模型訓(xùn)練->特征提取與選擇->模型部署與整合->模型評(píng)估測試答案:C44.以下關(guān)于達(dá)芬奇架構(gòu)中的控制單元,錯(cuò)誤的是哪一個(gè)選項(xiàng)?。A、可以讀取標(biāo)量指令隊(duì)列中配置好的指令地址和參數(shù)解碼。B、可進(jìn)行中斷處理和狀態(tài)申報(bào)。如果執(zhí)行過程出錯(cuò),會(huì)把執(zhí)行的錯(cuò)誤狀態(tài)報(bào)告給任務(wù)調(diào)度器C、可存放神經(jīng)網(wǎng)絡(luò)中每層計(jì)算的中間結(jié)果。D、時(shí)刻控制每條指令流水線的執(zhí)行狀態(tài)。答案:C45.AI開發(fā)的基本流程包括以下步驟(1準(zhǔn)備數(shù)據(jù)(2)部署模型(3)評(píng)估模型(4)確定目的(5)訓(xùn)模型,以下個(gè)是確的?A、4->1->5->3->2B、4->5->1->3-2C、4->1->5->2->3D、4->5->1->2->3答案:A46.在使用華為云翻拍識(shí)別服務(wù)時(shí),recapture_detect_aksk0函數(shù)的返回結(jié)果中,如果suggestion為真時(shí),category的取值為以下哪項(xiàng)?A、originalB、TrueC、空字符D、recapture答案:C47.Python3中5/2的結(jié)果是?A、2B、1C、3D、2.5答案:D48.面對(duì)超大規(guī)模模型需要實(shí)現(xiàn)高效分布式訓(xùn)練的桃戰(zhàn),Mindspore的處理方式為?A、自動(dòng)并行B、串行C、手動(dòng)并行答案:A49.以下哪一個(gè)不屬于人臉識(shí)別技術(shù)?A、人臉?biāo)阉鰾、人臉比對(duì)C、人臉檢測D、翻拍識(shí)別答案:D50.以下哪一項(xiàng)用于循環(huán)神經(jīng)網(wǎng)絡(luò)中一對(duì)多的類型?A、音樂生成B、動(dòng)作識(shí)別C、機(jī)器翻譯D、情感分析答案:A51.以下哪個(gè)不是ModelArts開發(fā)類型?A、標(biāo)準(zhǔn)模型開發(fā)B、快速建模C、零基礎(chǔ)建模D、敏捷開發(fā)答案:D52.關(guān)于圖像內(nèi)容審核服務(wù)說法錯(cuò)誤的是?A、politics為涉政敏感人物檢測結(jié)果B、terrorism為涉政暴恐檢測結(jié)果C、onfidence代表置信度,范圍0-100D、label代表每個(gè)檢測結(jié)果的標(biāo)簽答案:C53.Atlas加速AI推理使用的是什么處理器?A、昇騰910處理器B、昇騰310處理器C、GPUD、FPGA答案:B54.符號(hào)主義的落腳點(diǎn)主要體現(xiàn)在哪里?A、落腳點(diǎn)在神經(jīng)元網(wǎng)絡(luò)與深度學(xué)習(xí)。B、落腳點(diǎn)在推理,符號(hào)推理與機(jī)器推理。C、落腳點(diǎn)在感知和行動(dòng)。D、落腳點(diǎn)在行為控制、自適應(yīng)與進(jìn)化計(jì)算。答案:B55.Mindspore提供了自動(dòng)對(duì)圖像進(jìn)行增強(qiáng)處理的機(jī)制,可以實(shí)現(xiàn)算子的自動(dòng)選擇和執(zhí)行,達(dá)到提升訓(xùn)練精度的目的,以下哪些機(jī)制是正確的?A、基于精度的自動(dòng)數(shù)據(jù)增強(qiáng)B、基于概率的自動(dòng)數(shù)據(jù)增強(qiáng)C、基于魯棒性的自動(dòng)數(shù)據(jù)增強(qiáng)D、基于反饋的自動(dòng)數(shù)據(jù)增強(qiáng)答案:B56.激活函數(shù)對(duì)于神經(jīng)網(wǎng)絡(luò)模型學(xué)習(xí)、理解非常復(fù)雜的問題有著重要的作用,以下關(guān)于激活函數(shù)說法正確的是?A、激活函數(shù)都是線性函數(shù)B、激活函數(shù)都是非線性函數(shù)C、激活函數(shù)部分是非線性函數(shù),部分是線性函數(shù)D、激活函數(shù)大多數(shù)是非線性函數(shù),少數(shù)是線性函數(shù)答案:B57.“知識(shí)表示是對(duì)知識(shí)的描述,即用一組符號(hào)把知識(shí)編碼成計(jì)算機(jī)可以接受的某種結(jié)構(gòu)。其表示方法是唯一的?!标P(guān)于上述描述,以下哪一個(gè)說法是正確的?A、該說法正確,知識(shí)表示是專家系統(tǒng)的一種B、該說法錯(cuò)誤,知識(shí)表示方法不是唯一的。C、該說法正確,知識(shí)表示可用于專家規(guī)則,模糊推理D、該說法錯(cuò)誤,知識(shí)表示的編碼方式是唯一的。答案:D58.某電商公司一直存在官網(wǎng)卡頓,網(wǎng)絡(luò)資源利用率不佳,運(yùn)維困難的問題,那么該公司可以使用以下哪一種EI服務(wù)?A、園區(qū)智能體B、交通智能體C、網(wǎng)絡(luò)智能體D、工業(yè)智能體答案:C59.關(guān)于人工智能和機(jī)器學(xué)習(xí)的關(guān)系,以下說法正確的是哪一項(xiàng)?A、機(jī)器學(xué)習(xí)可以應(yīng)用統(tǒng)計(jì)學(xué)的知識(shí)進(jìn)行分析、B、所有機(jī)器學(xué)習(xí)算法都涉及到非常多的人工神經(jīng)網(wǎng)絡(luò)C、所有的機(jī)器學(xué)習(xí)都是在模仿人腦的機(jī)制來解釋數(shù)據(jù),例如圖像,聲音和文本,D、深度學(xué)習(xí)包含機(jī)器學(xué)習(xí)、機(jī)器學(xué)習(xí)是深度學(xué)習(xí)的一個(gè)特例。答案:A60.在以下哪一個(gè)年份,Rosenblat發(fā)明感知器(perceptron)算法?A、1969年B、1986年C、1950年D、1958年答案:D61.在華為云EI中,以下哪項(xiàng)可以將AI技術(shù)融入各行各業(yè)的應(yīng)用場景中,發(fā)揮AI技術(shù)的優(yōu)勢,從而提高效率,提升體驗(yàn)。A、EI智能體B、OBS對(duì)象存儲(chǔ)服務(wù)C、云數(shù)據(jù)庫D、EI大數(shù)據(jù)服務(wù)答案:A62.以下哪個(gè)激活函數(shù)可以很好的解決梯度消失問題?A、TanhB、SoftsignC、ReluD、Sigmoid答案:C63.數(shù)據(jù)是記錄信息的符號(hào),是信息的載體和表示。下列關(guān)于數(shù)據(jù)在AI應(yīng)用中描述正確的是哪個(gè)選項(xiàng)?A、數(shù)據(jù)僅僅指excel中的表格數(shù)據(jù)B、數(shù)據(jù)的質(zhì)量與模型的好壞無關(guān)C、對(duì)數(shù)據(jù)不需要預(yù)處理就可以直接輸入模型D、數(shù)據(jù)的質(zhì)是很重要,很大程度上決定模型的結(jié)果答案:D64.知識(shí)圖譜本質(zhì)上是語義網(wǎng)絡(luò)的知識(shí)庫,以下哪一個(gè)選項(xiàng)不屬于知識(shí)圖譜中的組件?A、實(shí)體B、本體C、邊D、權(quán)重答案:A65.深度學(xué)習(xí)中如果神經(jīng)網(wǎng)絡(luò)的層數(shù)較多比較容易出現(xiàn)梯度消失問題。嚴(yán)格意義上來講是在以下哪個(gè)環(huán)節(jié)出現(xiàn)梯度消失問題?A、反向傳播更新參數(shù)B、正向傳播更新參數(shù)C、反向傳播計(jì)算結(jié)果D、正向傳播計(jì)算結(jié)果答案:A66.人下關(guān)于神經(jīng)網(wǎng)絡(luò)的說法錯(cuò)誤的是?A、隨著神經(jīng)網(wǎng)絡(luò)隱藏層數(shù)的增加,模型的分類能力逐步減弱B、單層感知器的局限在于不能解決異或問題C、前饋神經(jīng)網(wǎng)絡(luò)可用有向無環(huán)圖表示D、前饋神經(jīng)網(wǎng)絡(luò)同一層的神經(jīng)元之間不存在聯(lián)系答案:A67.以下哪個(gè)選項(xiàng)不屬于華為云ModelArts提供的功能或服務(wù)?A、模型診斷B、智能模型調(diào)優(yōu)C、智能數(shù)據(jù)標(biāo)注D、vscodeSDK答案:D68.關(guān)于梯度下降,以下哪項(xiàng)說法是正確的?A、全局梯度下降比隨機(jī)梯度下降速度更快B、Adam不屬于梯度下降算法。C、使用梯度下降時(shí),學(xué)習(xí)率應(yīng)該保持一致。D、隨機(jī)梯度下降對(duì)噪聲點(diǎn)敏感。答案:D69.下列選項(xiàng)中對(duì)泊松分布與二項(xiàng)分布的關(guān)系正確的是?A、泊松分布與二項(xiàng)分布沒有關(guān)系B、泊松分布可以替代二項(xiàng)分布C、泊松分布是二項(xiàng)分布當(dāng)n很大p很小時(shí)的近似計(jì)算D、泊松分布與二項(xiàng)分布的數(shù)學(xué)模型都是拉格朗日概型答案:C70.Pytorch是常見的機(jī)器學(xué)習(xí)計(jì)算框架,基于Torch,用于自然語言處理等應(yīng)用程序,以下哪種語言是Torch采用的編程語言?A、PythonB、LuaC、JavaD、C語言答案:B71.在華為云ei中哪一項(xiàng)是面向開發(fā)者的一站式AI開發(fā)平臺(tái),為機(jī)器學(xué)習(xí)與深度學(xué)習(xí)海量數(shù)據(jù)預(yù)處理及半自動(dòng)化標(biāo)注、大規(guī)模分布式Training、自動(dòng)化模型生成,及端-邊-云模型按需部署能力,幫助用戶快速創(chuàng)建和部署模型,管理全周期AI工作流?A、MysqlB、MinsporeC、ModelArtsD、Ascend答案:C72.通用文字識(shí)別服務(wù)調(diào)用成功時(shí)返回的結(jié)果中,wordsblockcount代表什么?A、識(shí)別文字?jǐn)?shù)目B、識(shí)別文字塊數(shù)目C、識(shí)別文字塊列表D、以上都不是答案:B73.反向傳播算法是深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)中重要的算法,以下哪項(xiàng)關(guān)于其算法步驟是正確的?A、先反向傳播計(jì)算出誤差,再正向傳播計(jì)算梯度B、只有反向傳播計(jì)算輸出結(jié)果。C、只有反向傳播計(jì)算梯度D、先正向傳播計(jì)算出誤差,再反向傳播計(jì)算梯度。答案:D74.對(duì)于圖像分類問題,以下哪個(gè)神經(jīng)網(wǎng)絡(luò)更適合解決這個(gè)問題?A、感知器B、循環(huán)神經(jīng)網(wǎng)絡(luò)C、卷積神經(jīng)網(wǎng)絡(luò)D、全連接神經(jīng)網(wǎng)絡(luò)答案:C75.以下屬于回歸算法的評(píng)價(jià)指標(biāo)是?A、召回率B、混淆矩陣C、均方誤差D、準(zhǔn)確率答案:C76.以下哪一個(gè)選項(xiàng)不是HiQ量子計(jì)算云平臺(tái)的亮點(diǎn)?A、無需編程即可完成計(jì)算任務(wù)B、簡單易用C、功能豐富D、提供豐富的教程文檔答案:A77.AI框架第三階段的發(fā)展方向主要包括以下哪幾方面?A、運(yùn)行態(tài)B、部署態(tài)C、用戶態(tài)D、平行態(tài)答案:A78.以下關(guān)于MindArmour子系統(tǒng)關(guān)鍵功能的描達(dá)中,錯(cuò)誤的是哪一項(xiàng)?A、高效自適應(yīng)差分隱私訓(xùn)練和預(yù)算統(tǒng)計(jì)算法,數(shù)學(xué)上可證明的模型隱私泄露約束B、基于正確率的Fuzzing測試流程,靈活可定制的測試策略和指標(biāo)。C、包括對(duì)抗訓(xùn)練、輸入重建在內(nèi)的常見對(duì)抗樣本檢測和模型魯棒性增強(qiáng)方法D、涵蓋黑白盒對(duì)抗攻擊、成員/屬性推理攻擊、數(shù)據(jù)源移等測試數(shù)據(jù)產(chǎn)生方法,覆蓋場景全面。答案:B79.在智慧醫(yī)療場景下,下列技術(shù)與應(yīng)用對(duì)應(yīng)錯(cuò)誤的是哪一項(xiàng)?A、疾病風(fēng)險(xiǎn)預(yù)測-數(shù)據(jù)挖掘B、醫(yī)學(xué)影像-計(jì)算機(jī)視覺C、虛擬助理-語音識(shí)別D、藥物挖掘-計(jì)算機(jī)視覺答案:D80.主成對(duì)抗網(wǎng)絡(luò)(GAN)是一種深度學(xué)習(xí)模型,以下哪一個(gè)選項(xiàng)屬于它的基本結(jié)構(gòu)?A、判別器B、感知器C、驗(yàn)證器D、對(duì)抗器答案:A81.以下那一個(gè)選項(xiàng)不是高級(jí)智能駕駛給人類帶來的便利?A、極大的降供了車輛生產(chǎn)成本,B、能夠讓特殊人群上路C、減少交通事故D、解放駕駛?cè)藛T的雙手答案:A82.以下選項(xiàng)中,哪一項(xiàng)不屬于模型訓(xùn)練的超參數(shù)?A、訓(xùn)練神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)率B、—元線性回歸模型Y=wX+b中的權(quán)置系數(shù)(斜率)C、K最近鄰算法(KNN)中的KD、隨機(jī)森林當(dāng)中的樹的棵數(shù)答案:B83.以下關(guān)于Mindspore子系統(tǒng)的設(shè)計(jì)目標(biāo)的描述,錯(cuò)誤的是哪一項(xiàng)?A、向用戶提供統(tǒng)一的模型訓(xùn)練,推理和導(dǎo)出等接口,滿足端,邊,云等不同場景B、兩層用戶AP設(shè)計(jì),支撐用戶進(jìn)行網(wǎng)絡(luò)構(gòu)建,整圖執(zhí)行,子圖執(zhí)行以及單算子執(zhí)行C、單機(jī)和分布式訓(xùn)練統(tǒng)一的編碼方式D、動(dòng)態(tài)圖和靜態(tài)圖差異化編碼方式答案:D84.以下關(guān)于回歸模型調(diào)試與應(yīng)用的描述中,錯(cuò)的是哪一項(xiàng)?A、當(dāng)訓(xùn)練完成之后,需要使用測試集進(jìn)行測試,確保模型的泛化能力。B、如果最后的模型效果不好,也需要注意使用數(shù)據(jù)清理與特征工程。C、如果出現(xiàn)過擬合,可以使用帶有正則項(xiàng)的LASSO回歸或者Ridge回歸,并調(diào)節(jié)超參數(shù)D、如果出現(xiàn)欠擬合,可以使用更加復(fù)雜的回歸模型,比如邏輯回歸。答案:D85.以下關(guān)于softsign函數(shù)的描述中,錯(cuò)誤的是哪一項(xiàng)?A、Softsign函數(shù)相比tanh函數(shù)容易飽知B、選擇Softsig門函數(shù)的網(wǎng)絡(luò)容易出現(xiàn)樣度退化現(xiàn)象,導(dǎo)致模型難以訓(xùn)練C、Softsign函數(shù)很準(zhǔn)回避褲度消失的問題D、Softsign函數(shù)遠(yuǎn)離畫數(shù)中心點(diǎn)的位置,函數(shù)導(dǎo)數(shù)趨于0答案:A86.特征是描述樣本的特性的維度,關(guān)于其在傳統(tǒng)機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的可解釋性,以下說法正確的是:A、特征在傳統(tǒng)機(jī)器學(xué)習(xí)可解釋性強(qiáng),而在深度學(xué)習(xí)可解釋性弱B、特征在傳統(tǒng)機(jī)器學(xué)習(xí)可解釋性弱,而在深度學(xué)習(xí)可解釋性強(qiáng)C、特征在傳統(tǒng)機(jī)器學(xué)習(xí)和深度學(xué)習(xí)可解釋性均弱D、特征在傳統(tǒng)機(jī)器學(xué)習(xí)和深度學(xué)習(xí)可解釋性均強(qiáng)答案:A87.當(dāng)前語音處理研究在任何情況下都能達(dá)到90%以上的識(shí)別準(zhǔn)確度。關(guān)于以上觀點(diǎn),下列說法正確的是哪一項(xiàng)?A、錯(cuò)誤,識(shí)別準(zhǔn)確度很高但沒那么高。B、正確,語音處理可以達(dá)到很高的識(shí)別準(zhǔn)確度。C、錯(cuò)誤,很多情況下,例如噪聲、背聲等會(huì)極大的影響語音的識(shí)別準(zhǔn)確度,D、正確,語音處理研究的歷史很長,已經(jīng)很成熟。答案:C88.以下關(guān)于達(dá)芬奇架構(gòu)的描述錯(cuò)誤的是哪一選項(xiàng)?A、通過總線接口單元將數(shù)據(jù)搬到輸入緩中區(qū)B、控制單元負(fù)責(zé)整個(gè)AICore的運(yùn)行C、計(jì)算單元包含四種基礎(chǔ)計(jì)算資源D、AICore的片上存儲(chǔ)單元和相應(yīng)的數(shù)據(jù)通路構(gòu)成了存儲(chǔ)系統(tǒng)答案:C89.以下方法中屬于特征選擇嵌入法(Embedded)的是哪項(xiàng)?A、L1正則B、互信息法C、方差法D、特征遞歸消除法答案:A90.下列選項(xiàng)中支持TensorFlow20進(jìn)行維度變換的屬性是A、reshapeB、transposeC、squeezeD、gather答案:D91.調(diào)用華為云通用表格識(shí)別API時(shí)能夠輸出表格子區(qū)域識(shí)別文字塊列表,以下哪一項(xiàng)是其輸出順序?A、公左到右,先上后下B、從左到右,先下后上C、從右到左先下后上D從右到左先上后下答案:A92.在全連接結(jié)構(gòu)中,使用一個(gè)包含1000個(gè)神經(jīng)元的隱藏層處理一張100+100分辨率的圖片,不考慮偏置項(xiàng),以下哪一項(xiàng)是正確的參數(shù)量?A、10000B、100000C、100000oD、10000000答案:D93.以下關(guān)于SVM算法說法錯(cuò)誤的是?A、SVM算法可以使用用多種核函數(shù)B、SVM可以被用于解決分類問題C、支持向量是距離超平面最近的向量點(diǎn)D、SVM算法不能用于處理非線性數(shù)據(jù)集答案:D94.查看Atlas300(3000)加速卡驅(qū)動(dòng)是否安裝成功應(yīng)該使用哪條命令?A、npu-siminfoB、npuinfoC、atlas-driverinfoD、atlasinfo答案:A95.調(diào)用華為云文字識(shí)別API時(shí),以下哪個(gè)響應(yīng)參數(shù)表示文字塊識(shí)別結(jié)果A、wordslistB、wordsblocklistC、wordsblockD、words答案:D96.以下哪一項(xiàng)不屬于IindRT子系統(tǒng)的功能特性?A、算子同步、異構(gòu)執(zhí)行,多流并發(fā)。B、內(nèi)存池化管理,高效內(nèi)存復(fù)用。C、支持多種硬件設(shè)置的調(diào)度管理D、支持端、云多種設(shè)備形態(tài)要求。答案:A97.以下哪個(gè)選項(xiàng)是神經(jīng)網(wǎng)絡(luò)訓(xùn)練最常用的方法?A、共軛樣度法B、梯度下降C、高其消元D、最小二乘法答案:B98.人工智能應(yīng)用領(lǐng)域只有計(jì)算機(jī)視覺和語音處理?!标P(guān)于上述描述,以下哪一個(gè)說法是正確的?A、該說法錯(cuò)誤,AI應(yīng)用領(lǐng)域應(yīng)包括計(jì)算機(jī)視覺、語音處理和自然語言處理等領(lǐng)域B、該說法正確,計(jì)算機(jī)視覺是最重復(fù)的AI應(yīng)用領(lǐng)域。C、該說法錯(cuò)誤,AI應(yīng)用領(lǐng)域只有計(jì)算機(jī)視覺和自然語言處理D、該說法正確、語音處建以極高的準(zhǔn)確率處理語音數(shù)據(jù)。答案:A99.機(jī)器學(xué)習(xí)中,模型需要輸入什么來訓(xùn)練自身,預(yù)測未知?A、訓(xùn)練算法B、人工程序C、神經(jīng)網(wǎng)絡(luò)D、歷史數(shù)據(jù)答案:D100.以下哪一項(xiàng)屬于零階張量?A、標(biāo)量B、向量C、矩陣D、R答案:A101.關(guān)于反向傳播,以下說法錯(cuò)誤的是?A、反向傳播只能在前饋神經(jīng)網(wǎng)絡(luò)中運(yùn)用B、反向傳播可以結(jié)合梯度下降算法更新網(wǎng)絡(luò)權(quán)重C、反向傳播會(huì)經(jīng)過激活函數(shù)D、反向傳播指的是誤差通過網(wǎng)絡(luò)反向傳播答案:A102.數(shù)據(jù)集擴(kuò)充也可以有效的避免過擬合問題的出現(xiàn),以下哪項(xiàng)關(guān)于數(shù)據(jù)集擴(kuò)充的說法是正確的?A、數(shù)據(jù)集越大過擬合概率越大B、數(shù)據(jù)集增大或減少過擬合概率均會(huì)越小C、數(shù)據(jù)集越小過擬合概率小D、數(shù)據(jù)集越大過擬合概率越小答案:D103.以下不屬于衡量模型優(yōu)勢指標(biāo)的是哪一項(xiàng)?A、代碼復(fù)雜度B、可解釋性C、預(yù)測速率D、泛化能力答案:A104.Tensorflow是下面哪家公司開源的第二代用于數(shù)字計(jì)算的軟件庫?A、華為B、高通C、微軟D、谷歌答案:D105.現(xiàn)有一個(gè)公司希望加裝人臉識(shí)別門禁,可以使用以下哪一種產(chǎn)品A、OBSB、HiLensC、ECSD、ModelArts答案:D106.深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)訓(xùn)練時(shí)需要大量的矩陣計(jì)算,一般我們需要配用硬件讓計(jì)算機(jī)具備并行計(jì)算的能力,以下硬件設(shè)備提供并行計(jì)算能力的是:A、主板B、內(nèi)存條C、GPUD、CPU答案:C107.深度學(xué)習(xí)中神經(jīng)網(wǎng)絡(luò)類型很多,以下神經(jīng)網(wǎng)絡(luò)信息是單向傳播的是:A、LSTMB、卷積神經(jīng)網(wǎng)絡(luò)C、循環(huán)神經(jīng)網(wǎng)絡(luò)D、GRU答案:B108.梯度下降算法中,損失函數(shù)曲面上軌跡最混亂的算法是以下哪種算法?A、SGDB、GDC、MGDD、MBGD答案:A109.以下哪一項(xiàng)華為云服務(wù)是可以輔助醫(yī)療智能體中進(jìn)行基因組自動(dòng)學(xué)習(xí)?A、ECSB、CloudMySQLC、OBSD、ModelArts答案:D110.下列選項(xiàng)中不屬于華為全棧解決方案范疇的是?A、應(yīng)用使能B、邊緣計(jì)算C、開源框架D、芯片使能答案:B111.以下關(guān)于邏輯回歸的描述中,哪一項(xiàng)是錯(cuò)誤的?A、邏輯回歸模型是一種分類模型,用來解決分類問題B、邏輯回歸與線性回歸都是廣義線性模型C、邏輯回歸在線性回歸的基礎(chǔ)上引入了非線性因素(siqmoid函數(shù))。D、邏輯回歸和線性回歸的損失函數(shù)都是最小二乘損失函數(shù)。答案:D112.在一個(gè)任務(wù)中,試圖讓學(xué)習(xí)器利用大量未標(biāo)記數(shù)據(jù)以及少量有標(biāo)記數(shù)據(jù)進(jìn)行訓(xùn)練,這樣的算法屬于以下哪一類學(xué)習(xí)?A、半監(jiān)督學(xué)習(xí)B、無監(jiān)督學(xué)習(xí)C、監(jiān)督學(xué)習(xí)D、強(qiáng)化學(xué)習(xí)答案:A113.創(chuàng)建網(wǎng)絡(luò)層時(shí),添加dropout層的主要目的是什么?A、提取圖像特征B、起到分類器的作用C、增加非線性D、防止過擬合答案:D114.以下哪個(gè)是HiAI中的離線模式?A、HiAIServiceB、HiAlEngineC、HiAIFoundationD、HAIIDE答案:D115.以下哪一項(xiàng)不屬于Mindspore全場景部署和協(xié)同的關(guān)鍵特性?A、統(tǒng)一模型R帶來一致性的部署體驗(yàn)B、端云協(xié)同F(xiàn)ederalMetaLearning打破端云界限,多設(shè)備協(xié)同模型。C、數(shù)據(jù)+計(jì)算整圖到Ascend芯片。D、軟硬協(xié)同的圖優(yōu)化技術(shù)屏蔽場景差異答案:C116.機(jī)器學(xué)習(xí)中,從獲取數(shù)據(jù)到正式放入模型之前,以下哪一個(gè)選項(xiàng)不是這個(gè)過程的一部分?A、數(shù)據(jù)標(biāo)準(zhǔn)化B、數(shù)據(jù)清理C、數(shù)據(jù)降維D、數(shù)據(jù)可視化答案:D117.關(guān)于對(duì)抗生成網(wǎng)絡(luò)以下說法錯(cuò)誤的是A、對(duì)抗生成網(wǎng)絡(luò)不能用來產(chǎn)生新的圖片B、對(duì)抗生成網(wǎng)絡(luò)包含生成模型與判別模型C、判別模型需要輸入帶標(biāo)簽的真實(shí)樣本D、生成模型的輸入可以是隨機(jī)數(shù)答案:A118.以下關(guān)于K-means聚類算法的描述中,哪一項(xiàng)說法是正確的?A、簇內(nèi)相似性越小,簇間差別越小,聚類效果越好B、簇內(nèi)相似性越大,簇間差別越小,聚類效果越好。C、簇內(nèi)相似性越大,簇間差別越大,聚類效果越差D、簇內(nèi)相似性越大,簇間差別越大,聚類效果越好。答案:D119.從技術(shù)架構(gòu)角度,關(guān)于AI芯片的描述,錯(cuò)誤的是哪一項(xiàng)?A、CPU的功能主要是解釋計(jì)算機(jī)指令以及處理計(jì)算機(jī)硬件中的數(shù)據(jù)B、FPGA實(shí)現(xiàn)了半定制芯片的功能C、ASIC屬于專用集成電路D、GPU是一種專門在個(gè)人電腦、工作站,游戲和一些移動(dòng)設(shè)備上進(jìn)行圖像運(yùn)算工作的微處理器答案:A120.以下描述中,哪一項(xiàng)不是Mindspore的設(shè)計(jì)理念?A、開放非自動(dòng)B、非自動(dòng)C、全場景統(tǒng)一架構(gòu)D、表達(dá)/優(yōu)化/運(yùn)行解耦答案:B121.以下關(guān)于深度學(xué)習(xí)中常用的損失函數(shù)的描述,哪一項(xiàng)是不正確的?A、二次代價(jià)函數(shù)關(guān)心目標(biāo)輸出和實(shí)際輸出之間的“距離”B、二次代價(jià)函數(shù)更多得用于分類問題,而交又椅代價(jià)函數(shù)一般用于回歸問題C、交叉嫡代價(jià)函數(shù)刻畫了兩個(gè)既率分布之間的距離D、訓(xùn)練的目的是使得損失函數(shù)達(dá)到最小答案:B122.批量梯度下降,小批量梯度下降,隨機(jī)梯度下降最重要的區(qū)別在哪里?A、梯度大小B、梯度方向C、學(xué)習(xí)率D、使用樣本數(shù)答案:D123.下列哪一項(xiàng)是函數(shù)tf.abs的功能?A、張量的拼接逐元素的相加計(jì)算絕對(duì)值B、逐元素的相加C、計(jì)算絕對(duì)值D、實(shí)現(xiàn)統(tǒng)計(jì)學(xué)中的各種分布答案:C124.K-means對(duì)于下列哪一種類型的數(shù)據(jù)集的聚類效果不好?A、凸多邊形分布數(shù)據(jù)集B、擺旋形分布數(shù)據(jù)集C、帶狀分布數(shù)據(jù)集D、園形分布數(shù)據(jù)集答案:B多選題1.以下關(guān)于小批量梯度下降算法描述中,正確的是哪幾項(xiàng)?A、MBGD兼顧了對(duì)率和核度的穩(wěn)定性,容易沖過局部極小值,是實(shí)際工作中最常用的梯度下降算法B、MBGD每次使用一個(gè)批次的樣本進(jìn)行更新,因此速度也非常慢在實(shí)際場景中不被接受C、MBGD每次使用小批固定尺寸的樣例來更新權(quán)值D、MBGD中的BAtChSize是一個(gè)超參數(shù),可由人為設(shè)定答案:ACD2.深度學(xué)習(xí)在以下哪些領(lǐng)域當(dāng)中有廣泛的應(yīng)用?A、自然語言處理B、輔助決策C、圖像處理D、語音處理答案:ABCD3.下列關(guān)于通用表格識(shí)別服務(wù)的說法正確的是?A、rows代表文字塊占用的行信息,編號(hào)從0開始,列表形式B、colums代表文字塊占用的列信息,編號(hào)從0開始,列表形式C、傳入的圖像數(shù)據(jù)需要經(jīng)過base64編碼D、words代表文字塊識(shí)別結(jié)果答案:ABCD4.以下哪些是屬于深度學(xué)習(xí)算法的激活函數(shù)?A、SigmoidB、ReLUC、TanhD、Sin答案:ABC5.從技術(shù)架構(gòu)來看AI芯片的分類包括?A、FPGAB、CPUC、GPUD、ASIC答案:ABCD6.以下哪些項(xiàng)是單層感知機(jī)和邏輯回歸的主要區(qū)別?A、激活函數(shù)B、處理的任務(wù)C、損失函數(shù)D、優(yōu)化方法答案:AC7.以下哪些選項(xiàng)屬于通用量子算法?A、Grover算法B、Shor算法C、HHL算法D、A*算法答案:ABC8.以下哪些選項(xiàng)是CNN網(wǎng)絡(luò)結(jié)構(gòu)?A、InceptionB、ertC、AlexNetD、VGG答案:CD9.在使用華為云通用文字識(shí)別做實(shí)驗(yàn)時(shí)輸出結(jié)果包含非常多的信息。關(guān)于這些輸出信息,正確的有哪些選項(xiàng)?A、輸出信息中wordsblockcount代表識(shí)別的文字塊數(shù)目。B、輸出信息中的Statuscode表示服務(wù)狀態(tài),200表示訪問服務(wù)正常。C、wordsblocklist代表識(shí)別文字塊列表,輸出順序從左到右,先上后下。D、words代表文字塊識(shí)別結(jié)果,location代表文字塊的區(qū)域位置信息,列表開形式,包含文字區(qū)域四個(gè)頂點(diǎn)的二維坐標(biāo)Xy)。答案:ABCD10.使用裝有Atls300(3000)加速卡的服務(wù)器編譯運(yùn)行程序時(shí)需要檢查哪些條件?A、完成Atlas驅(qū)動(dòng)安裝B、已安裝CUDA軟件包C、已安裝Cmake編譯工具D、完成環(huán)境配置答案:ACD11.以下哪些服務(wù)屬于華為EI服務(wù)家族A、EI大數(shù)據(jù)服務(wù)B、自然語言處理C、對(duì)話機(jī)器人D、EI基礎(chǔ)服務(wù)答案:ABCD12.以下哪些選項(xiàng)是目標(biāo)檢測任務(wù)中常見的評(píng)價(jià)指標(biāo)?A、mA.PB、IOU值ROC.D.B.LEU答案:AB13.以下關(guān)于MinDspore自述中,哪些選項(xiàng)是正確的?A、包MinDspore支持自動(dòng)整圖切分B、Minispore只能采用手動(dòng)模型并行,需要設(shè)計(jì)模型切分,感知集群拓?fù)?,開發(fā)難度高,難以保證高性能,難以調(diào)優(yōu)。C、MinDspore支持集群拓?fù)涓兄{(diào)度D、超大規(guī)模模型實(shí)現(xiàn)高效分布式訓(xùn)練的挑戰(zhàn)答案:ACD14.下列對(duì)早期的全連接方式不適用于圖像特征提取的說法,哪些選項(xiàng)是正確的?A、計(jì)算速度快B、充分利用像素間的位置信息C、參數(shù)數(shù)量太多D、容易過擬合答案:CD15.基于華為云OCR服務(wù),企業(yè)可以以實(shí)現(xiàn)以下哪些業(yè)務(wù)?A、合同錄入與審核B、門診檢驗(yàn)報(bào)告單掃描錄入C、快遞單自動(dòng)填寫D、貓狗圖片分類答案:ABC16.下列哪些屬于AI的子領(lǐng)域?A、機(jī)器學(xué)習(xí)B、計(jì)算機(jī)視覺C、語音識(shí)別D、自然語言處理答案:ABCD17.以下關(guān)于MinDspore自動(dòng)并行關(guān)鍵技術(shù)的描述中,哪些選項(xiàng)是正確的?A、MinDspore只能采用手動(dòng)模型并行,需要設(shè)計(jì)模型切分,感知集群拓?fù)?,開發(fā)難度高,難以保證高性能,難以調(diào)優(yōu)。B、MinDspore支持自動(dòng)整圖切分C、MinDspore可以應(yīng)對(duì)超大規(guī)模模型實(shí)現(xiàn)高效分布式訓(xùn)練的挑戰(zhàn)D、MinDspore支持集群拓?fù)涓兄{(diào)度。答案:BCD18.以下哪幾項(xiàng)屬于MinDspore中與nn(神經(jīng)網(wǎng)絡(luò))相關(guān)算子?A、FlAttenB、SoftmAxC、SigmoiDD、Mul答案:ABC19.根據(jù)華為云EI智能平臺(tái),可以提供以下哪些解決方案?A、人流統(tǒng)計(jì)方案B、基于知識(shí)圖譜的政策查詢方案C、車輛識(shí)別方案D、入侵識(shí)別方案答案:ABCD20.以下哪些選項(xiàng)屬于HMSCore提供的AI能力A、HiAIFounDA.tionB、MinDsporeLiteC、HiAIengineD、MLKit答案:ACD21.以下全手人工智能技術(shù)發(fā)展趨勢的說法,正確的有哪幾項(xiàng)?A、框架,向著更易用的開發(fā)框架發(fā)展B、數(shù)據(jù),向著更完善的基礎(chǔ)數(shù)據(jù)服務(wù)產(chǎn)業(yè),更安全的數(shù)據(jù)共享發(fā)展C、算法,向著性能更優(yōu),體積更小的算法模型發(fā)展D、場景,向看不斷實(shí)破的行業(yè)應(yīng)用發(fā)展答案:ABCD22.在人工智能領(lǐng)域,三大主義學(xué)派包含以下哪些選項(xiàng)?A、符號(hào)主義B、行為主義C、連接主義D、機(jī)器主義答案:ABC23.以下關(guān)于梯度下降法的描述錯(cuò)誤的是哪些項(xiàng)?A、負(fù)梯度方向是函數(shù)下降最快的方向B、梯度下降法一定夠在凸優(yōu)化問題中取得全局極值點(diǎn)C、梯度下降法不一定能夠在凸優(yōu)化問題中取得全局極值點(diǎn)D、負(fù)梯度方向是函數(shù)上升最快的方向答案:BD24.下面哪幾項(xiàng)是屬于華為云通用APIS?A、ImAgeB、ImAgeSeArC.hC、nLPD、OCR答案:AD25.以下關(guān)于傳統(tǒng)機(jī)器學(xué)習(xí)的描述,錯(cuò)誤的是哪些選項(xiàng)?A、適合小數(shù)據(jù)量訓(xùn)練B、需要用GPU做加速C、需要人工做特征選擇D、特征可解釋性差答案:BD26.昇騰AI處理器支持接入以下哪些種類的內(nèi)存?A、SATAB、SSDC、HBMD、DR答案:CD27.圖像翻拍檢測服務(wù)調(diào)用成功時(shí)標(biāo)簽sugestion有哪些情況?A、CertAintyB、FALSEC、unCertAintyD、TRUE答案:BCD28.以下關(guān)于臟數(shù)據(jù)的描述中,哪些選項(xiàng)是正確的?A、臟數(shù)據(jù)中存在矛盾的、有差異的記錄。B、臟數(shù)據(jù)中常缺少屬性或者包含一些缺失的值C、臟數(shù)據(jù)包含太多錯(cuò)誤信息,因此無法直接用于機(jī)器學(xué)習(xí)D、臟數(shù)據(jù)包含錯(cuò)誤的記錄或者異常點(diǎn)。答案:ABCD29.某企業(yè)在部署MinDsporepython開發(fā)環(huán)境時(shí),可以選擇以下哪些安裝方式?A、D.oCkerB、源碼安裝C、PIPD、ConDA答案:ACD30.以下關(guān)于池化層的描述,正確的是哪些項(xiàng)?A、最大池化選擇一小片正方形區(qū)域中最大的那個(gè)值作為這片小區(qū)域的代表。B、池化層的參數(shù)同樣需要通過梯度下降和反向傳播進(jìn)行更新。C、平均池化選擇一小片正方形區(qū)域中的均值作為這片小區(qū)域的代表。D、常用的池化有最大池化和平均池化。答案:ACD31.以下哪些選項(xiàng)屬于圖像識(shí)別技術(shù)應(yīng)用場景?A、智能音箱B、安防監(jiān)控C、無人駕駛D、智能機(jī)器人答案:BCD32.神經(jīng)網(wǎng)絡(luò)深度過深容易出現(xiàn)以下哪一種問題?A、梯度消失B、梯度爆炸C、訓(xùn)練數(shù)據(jù)丟失D、模型欠擬合答案:AB33.以下哪些項(xiàng)是神經(jīng)網(wǎng)絡(luò)在感知機(jī)的基礎(chǔ)上做的改進(jìn)?A、引入了損失函數(shù)。B、輸出層的神經(jīng)元也可以不止一個(gè),可以有多個(gè)輸出C、加入隱藏層,隱藏層可以有多層,增強(qiáng)模型的表達(dá)能力。D、對(duì)激活函數(shù)做擴(kuò)展,包括SigmoiD函數(shù)、SoftmAx和ReLU等。答案:ABCD34.以下屬于決策樹主要構(gòu)建步驟的是哪些選項(xiàng)?A、構(gòu)建子學(xué)習(xí)器B、特征選擇C、決策樹生成D、剪枝答案:BCD35.以下關(guān)于回歸分析的說法中,哪些選項(xiàng)是正確的?A、回歸分析是一種有監(jiān)督學(xué)習(xí)回歸分析是一種無監(jiān)督學(xué)習(xí)B、回歸分析是一種無監(jiān)督學(xué)習(xí)C、追加了絕對(duì)值損失(L1正則)的線性回歸叫做Lsso回歸D、回歸分析是用來確定兩種或兩種以上變量間相互依賴的定量關(guān)系的一種統(tǒng)計(jì)分析方法答案:ACD36.關(guān)于卷積神經(jīng)網(wǎng)絡(luò)池化層以下描述正確的是?A、池化操作采用掃描窗口實(shí)現(xiàn)B、池化層可以起到降維的作用C、常用的池化方法有最大池化和平均池化D、經(jīng)過池化的特征圖像變小了答案:ABCD37.以下關(guān)于卷積層中零填充(pADDing)作用的描述,正確的是哪些項(xiàng)?A、增大感受野B、提取圖像邊緣的信息C、保證輸出特征圖的尺寸滿足要求D、防止過擬合答案:ABC38.有大量銷售數(shù)據(jù),但沒有標(biāo)簽的情況下,企業(yè)想甄別出VIP客戶,以下模型中合適的有?A、邏輯回歸B、SVMC、K-MeansD、層次聚類答案:CD39.華為云MoDelArts是面向AI開發(fā)的一戰(zhàn)式開發(fā)平臺(tái),以下哪些功能在MoDelArts上可以具備?A、數(shù)據(jù)治理B、AI市場C、可視化工作流D、自動(dòng)學(xué)習(xí)答案:ABCD40.下列關(guān)于護(hù)照識(shí)別服務(wù)的說法正確的是?A、countrycode代表護(hù)照簽發(fā)國家的國家碼B、nationality代表持有人國籍C、passportnumber代表護(hù)照號(hào)碼D、confidence相關(guān)字段的置信度信息,置信度越大,表示本次識(shí)別的對(duì)應(yīng)字段的可靠性越高,在統(tǒng)計(jì)意義上,置信度越大,準(zhǔn)確率越高答案:ABC41.人工智能包括哪些要素?A、算法B、場景C、算力D、數(shù)據(jù)答案:ABCD42.以下哪些項(xiàng)是多層感知機(jī)(全連接結(jié)構(gòu))在處理圖像時(shí)的弊端?A、多層感知機(jī)的輸入形式會(huì)破壞圖像像素的空間關(guān)系。B、多層感知機(jī)無法解決圖像不變性的問題。C、人是通過圖像的局部特征來理解圖像,而多層感知機(jī)中每個(gè)神經(jīng)元都處理整幅圖像的像素點(diǎn)。D、計(jì)算機(jī)存儲(chǔ)和處理圖像的方式會(huì)使多層感知知機(jī)模型參數(shù)巨大。答案:ABCD43.以下關(guān)于模型偏差和方差之間的組合,說法正確的有哪幾項(xiàng)?A、一個(gè)好的模型,方差和偏差都要求比較低B、高偏差+低方差,可能造成欠擬合C、低偏差+高方差可能造成欠擬合D、高偏差+高方差模型可以視為不良模型答案:ABD44.以下哪些選項(xiàng)是人工智能深度學(xué)習(xí)框架?A、MindSporeB、PytorchC、TheandD、TensorFlow答案:ABCD45.以下選項(xiàng)中哪些是常用的深度學(xué)習(xí)激活函數(shù)﹖A、tanh函數(shù)B、ReLU函數(shù)C、Softsign函數(shù)D、Sigmoid函數(shù)答案:ABCD46.以下哪些項(xiàng)是Softsign激活函數(shù)相比于Sigmoid函數(shù)的優(yōu)勢A、輸出關(guān)于0點(diǎn)對(duì)稱B、沒有梯度消失問題C、梯度飽和速度變緩D、導(dǎo)數(shù)最大值為1答案:BD47.下面哪些屬于AI的應(yīng)用領(lǐng)域?A、智慧教育B、智慧城市C、智慧家居D、智慧醫(yī)療答案:ABCD48.以下哪幾個(gè)方面屬于華為的全棧AI解決方案?A、sCenDB、CANNC、MoDelArtsD、MinDSpore答案:ABCD49.以下關(guān)于張量說法正確的是?A、一個(gè)矩陣是一個(gè)二階張量B、四階及以上的張量,如四維及以上的向量一樣不有直接的幾何意義C、數(shù)組是一個(gè)張量D、TensorFlow中的運(yùn)算與模型優(yōu)化過程都是基于張量完成的答案:ABCD50.以下哪些是Mindspore中Tensor常見的操作?A、switch)B、size()C、asnumpyoD、tensor_add(other:tensor)答案:BC51.AtlAs300AI加速卡適用于以下哪些場景?A、醫(yī)療影像分析B、視頻分析C、語音服務(wù)D、OCR答案:ABCD52.以下關(guān)于張量的敘述,正確的是哪些項(xiàng)?A、一階張量可以理解成一個(gè)向量B、張量就是數(shù)據(jù)矩陣C、張量是基于向量和矩陣的推廣D、MinDspore中最基礎(chǔ)的數(shù)據(jù)結(jié)構(gòu)是張量答案:ACD53.企業(yè)智能EI可以應(yīng)用于下哪些場景?A、智慧城市B、智能制造C、智能金融D、智政政務(wù)答案:ABCD54.HiAI移動(dòng)計(jì)算平臺(tái)有哪些優(yōu)點(diǎn)?A、快速上手的源碼B、多樣的工具鏈C、完善的文檔D、豐富的API答案:ABCD55.AsCenD.芯片是華為設(shè)計(jì)的AI芯片,其特點(diǎn)是哪幾項(xiàng)?A、高功耗B、高算力C、低功耗D、低算力答案:BC56.以下屬于數(shù)據(jù)預(yù)處理的是哪些選項(xiàng)?A、數(shù)據(jù)降維B、數(shù)據(jù)清理C、模型訓(xùn)練D、數(shù)據(jù)標(biāo)準(zhǔn)化答案:ABD57.深度學(xué)習(xí)中以下哪些步驟是由模型自動(dòng)完成的?A、模型訓(xùn)練B、特征選擇C、分析定位任務(wù)D、特征提取答案:BD58.常見的聚類算法有哪些?A、密度聚類B、層次聚類C、譜聚類D、KmeAns答案:ABCD59.以下有關(guān)語音合成實(shí)驗(yàn)的說法中,正確的有哪些選項(xiàng)?A、語音合成技術(shù)的主要目的是幫助用戶將上傳的完整的錄音文件通過處理生成語音對(duì)應(yīng)的文字內(nèi)容B、用戶可根據(jù)API進(jìn)行音色選擇、自定義音量、語速,為企業(yè)和個(gè)人提供個(gè)性化的發(fā)音服務(wù)C、華為云提供開放API的方式,幫助用戶通過實(shí)時(shí)訪問和調(diào)用API獲取語音合成結(jié)果,將用戶輸入的文字合成為音頻。D、語音合成,又稱文語轉(zhuǎn)換,是一種將文本轉(zhuǎn)換成逼真語音的服務(wù)。答案:ABCD60.以下哪些模型可以用來做分類?A、邏輯回歸B、支持向量機(jī)C、線性回歸D、決策樹答案:ABD61.基因知識(shí)圖譜具備以下哪幾種能力?A、輔助病例診斷B、疾病預(yù)測及診斷C、基因檢測報(bào)告生成D、實(shí)體查詢答案:ACD62.以下選項(xiàng)中,哪幾項(xiàng)是傳統(tǒng)機(jī)器學(xué)習(xí)的特征?A、適合小數(shù)據(jù)量訓(xùn)練,再增加數(shù)據(jù)量難以提升性能。B、對(duì)計(jì)算機(jī)硬件需求較個(gè)計(jì)算星級(jí)別有限,一般不需配用GPU顯卡故并行運(yùn)算C、人工進(jìn)行特征選擇D、特征可解釋性強(qiáng)答案:ABCD63.關(guān)于矩陣分解,以下正確的是?A、只有方陣才能進(jìn)行奇異分解B、一個(gè)矩陣乘以其特征向量后,向量只發(fā)生伸縮變換。C、對(duì)矩陣A進(jìn)行奇異值分解,其左奇異矩陣與右奇異矩陣都是正交矩陣D、奇異值越大,其所對(duì)應(yīng)的奇異向量上包含的信息量越大。答案:BCD64.Pytorch提供的Tensor,可以極大地加速計(jì)算,其中的Tensor支持以下哪些硬件?A、GPUB、CPUC、Ascend310D、Ascend910答案:AB65.下列屬于AI涉及的子領(lǐng)域的有哪些選項(xiàng)?A、知識(shí)工程B、人機(jī)交互C、數(shù)據(jù)挖掘D、機(jī)器學(xué)習(xí)答案:ABCD66.以下哪些是語音處理研究的主題?A、語音處理B、聲紋識(shí)別C、語音識(shí)別D、語音喚醒答案:BCD67.ModelArts中自動(dòng)學(xué)習(xí)功能不需要代碼編寫和模型開發(fā)經(jīng)驗(yàn)。下列哪些選項(xiàng)屬于ModelArts中自動(dòng)學(xué)習(xí)的功能?A、自動(dòng)設(shè)計(jì)模型B、自動(dòng)訓(xùn)練C、部署模型D、自動(dòng)調(diào)參E、自動(dòng)壓縮答案:ABCDE68.以下關(guān)于機(jī)器學(xué)習(xí)算法與傳統(tǒng)基于規(guī)則方法的區(qū)別中正確的是?A、傳統(tǒng)的基于規(guī)則的方法,其中的規(guī)律可以人工顯性的明確出來B、傳統(tǒng)基于規(guī)則的方法使用顯性編程來解決問題C、機(jī)器學(xué)習(xí)中模型的映射關(guān)系是自動(dòng)學(xué)習(xí)的D、機(jī)器學(xué)習(xí)所中模型的映射關(guān)系必須是隱性的答案:ABC69.以下關(guān)于GPU特征的描述,正確的是哪些選項(xiàng)?A、大量緩存降低時(shí)延基于大吞吐量設(shè)計(jì)擅長邏輯控制B、基于大吞吐量設(shè)計(jì)C、擅長邏輯控制D、擅長計(jì)算密集和易于并行的程序答案:BD70.圖引擎服務(wù)(GrAphEngineServiCe)是針對(duì)以“關(guān)系”為基礎(chǔ)的“圖”結(jié)構(gòu)數(shù)據(jù),進(jìn)行一體化查詢、分析的服務(wù)。下列哪幾項(xiàng)是華為云圖引擎服務(wù)的優(yōu)勢?A、一體化B、簡單易用C、大規(guī)模D、高性能答案:ABCD71.以下哪些項(xiàng)可以應(yīng)用在需要處理序列數(shù)據(jù)的場景中?A、CNNB、LSTMC、RNND、GRU答案:BCD72.計(jì)算機(jī)視覺的應(yīng)用場景有哪些?A、語音導(dǎo)航B、智能相冊(cè)C、圖片搜索D、視頻動(dòng)作分析答案:BCD73.關(guān)于模型容量的說法,以下哪些選項(xiàng)是正確的?A、容量和數(shù)據(jù)量以及參數(shù)數(shù)量沒有太大的關(guān)系B、容量不足的模型不能解決復(fù)雜任務(wù),可能出現(xiàn)欠擬合C、容量高的模型能夠解決復(fù)雜的任務(wù),但是其容量高于任務(wù)所需時(shí),有可能會(huì)過擬合D、容量與執(zhí)行任務(wù)的復(fù)雜度和所提供訓(xùn)練數(shù)據(jù)的數(shù)量匹配時(shí),算法效果通常最佳。答案:BCD74.華為云文字識(shí)另別OCR技術(shù)的優(yōu)勢有哪幾項(xiàng)?A、識(shí)別精度高B、降低成本C、高適應(yīng)性D、快速高效答案:ABCD75.下面哪些屬于AI的應(yīng)用領(lǐng)域A、智慧醫(yī)療B、智慧教育C、智慧城市D、智慧家居答案:ABCD76.關(guān)于反向傳播算法,下列哪些說法是正確的?A、反向傳播算法使得神經(jīng)網(wǎng)絡(luò)的效果有了更大的提升。B、如果網(wǎng)絡(luò)中存在數(shù)個(gè)隱藏層。也可以使用求導(dǎo)的鏈?zhǔn)椒▌t逐層求導(dǎo),選代求解最優(yōu)參數(shù)C、損失函數(shù)中產(chǎn)生的誤差,是通過輸入層到隱藏層到輸出層逐漸積累形成的。D、反向傳播又叫誤差反向傳播。答案:ABCD77.以下關(guān)于反向傳播算法的描述,正確的是哪些項(xiàng)?A、反向傳播的本質(zhì)是鏈?zhǔn)角髮?dǎo)法則。B、反向傳播的目的是計(jì)算梯度,更新參數(shù)。C、誤差反向傳播之前需要先進(jìn)行信號(hào)正向傳播D、反向傳播過程中需要計(jì)算每個(gè)神經(jīng)元的誤差項(xiàng)。答案:ABCD78.常見的聚類算法有哪些?A、密度聚類B、層次聚類C、譜聚類D、K-meAns答案:ABCD79.下列哪些選項(xiàng)屬于tf.keras常用的關(guān)于網(wǎng)絡(luò)編譯的方法與接口?A、optimizersB、evaluateC、ompileD、Model答案:AC80.華為云可提供的AI服務(wù)有以下哪幾項(xiàng)?A、文本識(shí)別OCRB、語音交互C、圖引擎服務(wù)D、圖像搜索答案:ABCD81.在進(jìn)行圖像任務(wù)處理過程中,往往會(huì)對(duì)圖片進(jìn)行歸一化操作,下面有關(guān)歸一化的描述,哪些選項(xiàng)是正確的?A、歸一化有可提高精度B、數(shù)據(jù)歸一化的主要目的是為了把不同來源的數(shù)據(jù)統(tǒng)一到同一數(shù)量級(jí)C、標(biāo)準(zhǔn)差歸一化是一種常用的歸一化方法D、數(shù)據(jù)歸一化可以消除指標(biāo)之間的量綱影響答案:BD82.以下關(guān)于神經(jīng)網(wǎng)絡(luò)的描述中,正確的是哪幾項(xiàng)?A、人工神經(jīng)網(wǎng)絡(luò)是一種旨在模仿人腦結(jié)構(gòu)及其功能的信息處理系統(tǒng)。B、人工神經(jīng)網(wǎng)絡(luò)完全基于數(shù)學(xué),與仿生學(xué)沒有關(guān)系。C、人工神經(jīng)網(wǎng)絡(luò)反映了人腦功能的若干基本特征,如并行信息處理、學(xué)習(xí)、聯(lián)想、模式分類、記憶等。D、人工神經(jīng)網(wǎng)絡(luò)是由人工神經(jīng)元互連組成的網(wǎng)絡(luò),它是從微觀結(jié)構(gòu)和功能上對(duì)人腦的抽象、簡化,是模擬人類智能的一條重要途徑.答案:ACD83.在構(gòu)建好神經(jīng)網(wǎng)絡(luò)net后,使用MinDspore.moDel進(jìn)行訓(xùn)練,需要傳入net和以下哪些參數(shù)?A、損失函數(shù)B、評(píng)價(jià)指標(biāo)C、正則化方法D、優(yōu)化器E、梯度更新策略答案:ABD84.以下哪些選項(xiàng)可以創(chuàng)建全零常量Tensor?A、tf.zeros()B、tf.zeros_like0C、tf.zeros_array)D、tf.zeros_list()答案:AB85.過擬合問題是模型在訓(xùn)練集表現(xiàn)較好,但在測試集表現(xiàn)較差,為了避免過擬合問題,我們可以采取以下哪些方法?A、數(shù)據(jù)集合擴(kuò)充B、L1和L2正則化C、提前停止訓(xùn)練D、使用Dropout方法答案:ABCD86.以下哪些項(xiàng)屬于循環(huán)神經(jīng)網(wǎng)絡(luò)中多對(duì)一的類型?A、音樂生成B、動(dòng)作識(shí)別C、機(jī)器翻譯D、情感分析答案:BC87.MinDspore可以應(yīng)對(duì)超大規(guī)模模型實(shí)現(xiàn)高效分布式訓(xùn)練的挑戰(zhàn)以下關(guān)于KNN的說法中,哪些說項(xiàng)是正確的?A、KNN通常需要非常大的計(jì)算量。B、KNN在做回歸預(yù)測時(shí),一般采用平均值法。C、KNN在分類預(yù)測時(shí),一般采用多數(shù)表決法。D、KNN是一種無監(jiān)督聚類算法答案:ABC88.下列哪幾項(xiàng)是華為云圖引擎服務(wù)(GrAphEngineServiCe)的優(yōu)勢?A、豐富的圖分析算法庫B、高性能圖計(jì)算內(nèi)核C、分布式高性能圖存儲(chǔ)擎D、語音交互答案:ABCD89.處理實(shí)際問題時(shí),以下什么情況下該使用機(jī)器學(xué)習(xí)?A、規(guī)則十分復(fù)雜或者無法描述,比如人臉識(shí)別和語音識(shí)別B、任務(wù)的規(guī)會(huì)隨時(shí)間改變,比如生產(chǎn)線上的瑕疵檢測,比如預(yù)測商品銷售的趨勢C、數(shù)據(jù)分布本身隨時(shí)間變化,需要程序不停的重新適應(yīng)D、規(guī)則復(fù)雜程度低且問題的規(guī)模較小的問題答案:ABC90.以下哪些激活函數(shù)容易產(chǎn)生梯度消失問題?A、ReLUB、SoftplusC、TAnhD、SigmoiD答案:CD91.以下哪些選項(xiàng)屬于循環(huán)神經(jīng)網(wǎng)絡(luò)的常見應(yīng)用案例?A、機(jī)器翻譯B、情緒分析C、生成詩歌D、文本分類答案:ABCD92.HUA.WEIHiAI賦能A.PP哪些價(jià)值?A、安全B、穩(wěn)定C、實(shí)時(shí)D、隨時(shí)答案:ABCD93.在深度學(xué)習(xí)任務(wù)中,遇到數(shù)據(jù)不平衡問題時(shí),我們可以用以下哪些方法進(jìn)行解決?A、批量刪除B、隨機(jī)過采樣C、隨機(jī)欠采樣D、合成采樣答案:BCD94.問診機(jī)器人可能涉及以下哪些技術(shù)A、語音識(shí)別B、圖像識(shí)別C、專家系統(tǒng)D、知識(shí)圖譜答案:ACD95.哪些目錄是ME模塊組件包含的?A、trAinB、CmAkeC、moDel_zooD、mm答案:AC96.關(guān)于人工智能技術(shù)的爭議說法,以下哪些選項(xiàng)是正確的?A、I會(huì)取代那些重復(fù)性強(qiáng)、創(chuàng)造性低,弱社交的工作。B、隨著計(jì)算機(jī)視覺的發(fā)展,圖像及視頻的可信度也越來越低?,F(xiàn)在我們可以通過PS,GAN等技術(shù)制作假圖像,讓人難分真?zhèn)?。C、未來人工智能將會(huì)替代所有的工作,包括具有強(qiáng)社交屬性的行業(yè)。D、反向傳播計(jì)算梯度人工智能是非常危險(xiǎn)的技術(shù),因此必須停止人工智能的研究。答案:AB97.智能感知包含的能力有那些選項(xiàng)A、學(xué)習(xí)和自適應(yīng)能力B、記憶和思維能力C、行為能力D、感知能力答案:ABCD98.調(diào)用華為云語音合成pythonAPI時(shí),需要初始化客戶端參數(shù),主要通過TtsCustomizAtionClient函數(shù)完成,以下初始化參數(shù)中,必須項(xiàng)有哪幾項(xiàng)?A、serviCe-enDpointB、regionC、skD、Ak答案:ABCD99.以下關(guān)于哪些結(jié)構(gòu)屬于LSTM?A、輸出門B、遺忘門C、記憶門D、輸入門答案:ABD100.以下哪些項(xiàng)屬于生成對(duì)抗網(wǎng)絡(luò)訓(xùn)練中的問題?A、不穩(wěn)定性B、模式崩塌C、過擬合D、欠擬合答案:ABC101.以下選項(xiàng)中,哪幾項(xiàng)是深度學(xué)習(xí)的特征?A、利用算法自動(dòng)提取特征B、高維的權(quán)重參數(shù),海量的訓(xùn)練數(shù)據(jù)下可以獲得高性能。C、對(duì)計(jì)算機(jī)硬件需求較小。D、特征可解釋性強(qiáng)。答案:AB102.人工智能研究的領(lǐng)域包括以下哪些選項(xiàng)?A、計(jì)算智能B、符號(hào)智能C、機(jī)器感知D、機(jī)器學(xué)習(xí)答案:ABCD103.以下不屬于通用機(jī)器學(xué)習(xí)整體流程的是哪些選項(xiàng)?A、模型部臀與整合B、模型評(píng)估測試C、模型報(bào)告撰寫D、業(yè)務(wù)目標(biāo)分析答案:CD104.以下哪些項(xiàng)是常用的擴(kuò)充數(shù)據(jù)集的方法?A、對(duì)語音信號(hào)添加隨機(jī)噪聲B、在文本中進(jìn)行近義詞替換C、對(duì)圖像進(jìn)行幾何變換D、標(biāo)簽平滑答案:ABC105.以下哪些選項(xiàng)是決策樹用于劃分節(jié)點(diǎn)的依據(jù)?A、CARTB、信息熵C、ID3D、Gini系數(shù)答案:BD106.HNSCore支持以下哪些操作系統(tǒng)?A、nDroiDB、HArmonyOsC、WinDowsD、IOS答案:ABCD107.量子計(jì)算可以應(yīng)用在以下哪些領(lǐng)域?A、生物計(jì)算B、材料模擬C、物流交通D、金融科技答案:BCD108.以下哪些選項(xiàng)屬于HArmonyOs的關(guān)鍵能力?A、分布式能力B、萬能卡片C、MLKitD、HMSCore答案:ABD109.以下關(guān)于LSTM的描述,正確的是哪幾項(xiàng)?A、門可以選擇性地讓信息通過它們由SigmoiD神經(jīng)網(wǎng)絡(luò)層和逐點(diǎn)乘法運(yùn)算組成B、LSTM可以通過“門”的精細(xì)結(jié)構(gòu)向細(xì)胞狀態(tài)添加或移除信息C、LSTM的關(guān)鍵健是細(xì)胞狀態(tài),細(xì)胞狀態(tài)貫穿整個(gè)鏈條,只有一些次要的線性交互作用,信息很容易以不變的方式流過D、LSTM有兩種門用來保持和控制細(xì)胞狀態(tài):遺忘門和輸入門答案:ABCD110.在A.l應(yīng)用開發(fā)中,通常會(huì)對(duì)數(shù)據(jù)做一些操作,以下對(duì)數(shù)據(jù)的操作中可以實(shí)現(xiàn)增加模型泛化能力的有哪些?A、對(duì)文字類數(shù)據(jù)進(jìn)行隨機(jī)刪除B、對(duì)音頻類數(shù)據(jù)添加噪音C、對(duì)圖片數(shù)據(jù)進(jìn)行裁剪、反轉(zhuǎn)操作D、當(dāng)前數(shù)據(jù),增加數(shù)據(jù)量。答案:ABCD111.softmA.x函數(shù)在分類任務(wù)中經(jīng)常被使用,下列關(guān)于softmA.x函數(shù)的描述,哪些選項(xiàng)是正確的?A、是二分類函數(shù)sigmoiD的推廣B、softmAx函數(shù)又稱作歸一化指數(shù)函教C、SoftmAx回歸模型是解決二分類回歸問題的算法D、softmAx函數(shù)經(jīng)常與交叉嫡損失函數(shù)聯(lián)合使用答案:ABD112.以下關(guān)于層次聚類的說法中,哪些選項(xiàng)是正確的?A、使用層次聚類時(shí)、數(shù)據(jù)集的劃分可采用“自下向上”的聚合策略。B、層次聚類幫助形成樹形的聚類結(jié)構(gòu)。C、層次聚類得到的結(jié)果中、樹根擁有所有樣本的唯-聚類。D、層次聚類到的結(jié)里中,葉子是僅有一個(gè)樣本的聚類。答案:ABCD113.下列哪幾項(xiàng)是圖引擎服務(wù)可以應(yīng)用的場景?A、風(fēng)控B、銷量預(yù)C、知識(shí)圖譜D、推薦答案:ABCD114.以下網(wǎng)絡(luò)模型格式中,可以用于保存訓(xùn)練參數(shù)和網(wǎng)絡(luò)模型的有哪些選項(xiàng)?A、NNXB、CheCkPointC、AIRD、MinD.IR答案:ABD115.以下哪些庫是在裝有AtlAs300(3000)加速卡的服務(wù)器中安裝DDK(DeviCeDevelopmentKit)之前需要安裝的?A、DeCorAtorB、setuptoolsC、numpyD、tensorflow答案:ABC116.以下哪些選項(xiàng)可以加速深度學(xué)習(xí)訓(xùn)練?A、TPUB、FPGAC、GPUD、AsCenD答案:ABCD117.截止2019年底,TensorFlow發(fā)布過的版本有?A、1B、3C、2D、0.1答案:ACD118.ModelArts中訓(xùn)練平臺(tái)可以支持的開發(fā)模式有哪幾種?A、云上開發(fā)(IDE+PyCharmToolKit)B、云上開發(fā)(Notebook+SDK)C、本地開發(fā)(IDE+PyCharmToolKit)D、本地開發(fā)(Notebook+SDK)答案:BCD119.以下關(guān)于GRU的描述,正確的是哪幾項(xiàng)A、GRU是LSTM的一種變體B、GRU將遺忘門和輸入門合成了一個(gè)單一的更新門C、GRU會(huì)拼接上一時(shí)刻的輸出和當(dāng)前時(shí)刻的輸入D、GRU混合了細(xì)胞狀態(tài)和隱藏狀態(tài)答案:ABC120.圖像標(biāo)簽服務(wù)調(diào)用成功時(shí)返回的type包含下列哪些類型?A、oBjeCt:實(shí)體標(biāo)簽B、ConCept:概念標(biāo)簽C、sport:運(yùn)動(dòng)標(biāo)簽D、sCene:場景標(biāo)簽答案:ABCD121.在隨機(jī)森林中,最終的集成模型是通過什么策略決定模型結(jié)果?A、累加制B、求平均數(shù)C、投票制D、累乘制答案:BC122.MinDspore模型在訓(xùn)練完成后,可以部署在以下哪些選項(xiàng)?A、華為云EC.SB、AtlAs300TProC、AtlAs800D、HUAWEIMAte50Pro答案:ABC123.下列關(guān)于通用表格識(shí)別服務(wù)返回的type字段說法正確的是?A、type代表文字識(shí)別區(qū)域類型B、type為text時(shí)代表文本識(shí)別區(qū)域C、type代表表格類型D、type為table時(shí)代表格識(shí)別區(qū)域答案:BD判斷題1.多項(xiàng)式回歸當(dāng)中,模型的公式存在平方項(xiàng),因此其不是線性的。A、正確B、錯(cuò)誤答案:B2.激活函數(shù)的作用是將線性映射變成非線性映射A、正確B、錯(cuò)誤答案:A3.一個(gè)矩陣就對(duì)應(yīng)一個(gè)線性變換,通過矩陣乘法實(shí)現(xiàn)A、正確B、錯(cuò)誤答案:A4.Tanh激活數(shù)輸出關(guān)于0點(diǎn)對(duì)稱,相比于Sigmoid函數(shù)可以加快模型的收斂A、正確B、錯(cuò)誤答案:A5.HiAIFoundation離線模型計(jì)算時(shí),從文件中加載離線模型將用戶的輸入數(shù)據(jù)(如圖片)貝在HiAI的NPU上進(jìn)行計(jì)算。計(jì)算時(shí),每一次推理只需要把用戶數(shù)據(jù)從DDR到NPU導(dǎo)入導(dǎo)出一次。A、正確B、錯(cuò)誤答案:A6.人工智能的四要素是數(shù)據(jù)、算法、算力、場景。要滿足這四要素,我們需要將AI與云計(jì)算、大數(shù)據(jù)和物聯(lián)網(wǎng)結(jié)合,使其更好地服務(wù)社會(huì)。A、正確B、錯(cuò)誤答案:A7.池化層在卷積神經(jīng)網(wǎng)絡(luò)里必不可少。A、正確B、錯(cuò)誤答案:A8.Sigmoid,tanh和Softsign這些激活函數(shù)在網(wǎng)絡(luò)層數(shù)加深時(shí),都不能避免梯度消失的問題。A、正確B、錯(cuò)誤答案:A9.Mindspore支持的處理器可以是Ascend,GPU,CPUA、正確B、錯(cuò)誤答案:A10.通常情況下,梯度下降方法在接近目標(biāo)點(diǎn)區(qū)域的極小范圍內(nèi),下降的幅度越來越大,但是在目標(biāo)點(diǎn)一定范圍內(nèi)可能存在梯度不穩(wěn)定的情況。A、正確B、錯(cuò)誤答案:A11.護(hù)照識(shí)別服務(wù)的圖像數(shù)據(jù)是不需要用base64編碼的。A、正確B、錯(cuò)誤答案:B12.Python的類中使用雙下劃線開頭的方法可能是私有方法A、正確B、錯(cuò)誤答案:A13.MindSpore提供了易用的API接口,在訓(xùn)練過程中,用戶可以方便的收集訓(xùn)練過程指標(biāo),包括計(jì)算圖、標(biāo)量數(shù)據(jù)、直方圖數(shù)據(jù)、性能據(jù)等并通過WebUI界面進(jìn)行展示。A、正確B、錯(cuò)誤答案:A14.CPU可以通過提高頻率的方式提升AI計(jì)算性能A、正確B、錯(cuò)誤答案:A15.華為的AI全場景只提供公有云服務(wù)。A、正確B、錯(cuò)誤答案:B16.JuliA.編程語言從張量原生表達(dá)、IR開放和高性能入手,結(jié)合科學(xué)計(jì)算/HPC領(lǐng)域的積累,進(jìn)入AI領(lǐng)域。A、正確B、錯(cuò)誤答案:A17.聯(lián)邦學(xué)習(xí)在保證數(shù)據(jù)隱私安全的前提下,利用不同數(shù)據(jù)源合作訓(xùn)練模型,進(jìn)步突破數(shù)據(jù)的瓶頸。A、正確B、錯(cuò)誤答案:A18.MindSporeLite支持iOS、Androd等手機(jī)操作系統(tǒng)以及LiteOS嵌入式操作系統(tǒng),支持手機(jī)、大屏、平板、Io等各種智能設(shè)備上的A應(yīng)用。A、正確B、錯(cuò)誤答案:A19.隨機(jī)梯度下降算法速度比較快,但損失函數(shù)值往往會(huì)在極值附近橫沖直撞,難以收斂到極值。A、正確B、錯(cuò)誤答案:A20.TensorFlow2.x提供TensorFlow1.x的兼容性模塊A、正確B、錯(cuò)誤答案:A21.全連接層一般位于整個(gè)網(wǎng)絡(luò)的中間位置,用于減少參數(shù)量A、正確B、錯(cuò)誤答案:B22.L1正則化添加的成本與權(quán)重系數(shù)的平方成正比。A、正確B、錯(cuò)誤答案:B23.MindSpore提供了易用的API接口,在訓(xùn)練過程中,用戶可以方便的收集訓(xùn)練過程指標(biāo),包括計(jì)算圖、標(biāo)量數(shù)據(jù)、直方圖數(shù)據(jù)、性能數(shù)據(jù)等,并通過webUI界面進(jìn)行展示。A、正確B、錯(cuò)誤答案:A24.TensorFlow沒有自帶的可視化工具,一般用戶會(huì)使用python庫matplotlib進(jìn)行可視化操作A、正確B、錯(cuò)誤答案:A25.在實(shí)際項(xiàng)目中,在構(gòu)建模型之前,數(shù)據(jù)清理與特征工程是非常重要的A、正確B、錯(cuò)誤答案:A26.線性回歸的損失函數(shù)中加入L1正則化,此時(shí)該回歸叫做Lasso回歸A、正確B、錯(cuò)誤答案:A27.卷積神經(jīng)網(wǎng)絡(luò)中,卷積層的輸出可以直接作為全連接層的輸入進(jìn)行進(jìn)一步計(jì)算。A、正確B、錯(cuò)誤答案:A28.前饋神經(jīng)網(wǎng)絡(luò)接收前一層的輸出,并輸出給下一層采用一種單向多層的結(jié)構(gòu),每一層包含若干個(gè)神經(jīng)元,同一層的神經(jīng)元之間沒有相互連接,層間信息的傳送只沿一個(gè)方向進(jìn)行。A、正確B、錯(cuò)誤答案:A29.用案例開發(fā)的典型應(yīng)用開發(fā)過程不包含數(shù)據(jù)加載。A、正確B、錯(cuò)誤答案:B30.MindArmour針對(duì)可信AI的各個(gè)領(lǐng)域提供全面、有效、易用的評(píng)測工具和增強(qiáng)方法A、正確B、錯(cuò)誤答案:A31.計(jì)算機(jī)視覺是研究如何讓計(jì)算機(jī)“看”的科學(xué)。A、正確B、錯(cuò)誤答案:A32.在機(jī)器學(xué)習(xí)中,特征越多,模型準(zhǔn)確率越高。A、正確B、錯(cuò)誤答案:B33.為保證模型精度及避免硬件差異帶來的影響,Mindspore的并行訓(xùn)練需要相同型號(hào)的設(shè)備(如:全部都使用Atlas100TPro者全部都用NVIDIAV100。A、正確B、錯(cuò)誤答案:B34.深度學(xué)習(xí)中,只能在訓(xùn)練階段使用Dropout技術(shù)。A、正確B、錯(cuò)誤答案:A35.MindInsight是MindSpore提供的可視化工具,可用于完成訓(xùn)練可視化、性能調(diào)優(yōu)、精度調(diào)優(yōu)等任務(wù)。A、正確B、錯(cuò)誤答案:A36.人工智能學(xué)科研究的是如何使機(jī)器(計(jì)算機(jī))具有智能或者說如何利用計(jì)算機(jī)實(shí)現(xiàn)智能的理論、方法和技術(shù)A、正確B、錯(cuò)誤答案:A37.Keras中modelsummary0是用來打印網(wǎng)絡(luò)概況的方法。A、正確B、錯(cuò)誤答案:A38.MindIR通過統(tǒng)一的算子IR定義,消除了不同后端的模型差異,用戶可以基于同一個(gè)模型文件在端、邊、云不同平臺(tái)上進(jìn)行協(xié)同任務(wù)。A、正確B、錯(cuò)誤答案:A39.GPU擅長計(jì)算密集和易于并行的程序A、正確B、錯(cuò)誤答案:A40.MindSpore1.7目前只支持在windows和Linux上安裝。A、正確B、錯(cuò)誤答案:A41.華為HIAI提供了三層能力開放,HiAIFoundationHIAIengineHiAicloudA、正確B、錯(cuò)誤答案:B42.CANN中投供的FramworkAdaptor可以讓TensorFlow、Pytorch運(yùn)行在異騰AT處理器上。A、正確B、錯(cuò)誤答案:A43.二分類過程中,我們可將任意類別設(shè)為正例。A、正確B、錯(cuò)誤答案:A44.華為的AI全場景包括公有云、私有云、各種邊緣計(jì)算、物聯(lián)網(wǎng)行業(yè)終端以及消費(fèi)者終端等端、邊、云的部署環(huán)境A、正確B、錯(cuò)誤答案:A45.Mindspore支持動(dòng)態(tài)圖和靜態(tài)圖兩種模型開發(fā)方式。但是在靜態(tài)圖下,對(duì)于python語法有所限制,因此從動(dòng)態(tài)圖切換成靜態(tài)圖時(shí),需要符合靜態(tài)圖的語法規(guī)則,才能正確使用靜態(tài)圖來進(jìn)行執(zhí)行A、正確B、錯(cuò)誤答案:B46.因?yàn)槿B接層的存在,卷積神經(jīng)網(wǎng)絡(luò)輸入圖像的尺寸必須保持一致。A、正確B、錯(cuò)誤答案:B47.華為云OB.S(對(duì)象存儲(chǔ)服務(wù))服務(wù)可自動(dòng)提取票據(jù)的關(guān)鍵信息,幫助員工自動(dòng)填寫報(bào)銷單,同時(shí)結(jié)合RPA自動(dòng)化機(jī)器人,可以大幅提升財(cái)務(wù)報(bào)銷工作效率。A、正確B、錯(cuò)誤答案:B48.循環(huán)神經(jīng)網(wǎng)絡(luò)具有記憶功能A、正確B、錯(cuò)誤答案:A49.MindsporeLite對(duì)模型進(jìn)行量化時(shí)支持INT8和FP16A、正確B、錯(cuò)誤答案:A50.使用mindspore.nn.conv2d構(gòu)建二位卷積神經(jīng)網(wǎng)絡(luò)時(shí),默認(rèn)情況下,接受圖像數(shù)據(jù)格式為【數(shù)量,通道,高度,寬度】A、正確B、錯(cuò)誤答案:B51.圖像的空間聯(lián)系是局部的像素聯(lián)系較為緊密,而距離較遠(yuǎn)的像素相關(guān)性較弱。A、正確B、錯(cuò)誤答案:A52.在MindSpore中,常用的稀疏張量的表達(dá)形式為:<indices:Iensr,values:Tensor,Shape:Tensor),基于此試,MindSpore中內(nèi)置了稀疏張量結(jié)構(gòu):CSRTensor、COOTensor和RowTensor。A、正確B、錯(cuò)誤答案:A53.AtlAs900AI集群可適用于石油勘探場景A、正確B、錯(cuò)誤答案:A54.高級(jí)智能駕駛車輛不僅能夠解放人類的雙手,同時(shí)還能降低交通事故發(fā)生的概率。A、正確B、錯(cuò)誤答案:A55.AI芯片也被稱為AI加速器,是專門用于處理人工智能應(yīng)用中的大量計(jì)算任務(wù)的功能模塊。A、正確B、錯(cuò)誤答案:A56.訓(xùn)練誤差會(huì)隨著模型復(fù)雜度的上升不斷減小。A、正確B、錯(cuò)誤答案:A57.HiAIFoundation不支持稀疏化模型加速A、正確B、錯(cuò)誤答案:B58.華為云提供的一句話識(shí)別服務(wù)需要配置property參數(shù),表示所使用的模型特征串,通常是“語種來樣率領(lǐng)域”的形式,采樣率需要與音頻采梓率保持一致。A、正確B、錯(cuò)誤答案:A59.單層感知機(jī)和邏輯回歸都是線性分類器,只能處理線性可分的數(shù)據(jù)。A、正確B、錯(cuò)誤答案:B60.使用Mindspore.nn.Conv2d(1,3,5,has_bias=False,weight_init=’normal')接口,可以創(chuàng)建輸入通道數(shù)為1、輸出的通道數(shù)為5、卷積核大小為3*3、使用norma1算子初始化參數(shù)的卷積層。A、正確B、錯(cuò)誤答案:B61.靜態(tài)圖是Pytorch的特點(diǎn)之一。A、正確B、錯(cuò)誤答案:B62.2004年,在美國舉辦的第一屆DARPA挑戰(zhàn)賽中,部分參賽車輛不僅可以很好地感知障礙物,同時(shí)還實(shí)現(xiàn)了交通信號(hào)燈的識(shí)別。A、正確B、錯(cuò)誤答案:B63.K折交叉驗(yàn)證的K值不屬于超參數(shù)A、正確B、錯(cuò)誤答案:B64.K-折交叉驗(yàn)證最后可以使用k個(gè)模型最終的驗(yàn)證集的分類準(zhǔn)確率的平均數(shù)作為k-折交又驗(yàn)證下分類器的性能指標(biāo)。A、正確B、錯(cuò)誤答案:A65.使用圖像標(biāo)簽服務(wù)時(shí),可以調(diào)用接口Image_tagging_aksk(ak,sk,encode_to_base64(imc_tag_path),",'en',5,60),Image_tagging_akski這個(gè)函數(shù)的前2個(gè)參教分別是ak和sk。第3個(gè)參數(shù)是圖像數(shù)據(jù)進(jìn)行編碼A、正確B、錯(cuò)誤答案:B66.人臉?biāo)阉鞣?wù)中,如果想刪除某個(gè)人臉集,我們可以使用這樣的代碼。Frs_elient.get.v2().get_face_set_service().delete_face_set(***)其中(***)是填入實(shí)際的人臉集名稱。A、正確B、錯(cuò)誤答案:A67.NPU的典型代表有華為異騰AI芯片,寒武紀(jì)芯片,IBM的TrueNorthA、正確B、錯(cuò)誤答案:A68.特征選擇過濾法的局限性,過濾方法傾向于選擇冗余的變量,因?yàn)樗鼪]有考慮特征之間的關(guān)系。A、正確B、錯(cuò)誤答案:A69.昇騰AI處理器中包含AICPU控制整個(gè)AICore的運(yùn)算,完成整個(gè)程序的循環(huán)控制分支判斷。A、正確B、錯(cuò)誤答案:B70.人臉檢測服務(wù)在測試圖像中沒有人臉時(shí)會(huì)報(bào)錯(cuò)。A、正確B、錯(cuò)誤答案:B71.ModelArts平臺(tái)中的數(shù)據(jù)管理中不支持視頻數(shù)據(jù)格式。A、正確B、錯(cuò)誤答案:B72.在超參數(shù)搜索空間較大的情況下,采用隨機(jī)搜索,會(huì)優(yōu)于網(wǎng)格搜索的效果A、正確B、錯(cuò)誤答案:A73.CPU主要通過增加指令,增加核數(shù)等方式來提升AI性能。A、正確B、錯(cuò)誤答案:A74.AnAConDA數(shù)據(jù)科學(xué)平臺(tái)可以安裝TensorFlow框架。A、正確B、錯(cuò)誤答案:B75.XOR問題是線性分類問題。A、正確B、錯(cuò)誤答案:B76.一個(gè)向量乘以一個(gè)正交矩陣后。矩陣對(duì)向量值產(chǎn)生伸縮作用而沒有旋轉(zhuǎn)和空間映射作用。A、正確B、錯(cuò)誤答案:B77.具有高級(jí)智能駕駛的汽車,只需要搭載激光雷達(dá)即可完成所有感知任務(wù)。A、正確B、錯(cuò)誤答案:B78.MindSpore中神經(jīng)網(wǎng)絡(luò)的基本
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 洛陽職業(yè)技術(shù)學(xué)院《大學(xué)生就業(yè)指導(dǎo)》2023-2024學(xué)年第一學(xué)期期末試卷
- 2025年肇慶考貨運(yùn)從業(yè)資格證
- 2025年鄂州貨運(yùn)從業(yè)資格證考試題庫答案
- 2025年廣東貨運(yùn)叢業(yè)資格證考試題庫答案
- 2024年某物流公司關(guān)于運(yùn)輸000噸貨物的運(yùn)輸合同
- 物聯(lián)網(wǎng)應(yīng)用招投標(biāo)合同操作規(guī)程
- 皮革制品庫房施工合同
- 咨詢服務(wù)租賃合同模板
- 合租影視制作室合同樣本
- 沙灘休閑區(qū)遮陽棚工程合同
- 學(xué)校藝術(shù)教育評(píng)價(jià)管理制度
- 從業(yè)務(wù)骨干到管理者
- GB/T 31326-2014植物飲料
- GB/T 2883-2015工程機(jī)械輪輞規(guī)格系列
- GB/T 17650.2-2021取自電纜或光纜的材料燃燒時(shí)釋出氣體的試驗(yàn)方法第2部分:酸度(用pH測量)和電導(dǎo)率的測定
- 綠色小清新教師通用說課PPT模板
- 《書籍裝幀設(shè)計(jì)》-課件
- 清洗消毒及滅菌效果監(jiān)測標(biāo)準(zhǔn)-課件
- 普外科常見疾病課件
- 冠脈介入的發(fā)展史課件
- 生物藥物成分的提取純化技術(shù)
評(píng)論
0/150
提交評(píng)論