HCIA-AIV3.0考試認證題庫_第1頁
HCIA-AIV3.0考試認證題庫_第2頁
HCIA-AIV3.0考試認證題庫_第3頁
HCIA-AIV3.0考試認證題庫_第4頁
HCIA-AIV3.0考試認證題庫_第5頁
已閱讀5頁,還剩25頁未讀 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

HCIA-AI3.0一、人工智能概覽(多選)1.下列哪些屬于AI的子領(lǐng)域?-----------------------------------ABCDA.機器學習B.計算機視覺C.語音識別D.自然語言處理(判斷)2.語音識別指的是將音頻數(shù)據(jù)識別為文本數(shù)據(jù)。-------------------------AA.TRUEB.FALSE(單選)3.人工智能的三個階段包含了計算智能、()、認知智能。-----------------BA.弱人工智能B.感知智能C.行為智能D.強人工智能(單選)4.下列選項中不屬于華為全棧解決方案范疇的是?------------------------BA.應用使能B.邊緣計算C.開源框架D.芯片使能(多選)5.人工智能包括哪些要素?----------------------------------------ABCDA.算法B.場景C.算力D.數(shù)據(jù)(判斷)6.在以連接主義為基礎(chǔ)的神經(jīng)網(wǎng)絡中,每個節(jié)點都能表達特定的意義。---------BA.TRUEB.FALSE(單選)7.根據(jù)美國汽車工程師協(xié)會(SAE)將自動駕駛按照車輛行駛對于系統(tǒng)依賴程度分為哪些級別?------------------------------------------------------DA.L1~L4B.L1~L5C.L0~L4D.L0~L5(判斷)8.計算機視覺是研究如何讓計算機“看”的科學。-------------------------AA.TRUEB.FALSE(多選)9.以下哪幾個方面屬于華為的全棧AI解決方案?-----------------------ABCDA.AscendB.CANNC.ModelArtsD.MindSpore(判斷)10.重復性強、要求弱社交能力的工作是最容易被AI取代的工作。------------AA.TRUEB.FALSE(判斷)11.華為的AI全場景包括公有云、私有云、各種邊緣計算、物聯(lián)網(wǎng)行業(yè)終端以及消費類終端等端、邊、云的部署環(huán)境。---------------------------------AA.TRUEB.FALSE(單選)12.人工智能處在感知智能階段的表現(xiàn)是什么?---------------------------CA.機器開始像人類一樣能理解、思考與決策B.機器開始像人類一樣會計算,傳遞信息C.機器開始看懂和聽懂,做出判斷,采取一些簡單行動(判斷)13.聯(lián)邦學習在保證數(shù)據(jù)隱私安全的前提下,利用不同數(shù)據(jù)源合作訓練模型,進步突破數(shù)據(jù)的瓶頸。------------------------------------------------------------AA.TRUEB.FALSE(單選

)14.符號主義的落腳點主要體現(xiàn)在哪里? --------------------------------BA.落腳點在神經(jīng)元網(wǎng)絡與深度學習。B.落腳點在推理,符號推理與機器推理。C.落腳點在感知和行動。D.落腳點在行為控制、自適應與進化計算。(判斷

)15.現(xiàn)階段的人工智能仍處于弱人工智能階段。A.TRUEB.FALSE

---------------------------A(多選

)16.下面哪些屬于AI的應用領(lǐng)域A.智慧教育B.智慧城市C.智慧家居D.智慧醫(yī)療

?-------------------------------ABCD(判斷)17.人工智能是研究、開發(fā)用于模擬、延伸和擴展人的智能的理論、方法及應用系統(tǒng)的一門新的技術(shù)科學。---------------------------------------------AA.TRUEB.FALSE(單選)18、神經(jīng)網(wǎng)絡研究屬于下列哪個學派?------------------------------------------------------------BA.符號主義B.連接主義C.行為主義D.以上都不是(多選)19、人工智能現(xiàn)在的技術(shù)應用方向主要有?----------------------------------------------------------ACDA.自然語言處理B.控制系統(tǒng)C.計算機視覺D.語音識別(判斷)20、華為的AI全場景包括公有云、私有云、各種邊緣計算、物聯(lián)網(wǎng)行業(yè)終端以及消費類終端等端、邊、云的部署環(huán)境。------------------------------------------------------------AA.TRUEB.FALSE二、機器學習概覽(單選)1.特征是描述樣本的特性的維度,關(guān)于其在傳統(tǒng)機器學習和深度學習的可解釋性,以下說法正確的是:----------------------------------------------AA.特征在傳統(tǒng)機器學習可解釋性強,而在深度學習可解釋性弱B.特征在傳統(tǒng)機器學習可解釋性弱,而在深度學習可解釋性強C.特征在傳統(tǒng)機器學習和深度學習可解釋性均弱D.特征在傳統(tǒng)機器學習和深度學習可解釋性均強(判斷)2.由機器學習算法構(gòu)成的模型,在理論層面上,它并不能表征真正的數(shù)據(jù)分布函數(shù),只是逼近它而已。A.TRUEB.FALSE

------------------------------------------------A(單選)3.機器學習算法中,以下不屬于集成學習策略的是

?

---------------------DA.BoostingB.StackingC.BaggingD.Marking(判斷)4.邏輯回歸的損失函數(shù)是交叉熵損失函數(shù)。------------------------------AA.TRUEB.FALSE(判斷)5.邏輯回歸當中也可以加入正則項用于避免過擬合。----------------------AA.TRUEB.FALSE(多選)6.線性回歸在3維以上的維度中擬合面是?-----------------------------CA.曲面B.平面C.超平面D.超曲面(判斷)7.K折交叉驗證是指將測試數(shù)據(jù)集劃分成K個子數(shù)據(jù)集。--------------------BA.TRUEB.FALSE(判斷)8.網(wǎng)格搜索是一種參數(shù)調(diào)節(jié)的方法。----------------------------------BA.TRUEB.FALSE(單選)9.以下哪個關(guān)于監(jiān)督式學習的說法是正確的?----------------------------AA.決策樹是一種監(jiān)督式學習B.監(jiān)督式學習不可以使用交叉驗證進行訓練C.監(jiān)督式學習是一種基于規(guī)則的算法D.監(jiān)督式學習不需要標簽就可以訓練(多選)10.處理實際問題時,以下什么情況下該使用機器學習?----------------------------------------------------------ACDA.數(shù)據(jù)分布本身隨時間變化,需要程序不停的重新適應,比如預測商品銷售的趨勢B.規(guī)則復雜程度低,且問題的規(guī)模較小的問題C.任務的規(guī)則會隨時間改變,比如生產(chǎn)線上的瑕疵檢測D.規(guī)則十分復雜或者無法描述,比如人臉識別和語音識別(多選)11.正則化是傳統(tǒng)機器學習中重要且有效的減少泛化誤差的技術(shù),以下技術(shù)屬于正則化技術(shù)的是: ------------------------------------------------ABCA.L1正則化B.L2正則化C.DropoutD.動量優(yōu)化器(多選)12.以下關(guān)于機器學習算法與傳統(tǒng)基于規(guī)則方法的區(qū)別中正確的是?--------ABCA.傳統(tǒng)的基于規(guī)則的方法,其中的規(guī)律可以人工顯性的明確出來B.傳統(tǒng)基于規(guī)則的方法使用顯性編程來解決問題C.機器學習中模型的映射關(guān)系是自動學習的D.機器學習所中模型的映射關(guān)系必須是隱性的(單選)13.Bagging集成學習中,每個基學習器之間的關(guān)系是?--------------------BA.相加關(guān)系B.相關(guān)關(guān)系C.后面的模型必須建立在前面的模型之上D.相互獨立(單選)14.數(shù)據(jù)在完成特征工程的操作后,在構(gòu)建模型的過程中,以下哪個選項不屬于決策樹構(gòu)建過程當中的步驟?-----------------------------------------------------------CA.剪枝B.特征選取C.數(shù)據(jù)清理D.決策樹生成(多選)15.SVM中常用的核函數(shù)包括哪些?---------------------------------ABCDA.高斯核函數(shù)B.多項式核函數(shù)C.Sigmiod核函數(shù)D.線性核函數(shù)(單選)16.梯度下降算法中,損失函數(shù)曲面上軌跡最混亂的算法是以下哪種算法?-----AA.SGDB.BGDC.MGDD.MBGD(判斷)17.二分類過程中,我們可將任意類別設(shè)為正例。-------------------------AA.TRUEB.FALSE(判斷)18.我們描述住房的時候,常用住宅面積,戶型,裝修類型等屬性,如果使用樸素貝葉斯作為模型的話,則我們假設(shè)屬性之間不存在關(guān)系。A.TRUEB.FALSE

------------------A(判斷)19.損失函數(shù)與模型函數(shù)是一回事。A.TRUE

------------------------------------BB.FALSE(單選)20.“從有標簽的歷史數(shù)據(jù)中來預測下季度的商鋪營收會在20-30萬還是30-40萬”,這是一個什么問題?--------------------------------------------CA.回歸問題B.規(guī)則問題C.分類問題D.聚類問題(單選)21.GBDT算法相比于隨機森林算法,以下哪種表述是錯誤的?------------------------------------------------------------CA.GBDT算法比隨機森林容易欠擬合B.隨機森林是并行計算的,而GBDT不能C.GBDT算法比隨機森林容易過擬合D.GBDT與隨機森林都是建立在CART樹的基礎(chǔ)之上的(單選)22.機器學習的算法中,以下哪個不是無監(jiān)督學習?-----------------------BA.GMMB.XgboostC.聚類D.關(guān)聯(lián)規(guī)則(判斷)23.訓練誤差會隨著模型復雜度的上升不斷減小。-----------------------------------------------------------AA.TRUEB.FALSE(單選)24.如果一個模型在測試集上偏差很大,方差很小,則說明該模型?-----------------------------------------------------------DA.過擬合B.可能過擬合可能欠擬合C.剛好擬合D.欠擬合(多選)25.有大量銷售數(shù)據(jù),但沒有標簽的情況下,企業(yè)想甄別出VIP客戶,以下模型中合適的有?----------------------------------------------------CDA.邏輯回歸B.SVMC.K-MeansD.層次聚類(單選)26.機器學習中,模型需要輸入什么來訓練自身,預測未知?----------------DA.人工程序B.神經(jīng)網(wǎng)絡C.訓練算法D.歷史數(shù)據(jù)(判斷)27.多項式回歸當中,模型的公式中存在平方項,因此其不是線性的。-----------BA.TRUEB.FALSE(多選)28.常見的臟數(shù)據(jù)的類型有哪些?----------------------------------ABCDA.格式錯誤的值B.重復值C.邏輯錯誤的值D.缺失值(單選)29.批量梯度下降,小批量梯度下降,隨機梯度下降最重要的區(qū)別在哪里?------DA.梯度大小B.梯度方向C.學習率D.使用樣本數(shù)(單選)30.以下屬于回歸算法的評價指標是?----------------------------------CA.召回率B.混淆矩陣C.均方誤差D.準確率(單選)31.以下關(guān)于機器學習描述正確的是?---------------------------------AA.深度學習是機器學習的一個分支B.深度學習與機器學習是互相包含的關(guān)系C.深度學習與機器學習同屬于人工智能但相互之間沒有關(guān)系D.以上都不對(多選)32.以下關(guān)于KNN算法當中k值描述正確的是?---------------------------BCA.K值越大,模型越容易過擬合B.K值越大,分類的分割面越平滑C.K值是超參數(shù)D.可以將k值設(shè)為0(判斷)33.多項式回歸當中,模型的公式中存在平方項,因此其不是線性的。------------------------------------------------------------BA.TRUEB.FALSE(判斷)34.線性回歸的損失函數(shù)中加入L1正則項,此時該回歸叫做Lasso回歸。-------------------------------------------------------------AA.TRUEB.FALSE(單選)35.回歸算法預測的標簽是A.自變型B.離散型C.應變型D.連續(xù)型

?-------------------------------------------D(單選)36.全局梯度下降算法、隨機梯度下降算法和批量梯度下降算法均屬于梯度下降算法,以下關(guān)于其有優(yōu)缺點說法錯誤的是:-------------------------------------------------------------CA.全局梯度算法可以找到損失函數(shù)的最小值B.批量梯度算法可以解決局部最小值問題C.隨機梯度算法可以找到損失函數(shù)的最小值D.全局梯度算法收斂過程比較耗時(多選)37.在隨機森林中,最終的集成模型是通過什么策略決定模型結(jié)果的?------------------------------------------------------------BCA.累加制B.求平均數(shù)C.投票制D.累乘制(判斷)38.測試誤差會隨著模型復雜度的上升不斷誠小。-----------------------------------------------------------BA.TRUEB.FALSE(多選)39.常見的聚類算法有哪些?---------------------------------------ABCDA.密度聚類B.層次聚類C.譜聚類D.Kmeans(單選)40.有監(jiān)督學習中,“近朱者赤近墨者黑”是用來形容下列哪個模型?--------------------------------------------------------------CA.K-MeansB.SVMC.KNND.神經(jīng)網(wǎng)絡(判斷)41.樸素貝葉斯算法不需要樣本特征之間的獨立同分布。-------------------BA.TRUEB.FALSE三、深度學習概覽(多選)1.在卷積神經(jīng)網(wǎng)絡中,不同層具有不同的功能,可以起到降維作用的是以下哪一層?-------------------------------------------------------------------BCDA.輸入層B.全連接層C.卷積層D.池化層(多選)2.以下哪些激活函數(shù)容易產(chǎn)生梯度消失問題?-------------------------CDA.ReLUB.SoftplusC.TanhD.Sigmoid(單選)3.以下關(guān)于標準RNN模型,說法正確的是?-----------------------------DA.不存在一對一的模型結(jié)構(gòu)B.反向傳播時不考慮時間方向C.不存在多對多的模型結(jié)構(gòu)D.會出現(xiàn)長時間傳輸記憶的信息衰減的問題(單選)4.我們在訓練神經(jīng)網(wǎng)絡過程中,使用梯度下降法不斷更新哪種數(shù)值,進而使得損失函數(shù)最小化?---------------------------------------------------DA.樣本數(shù)目B.特征值C.超參數(shù)D.參數(shù)(單選)5.前饋神經(jīng)網(wǎng)絡是一種簡單的神經(jīng)網(wǎng)絡,各神經(jīng)元分層排列,是目前應用最廣泛,發(fā)展最迅速的人工神經(jīng)網(wǎng)絡之一。以下關(guān)于前饋神經(jīng)網(wǎng)絡說法正確的是:--------------------------------------------------------------DA.具備計算能力的神經(jīng)元與上下兩層相連B.其輸入節(jié)點具備計算能力C.同一層神經(jīng)元相互連接D.層間信息只沿-個方向傳遞(單選)6.在神經(jīng)網(wǎng)絡中,我們是通過以下哪個方法在訓練網(wǎng)絡的時候更新參數(shù),從而最小化損失函數(shù)的?---------------------------------------------------DA.正向傳播算法B.池化計算C.卷積計算D.反向傳播算法(單選)7.優(yōu)化器是訓練神經(jīng)網(wǎng)絡的重要組成部分,使用優(yōu)化器的目的不包含以下哪項:----------------------------------------------------------------------CA.加快算法收斂速度B.減少手工參數(shù)的設(shè)置難度C.避過過擬合問題D.避過局部極值(單選

)8.感知器在空間中可以展現(xiàn)為A.線B.平面C.超平面D.點

?---------------------------------------C(單選)9.損失函數(shù)反映了神經(jīng)網(wǎng)絡的目標輸出和實際輸出的誤差,在深度學習中常用的損失函數(shù)是:-----------------------------------------------------BA.指數(shù)損失函數(shù)B.均方損失函數(shù)C.對數(shù)損失函數(shù)D.Hinge損失函數(shù)(單選)10.深度學習中神經(jīng)網(wǎng)絡類型很多,以下神經(jīng)網(wǎng)絡信息是單向傳播的是:---------BA.LSTMB.卷積神經(jīng)網(wǎng)絡C.循環(huán)神經(jīng)網(wǎng)絡D.GRU(單選)11.在深度學習神經(jīng)網(wǎng)絡中,感知器是最簡單的神經(jīng)網(wǎng)絡,關(guān)于其結(jié)構(gòu)說法正確的是:----------------------------------------------------------------------BA.其隱含層只有兩層B.其隱含層只有一層C.其網(wǎng)絡中使用的是Sigmoid激活函數(shù)D.其網(wǎng)絡中使用的是Relu激活函數(shù)(多選)12.生成對抗網(wǎng)絡目前應用非常廣泛,以下場景中可以使用此網(wǎng)絡的是?-------------------------------------------------------------------ABCDA.數(shù)據(jù)增強B.語義分割C.信息檢索D.圖像生成(單選)13.循環(huán)神經(jīng)網(wǎng)絡不同于卷積神經(jīng)網(wǎng)絡,它比較擅長解決以下哪些問題?-----------------------------------------------------------AA.序列相關(guān)問題B.圖像分類C.圖像檢測D.推薦問題(多選)14.在神經(jīng)網(wǎng)絡中常有權(quán)重共享現(xiàn)象,以下哪些神經(jīng)網(wǎng)絡會發(fā)生權(quán)重共享?-----------------------------------------------------------BDA.感知器B.卷積神經(jīng)網(wǎng)絡C.全連接神經(jīng)網(wǎng)絡D.循環(huán)神經(jīng)網(wǎng)絡(多選)15.在深度學習任務中,遇到數(shù)據(jù)不平衡問題時,我們可以用以下哪些方法進行解訣?-----------------------------------------------------------BCDA.批量刪除B.隨機過采樣C.合成采樣D.隨機欠采樣(單選)16.關(guān)于反向傳播,以下說法錯誤的是?---------------------------------AA.反向傳播只能在前饋神經(jīng)網(wǎng)絡中運用B.反向傳播可以結(jié)合梯度下降算法更新網(wǎng)絡權(quán)重C.反向傳播會經(jīng)過激活函數(shù)D.反向傳播指的是誤差通過網(wǎng)絡反向傳播(多選)17.深度學習中常用的損失函數(shù)有?------------------------------------BCA.L1損失函數(shù)B.均方誤差損失函數(shù)C.交叉熵誤差損失函數(shù)D.自下降損失函數(shù)(單選)18.以下不屬于對抗生成網(wǎng)絡的應用是?--------------------------------CA.文字生成B.圖像生成C.圖像識別D.數(shù)據(jù)增強(判斷)19.卷積神經(jīng)網(wǎng)絡中同一卷積層的所有卷積核是權(quán)重共享的。---------------ATRUEFALSE(多選)20.已知全連接神經(jīng)網(wǎng)絡的某一層的參數(shù)總量為330,則上一層和本層的神經(jīng)元數(shù)量可能為?----------------------------------------------------BCA.32和10B.10和33C.33和10D.9和33(單選)21.神將網(wǎng)絡訓練時,常會遇到很多問題,對于梯度消失問題,我們可以通過選擇使用以下哪種函數(shù)減輕該問題? ---------------------------------------AA.Relu函數(shù)B.Sigmoid函數(shù)C.tanh函數(shù)D.Softsign函數(shù)(單選)22.深度學習神經(jīng)網(wǎng)絡的隱藏層數(shù)對網(wǎng)絡的性能有一定的影響,以下關(guān)于其影響說法正確的是:------------------------------------------------------BA.隱藏層數(shù)適當減少,神經(jīng)網(wǎng)絡的分辨能力不變B.隱藏層數(shù)適當增加,神經(jīng)網(wǎng)絡的分辨能力越強C.隱藏層數(shù)適當減少,神經(jīng)網(wǎng)絡的分辨能力越強D.隱藏層數(shù)適當增加,神經(jīng)網(wǎng)絡的分辨能力越弱(多選)23.在深度學習模型訓練的過程中,常見的優(yōu)化器有哪些?---------------------------------------------------------ABCDA.AdamB.AdagradC.SGDD.Momentum(單選)24.在經(jīng)典的卷積神經(jīng)網(wǎng)絡模型中,Softmax函數(shù)是跟在什么隱藏層后面的?------------------------------------------------------------CA.卷積層B.池化層C.全連接層D.以上都可以(單選)25.關(guān)于循環(huán)神經(jīng)網(wǎng)絡以下說法錯誤的是?------------------------------BA.循環(huán)神經(jīng)網(wǎng)絡可以根據(jù)時間軸展開B.LSTM無法解決梯度消失的問題C.LSTM也是一種循環(huán)神經(jīng)網(wǎng)絡D.循環(huán)神經(jīng)網(wǎng)絡可以簡寫為RNN(單選)26.對于圖像分類問題,以下哪個神經(jīng)網(wǎng)絡更適合解決這個問題?------------CA.感知器B.循環(huán)神經(jīng)網(wǎng)絡C.卷積神經(jīng)網(wǎng)絡D.全連接神經(jīng)網(wǎng)絡(單選)27.激活函數(shù)對于神經(jīng)網(wǎng)絡模型學習、理解非常復雜的問題有著重要的作用,以下關(guān)于激活函數(shù)說法正確的是------------------------------------------------------------BA.激活函數(shù)都是線性函數(shù)B.激活函數(shù)都是非線性函數(shù)C.激活函數(shù)部分是非線性函數(shù),部分是線性函數(shù)D.激活函數(shù)大多數(shù)是非線性函數(shù),少數(shù)是線性函數(shù)(單選)28.生成對抗網(wǎng)絡像是一個博弈系統(tǒng),生成器生成偽造的樣本,判別器進行判斷是真是假,我們理想的結(jié)果是?--------------------------------------CA.生成器產(chǎn)生樣本的大致相同B.判別器高效的分辨生成器產(chǎn)生樣本的真假C.判別器無法分辨生成器產(chǎn)生樣本的真假D.生成器產(chǎn)生樣本的不盡相同(單選)29.深度學習神經(jīng)網(wǎng)絡訓練時需要大量的矩陣計算,一般我們需要配用硬件讓計算機具備并行計算的能力,以下硬件設(shè)備可提供并行計算能力的是:-------------------------------------------------------------CA.主板B.內(nèi)存條C.GPUD.CPU(多選)30.深度學習中以下哪些步驟是由模型自動完成的?--------------------------------------------------------BDA.模型訓練B.特征選擇C.分析定位任務D.特征提取(多選)31.關(guān)于卷積神經(jīng)網(wǎng)絡池化層以下描述正確的是?--------------------------------------------------------ABCDA.池化操作采用掃描窗口實現(xiàn)B.池化層可以起到降維的作用C.常用的池化方法有最大池化和平均池化D.經(jīng)過池化的特征圖像變小了(單選)32.在深度學習網(wǎng)絡中,反向傳播算法用于尋求最優(yōu)參數(shù),在反向傳播算法中使用的什么法則進行逐層求導的?-----------------------------------------------------------AA.鏈式法則B.累加法則C.對等法則D.歸一法則(單選)33.L1和L2正則化是傳統(tǒng)機器學習常用來減少泛化誤差的方法,以下關(guān)于兩者的說法正確的是:-----------------------------------------------------AA.L1正則化可以做特征選擇B.L1和L2正則化均可做特征選擇C.L2正則化可以做特征選擇D.L1和L2正則化均不可做特征選擇(單選)34.傳統(tǒng)機器學習和深度學習是人工智能核心技術(shù),在工程流程上略有差別,以下步驟在深度學習中不需要做的是A.模型評估B.特征工程C.數(shù)據(jù)清洗D.模型構(gòu)建

-----------------------------------B(多選)35.卷積神經(jīng)網(wǎng)絡中的池化層可以減小下層輸入的尺寸。常見的池化有:------------------------------------------------------------CDA.最小地化層B.乘積池化層C.最大池化層D.平均池化層(單選)36.深度學習中如果神經(jīng)網(wǎng)絡的層數(shù)較多比較容易出現(xiàn)梯度消失問題。嚴格意義上來講是在以下哪個環(huán)節(jié)出現(xiàn)樣度消失間題?--------------------------------------------------------------AA.反向傳播更新參數(shù)B.正向傳播更新夢故C.反向傳播計算結(jié)果D.正向傳播計算結(jié)果(判斷)37.循環(huán)神經(jīng)網(wǎng)絡可以捕捉序列化數(shù)據(jù)中的動態(tài)信息。-------------------------------------------------------------AA.TRUEB.FALSE(單選)38.在對抗生成網(wǎng)絡當中,帶有標簽的數(shù)據(jù)應該被放在哪里?------------------------------------------------------------BA.作為生成模型的輸出值B.作為判別模型的輸入值C.作為判別模型的輸出值D.作為生成模型的輸入值(多選)39.如果深度學習神經(jīng)網(wǎng)絡出現(xiàn)了梯度消失或梯度爆炸問題我們常用的解決方法為.----------------------------------------------------------ACDA.梯度剪切B.隨機欠采樣C.使用Relu激活函數(shù)D.正則化(單選)40.輸入32*32的圖像,用大小5*5的卷積核做步長為1的卷積計算,輸出圖像的大小是------------------------------------------------------BA.28*23B.28*28C.29*29D.23*23(單選)41.神將網(wǎng)絡訓練時,常會遇到很多問題,對于梯度消失問題,我們可以通過選擇使用以下哪種函數(shù)減輕該問題?-------------------------------------------------------------BA.Softsign函數(shù)B.Relu函數(shù)C.tanh函數(shù)D.Sigmoid函數(shù)(多選)42.以下哪些是屬于深度學習算法的激活函數(shù)?----------------------------------------------------------ABCA.SigmoidB.ReLUC.TanhD.Sin(單選)43.在訓練神經(jīng)網(wǎng)絡過程中我們目的是讓損失函數(shù)不斷減少,我們常用以下哪種方法最小化損失函數(shù)?------------------------------------------------------------AA.梯度下降B.DropoutC.交叉驗證D.正則化(單選)44.人下關(guān)于神經(jīng)網(wǎng)絡的說法錯誤的是?----------------------------------AA.隨著神經(jīng)網(wǎng)絡隱藏層數(shù)的增加,模型的分類能力逐步減弱B.單層感知器的局限在于不能解決異或問題C.前饋神經(jīng)網(wǎng)絡可用有向無環(huán)圖表示D.前饋神經(jīng)網(wǎng)絡同一層的神經(jīng)元之間不存在聯(lián)系四、業(yè)界主流開發(fā)框架(單選)1.TensorFlow2.0中可用于張量合并的方法有?-------------------------BA.joinB.concatC.splitD.unstack(判斷)2.TensorFlow2.0中的Keras接口的三個主要優(yōu)勢是方便用戶使用,模塊化和可組合,易于擴展。--------------------------------------------------AA.TRUEB.FALSE(判斷)3.tf.keras.datasets可以查看keras中內(nèi)置的數(shù)據(jù)集。------------------AA.TRUEB.FALSE(多選)4.截止2019年底,TensorFlow發(fā)布過的版本有?----------------------ACDA.1B.3C.2D.0.1(判斷)5.TensorFlow是一個用于機器學習和深度學習的端到端開源平臺。----------AA.TRUEB.FALSE(判斷)6.TensorFlow是當下最流行的深度學習框架之一。-----------------------AA.TRUEB.FALSE(多選)7.當編譯模型時用了以下代碼:pile(optimizer='Adam,loss='categorical.crossentropy',metrics=[tf.keras.metrics.accuracy]),在使用evaluate方法評估模型時,會輸出以下哪些指標?-------------------------------------------------------------ACA.accuracyB.categorical_1ossC.lossD.categoricalaccuracy(單選)8.TensorFlow2.0的keras.metrics的內(nèi)置指標不包括的方法有?----------CA.AccuracyB.RecallC.SumD.Mean(判斷)9.TensorFlow2.0中取消了圖和會話的機制。---------------------------BA.TRUEB.FALSE(單選)10.當使用TensorFlow2.0的keras接口搭建神經(jīng)網(wǎng)絡時,需要進行網(wǎng)絡的編譯工作,需要用到以下哪種方法A.compileB.writeC.joinD.fit

?---------------------------------------A(單選)11.下列選項中不是

TensorFlow2.0

支持的運算符是

----------------------CA.powB.@C.^D.//(單選)12.TensorFlow使用的數(shù)據(jù)類型是A.ScalarB.VectorC.TensorD.Matrix

?------------------------------------C(判斷)13.TensorFlow2.0支持GPU加速主要表現(xiàn)在對矩陣的加減乘除有一個并行運算的加速。---------------------------------------------------------AA.TRUEB.FALSE(多選)14.以下屬于TensorFlow2.0的特性的是?----------------------------ACDA.引入Keras接口B.支持靜態(tài)圖機制C.支持更多平臺和更多語言D.繼續(xù)兼容Tensorflowl.x的相關(guān)模塊(判斷)15.PyTorch現(xiàn)有版本均支持Python2和Python3?----------------------BA.TRUEB.FALSE(判斷)16.TensorFlow2.0不支持tensor在GPU和CPU之間相互轉(zhuǎn)移。------------BA.TRUEB.FALSE(單選)17.以下不屬于TensorFlow2.0的特點是?-----------------------------AA.多核CPU加速B.分布式C.多語言D.多平臺(單選)18.TensorFlow2.0中查看張量維度的方法是? -------------------------CA.dimensB.dtypeC.ndimD.device(單選)19.代碼model.fit(mnist.train.inmage,mnist.train.labels.epochs=5)中的epochs參數(shù)代表? --------------------------------------------AA.全體訓練集將被訓練5次B.全體測試集將被測試5次C.全體訓練集將被分為6份D.全體訓練集將被分為5份(多選

)20.下列選項中屬于keras下estimator封裝的方法有A.評估B.訓練C.預測D.輸出模型

?-----------------ABC(單選

)21.下列屬性中TensorFlow2.0不支持創(chuàng)建

tensor

的方法是

?---------------CA.zerosB.fillC.createD.constant(單選

)22.PyTorch不具備以下哪種功能A.內(nèi)嵌kerasB.支持動態(tài)圖C.自動求導D.GPU加速

?----------------------------------A(多選

)23.TensorFlowA.AdamB.SGDC.AdaboostD.Adadelta

中keras模塊的內(nèi)置優(yōu)化器有?----------------------ABCD(多選

)24.TensorF1ow2.0中可以用來查看是否是tensor的方法有?-----------------------------------------------------------BCA.dtypeB.isinstanceC.is_tensorD.device(單選)25.TensorF1ow是下列哪個公司首先開發(fā)的?------------------------------------------------------------DA.甲骨文B.FacebookC.英偉達D.Google(單選)26.Pytorch是有哪一個公司首先推出的?------------------------------------------------------------CA.百度B.GoogleC.FacebookD.Huawei(單選)27.TensorFlow2.0的keras.preprocessing的作用是?-----------------------------------------------------------AA.keras數(shù)據(jù)處理工具B.keras內(nèi)置優(yōu)化器C.keras模型部署工具D.Keras生成模型工具(判斷)28.在TensorFlow2.0中tf.contrib方法可以繼續(xù)使用。-----------------------------------------------------------BA.TRUEB.FALSE(單選)29.下列選項中不支持TensorFLow2.0進行維度變換的屬性是。-----------------------------------------------------------CA.squeezeB.reshapeC.gatherD.transpose五、華為AI開發(fā)框架MindSpore(判斷)1.Tensor是MindSpore中數(shù)據(jù)的存儲組件。A.TRUEB.FALSE

----------------------------A(單選)2.以下哪個不是MindSpore常用的A.signal

Operation?--------------------------AB.mathD.nnC.array(單選)3.On-Device執(zhí)行,即整圖卸載執(zhí)行,充分發(fā)揮異騰芯片的算力,可以大大降低交互的開銷,從而提升加速器占用率,關(guān)于0n-Device執(zhí)行以下描述錯誤的是?---------------------------------------------------------------CA.MindSpore通過梯度數(shù)據(jù)驅(qū)動的自適應圖優(yōu)化,實現(xiàn)去中心化的自主A11Reduce,梯度聚合步調(diào)一致,計算與通信充分流水B.超強芯片算力下模型執(zhí)行的挑戰(zhàn):內(nèi)存墻問題、交互開銷大、數(shù)據(jù)供給難。部分在Host執(zhí)行,部分在Device執(zhí)行,交互開銷甚至遠大于執(zhí)行開銷,導致加速器占用率低C.MindSpore通過面向芯片的深度圖優(yōu)化技術(shù),同步等待少,最大化“數(shù)據(jù)計算通信”的并行度,訓練性能相比Host側(cè)圖調(diào)度方式持平D.超強芯片算力下分布式梯度聚合的挑戰(zhàn):ReslNet50單迭代20ms時間時會產(chǎn)生中心控制的同步開銷和頻繁同步的通信開銷。傳統(tǒng)方法需要3次同步完成A11Reduce,數(shù)據(jù)驅(qū)動方法自主A11Reduce,無控制開銷(單選)4.以下哪個不是MindSpore核心架構(gòu)的特點?---------------------------------------------------------------CA.自動微分B.自動調(diào)優(yōu)C.自動編碼D.自動并行(多選)5.MSIR是一種簡潔高效靈活的基于圖的函數(shù)式IR,可以表示的函數(shù)式語義類型有?--------------------------------------------------------ABDA.自由變量B.高階函數(shù)C.中斷D.遞歸(單選)6.面對超大規(guī)模模型需要實現(xiàn)高效分布式訓練的挑戰(zhàn),MindSpore的處理方式為?---------------------------------------------------------------AA.自動并行B.串行C.手動并行(單選)7.Ce11提供了定義執(zhí)行計算的基本模塊,Ce11的對象可以直接執(zhí)行,以下說法有誤的是?-----------------------------------------------------ACDA.__init__,初始化參數(shù)(Parameter),子模塊(Ce11),算子(Primitive)等組件,進行初始化的校驗B.Construct,定義執(zhí)行的過程。圖模式時,會被編譯成圖來執(zhí)行,沒有語法限制C.還有一些optim常用優(yōu)化器、wrap常用網(wǎng)絡包裝函數(shù)等預定義Cel1D.bprop(可選),自定義模塊的反向(單選)8.面對行業(yè)研究與全場景AI應用之間的巨大鴻溝,MindSpore跨越應用鴻溝助力普惠AI的技術(shù)創(chuàng)新不包括以下哪項?--------------------------------------------------------------BA.新協(xié)作方式B.新編程語言C.新編程范式D.新執(zhí)行模式(單選)9.在應用開發(fā)時,以下哪種操作不屬于典型網(wǎng)絡定義?---------------------------------------------------------------CA.網(wǎng)絡定義B.網(wǎng)絡執(zhí)行C.知識蒸餾D.權(quán)值初始化六、Atlas人工智能計算平臺(多選)1.使用裝有Atlas300(3000)加速卡的服務器編譯運行程序時需要檢查哪些條件?-------------------------------------------------------------------ACDA.完成Atlas驅(qū)動安裝B.已安裝CUDA軟件包C.已安裝Cmake編譯工具D.完成環(huán)境配置(多選)2.從技術(shù)架構(gòu)來看AI芯片的分類包括?-----------------------------ABCDA.FPGAB.CPUC.GPUD.ASIC(判斷)3.Root用戶無法在裝有Atlas300(3000)加速卡的服務器上安裝DDK(DeviceDevelopmentKit),只能使用普通用戶進行安裝。------------------------AA.TRUEB.FALSE(單選)4.Atlas200DK所基于的異騰310芯片主要的應用是?--------------------AA.模型推理B.構(gòu)建模型C.訓練模型(多選)5.達芬奇架構(gòu)計算單元主要包含的計算資源有?------------------------ABDA.向量計算單元B.標量計算單元C.張量計算單元D.矩陣計算單元(判斷)6.AI芯片也被稱為AI加速器,是專門用于處理人工智能應用中的大量計算任務的功能模塊。-----------------------------------------------------AA.TRUEB.FALSE(單選)7.昪騰AI處理器的邏輯架構(gòu)不包括以下哪個選項?----------------------BA.DVPPB.GPUC.AI計算引擎D.芯片系統(tǒng)控制CPU(單選)8.查看Atlas300(3000)加速卡驅(qū)動是否安裝成功應該使用哪條命令?-------AA.npu-siminfoB.npuinfoC.atlas-driverinfoD.atlasinfo(判斷)9.在裝有Atlas300(3000)加速卡的服務器中安裝DDK(DeviceDevelopmentKit)依賴環(huán)境時只需要安裝Python3。------------------------------------AA.TRUEB.FALSE(多選)10.AI芯片從業(yè)務應用上來分,可以分為?-----------------------------ADA.訓練B.GPUC.模型構(gòu)建D.推理(單選)11.哪條命令可以檢查Atlas300(3000)加速卡是否在位?----------------BA.1spci|grep'npu'B.1spci|grep'd100'C.1spcigrep'atlas'D.atlasinfo(判斷)12.GPU擅長計算密集和易于并行的程序。------------------------------AA.TRUEB.FALSE(多選)13.Atlas800AI服務器有多個型號,其中基于鯤鵬處理器平臺的是?-------BA.Atlas800型號:9000B.Atlas800型號:3000C.Atlas800型號:3010(單選)14.下列選項中昇騰310和昇騰910屬性相同的是?-----------------------BA.最大功率B.架構(gòu)C.整數(shù)精度D.7nm制程(判斷)15.華為昇騰AI芯片是NPU(神經(jīng)網(wǎng)絡處理器)的典型代表之一。------------AA.TRUEB.FALSE(單選)16.Atlas加速AI推理使用的是什么處理器?-------------------------------------------------------------BA.異騰910處理器B.異騰310處理器C.GPUD.FPGA(多選)17.以下哪些庫是在裝有Atlas300(3000)加速卡的服務器中安裝DDK(DeviceDevelopmentKit)之前需要安裝的?---------------------------------------------------------ABCA.decoratorB.setuptoolsC.numpyD.tensorflow(判斷)18.CPU主要通過增加指令,增加核數(shù)等方式來提升AI性能。--------------------------------------------------------------AA.TRUEB.FALSE七、華為智能終端AI開放平臺(單選)1.HUAWEIHiAI平臺中的人臉檢測是屬于哪個模塊?-----------------------AA.HiAIEngineB.HiAIFrameworkC.HiAIFoundationD.HiAIService(判斷)2.HUAWEIHiAIEngine能夠輕松將多種AI能力與App集成。-------------AA.TRUEB.FALSE(判斷)3.HiAI移動計算平臺提供豐富的上層功能業(yè)務API,可在移動設(shè)備高效運行。----------------------------------------------------------------------AA.TRUEB.FALSE(多選)4.HUAWEIHiAI支持的機型有哪些? --------------------------------ABCA.P30B.Mate20C.榮耀V20D.iPhone10(單選)5.HUAWEIHiAI平臺支持與哪一個工具集成?-----------------------------CA.JupyterNotebookB.MyEclipseC.AndroidStudioD.Spider(單選)6.華為的芯片支持HUAWEIHiAI的哪一個模塊?-------------------------BA.HiAIEngineB.HiAIFoundationC.HiAIFrameworkD.HiAIService(多選)7.HUAWEIHiAI賦能APP哪些價值? -------------------------------ABCDA.安全B.穩(wěn)定C.實時D.隨時(多選)8.HiAI移動計算平臺有哪些優(yōu)點?---------------------------------ABCDA.快速上手的源碼B.多樣的工具鏈C.完善的文檔D.豐富的API(單選)9.以下哪一項是HUAWEIHiAIFoundation模塊的功能?--------------------------------------------------------------CA.App集成B.讓服務主動找到用戶C.快速轉(zhuǎn)化和遷移已有模型D.根據(jù)用戶所需,適時適地推送服務八、華為云企業(yè)智能應用平臺(多選)1.下列關(guān)于通用表格識別服務的說法正確的是?------------------------ABCDA.rows代表文字塊占用的行信息,編號從0開始,列表形式B.colums代表文字塊占用的列信息,編號從0開始,列表形式C.傳入的圖像數(shù)據(jù)需要經(jīng)過base64編碼D.words代表文字塊識別結(jié)果(判斷)2.圖像標簽服務返回的tag可以有多個。A.TRUEB.FALSE

-------------------------------A(單選)3.語音識別服務調(diào)用成功時,識別的結(jié)果保存在下面哪個字段中?-----------------------------------------------------------AA.resultB.contentC.dataD.text(單選)4.通用文字識別服務調(diào)用成功時,返回的文字識別結(jié)果保存在下列哪個字段中?-----------------------------------------------------------BA.textB.resultC.contentD.words(多選)5.華為云EI智能體根據(jù)行業(yè)和應用場景的不同也有很多種,目前可以實現(xiàn)的華為云EI智能體有?------------------------------------------------------------ABCDA.工業(yè)智能體B.交通智能體C.園區(qū)智能體D.汽車智能體(多選)6.人臉搜索服務調(diào)用成功時返回的結(jié)果中包含下列哪些項?-----------------------------------------------------------ABCA.搜索出的人臉相似度B.搜索出的人臉idC.搜索出的人臉位置D.搜索出的人臉序號(單選)7.ModelArts服務與()服務相結(jié)合可以輕松將模型部署到“端”?--------------------------------------------------------------DA.OBSB.OCRC.ECSD.HiLens(單選)8.以下哪個不是圖像識別服務的應用?-----------------------------DA.目標檢測B.智能相冊C.場景分析D.語音合成(多選)9.華為云ModelArts是面向AI開發(fā)的一戰(zhàn)式開發(fā)平臺,以下哪些功能在Mode1Arts上可以具備?---------------------------------------ABCDA.數(shù)據(jù)治理B.AI市場C.可視化工作流D.自動學習(多選)10.下列關(guān)于通用表格識別服務返回的type字段說法正確的是?----------------------------------------------------------BDA.type代表文字識別區(qū)域類型B.type為text時代表文本識別區(qū)域C.type代表表格類型D.type為table時代表表格識別區(qū)域(判斷)11.人臉比對服務調(diào)用時只傳入一張圖像也可以。-------------------------BA.TRUEB.FALSE(多選)12.華為云EI讓更多的企業(yè)邊界的使用AI和大數(shù)據(jù)服務,加速業(yè)務發(fā)展,造福社會。華為云EI服務可以在以下哪些方面服務企業(yè)?------------------------ABCDA.行業(yè)數(shù)據(jù)B.行業(yè)智慧C.算法D.算力(多選)13.以下哪些服務屬于華為EI服務家族?----------------------------ABCDA.對話機器人B.EI基礎(chǔ)服務C.自然語言處理D.EI大數(shù)據(jù)服務(多選)14.基因知識圖譜具備以下哪幾種能力?------------------------------ACDA.輔助病例診斷B.疾病預測及診斷C.基因檢測報告生成D.實體查詢(多選)15.下列關(guān)于護照識別服務的說法正確的是?--------------------------A

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論