人工智能深度學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷14)_第1頁
人工智能深度學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷14)_第2頁
人工智能深度學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷14)_第3頁
人工智能深度學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷14)_第4頁
人工智能深度學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷14)_第5頁
已閱讀5頁,還剩18頁未讀 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

試卷科目:人工智能深度學(xué)習(xí)技術(shù)練習(xí)人工智能深度學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷14)PAGE"pagenumber"pagenumber/SECTIONPAGES"numberofpages"numberofpages人工智能深度學(xué)習(xí)技術(shù)練習(xí)第1部分:單項選擇題,共47題,每題只有一個正確答案,多選或少選均不得分。[單選題]1.()年,幾個計算機科學(xué)家相聚在達特茅斯會議,提出了?人工智能?的概念。A)1955B)1957C)1956D)1954答案:C解析:1956年,幾個計算機科學(xué)家相聚在達特茅斯會議,提出了?人工智能?的概念[單選題]2.?()(FaceFeatureExtraction)?是將一張人臉圖像轉(zhuǎn)化為一串固定長度的數(shù)值的過程。這個數(shù)值串被稱為?人臉特征(FaceFeature)?,具有表征這個人臉特點的能力A)人臉提特征B)提特征C)特征D)特征擴展答案:A解析:[單選題]3.以下選項中不是Python數(shù)據(jù)分析的第三方庫的是()。A)requestsB)numpyC)scipyD)pandas答案:A解析:難易程度:易題型:[單選題]4.百度飛槳中訓(xùn)練過程流程的內(nèi)層循環(huán)順序是()。A)數(shù)據(jù)準備》前向計算》計算損失函數(shù)》執(zhí)行梯度反向傳播B)前向計算》數(shù)據(jù)準備》計算損失函數(shù)》執(zhí)行梯度反向傳播C)數(shù)據(jù)準備》前向計算》執(zhí)行梯度反向傳播》計算損失函數(shù)D)前向計算》計算損失函數(shù)》數(shù)據(jù)準備》執(zhí)行梯度反向傳播答案:A解析:難易程度:易題型:[單選題]5.方差的作用是()。A)數(shù)據(jù)離散程度的度量B)數(shù)據(jù)聚合程度的度量C)數(shù)據(jù)擬合程度的度量D)數(shù)據(jù)發(fā)散程度的度量答案:A解析:難易程度:易題型:[單選題]6.面部識別軟件還有其他幾個用途:()、取款身份驗證、計算機安全等A)消除投票欺詐B)身份證認證C)互聯(lián)網(wǎng)D)銀行答案:A解析:[單選題]7.已知:大腦是有很多個叫做神經(jīng)元的東西構(gòu)成,神經(jīng)網(wǎng)絡(luò)是對大腦的簡單的數(shù)學(xué)表達。每一個神經(jīng)元都有輸入、處理函數(shù)和輸出。神經(jīng)元組合起來形成了網(wǎng)絡(luò),可以擬合任何函數(shù)。為了得到最佳的神經(jīng)網(wǎng)絡(luò),我們用梯度下降方法不斷更新模型給定上述關(guān)于神經(jīng)網(wǎng)絡(luò)的描述,什么情況下神經(jīng)網(wǎng)絡(luò)模型被稱為深度學(xué)習(xí)模型?()A)加入更多層,是神經(jīng)網(wǎng)絡(luò)的深度增加B)有維度更高的數(shù)據(jù)。C)當這是一個圖形識別的問題時D)以上都不正確答案:A解析:[單選題]8.Sigmoid函數(shù)常被用作神經(jīng)網(wǎng)絡(luò)的閾值函數(shù),將變量映射到()之間。A)0,1B)0,-1C)10,0D)0,0.1答案:A解析:[單選題]9.深度學(xué)習(xí)中的?深度?是指A)計算機理解深度B)中間神經(jīng)元網(wǎng)絡(luò)的層次很多C)計算機的求解更加精確D)計算機對問題的處理更加靈活答案:B解析:[單選題]10.Relu()激活函數(shù)的作用是將大于0的數(shù)保持不變,小于()的數(shù)輸出為0A)-1B)0C)1D)x答案:B解析:[單選題]11.卷積層通過過濾器從高維數(shù)據(jù)中提取特征,增加了輸出的深度(特征數(shù)),那么,最大池化層的作用是()A)增加輸出維度(寬高)B)降低輸出維度(寬高)C)保持輸出維度(寬高)D)以上均不正確答案:B解析:[單選題]12.1950年代:FrankRosenblatt基于神經(jīng)網(wǎng)絡(luò)的概念,開發(fā)出(),由此掀起神經(jīng)網(wǎng)絡(luò)研究的第一次浪潮A)計算機B)感知機C)CPUD)GPU答案:B解析:[單選題]13.在構(gòu)建一個神經(jīng)網(wǎng)絡(luò)時,batchsize通常會選擇2的次方,比如256和512。這是為什么呢?A)當內(nèi)存使用最優(yōu)時這可以方便神經(jīng)網(wǎng)絡(luò)并行化B)當用偶數(shù)是梯度下降優(yōu)化效果最好C)這些原因都不對D)當不用偶數(shù)時,損失值會很奇怪答案:A解析:[單選題]14.Tensorflow.global_variables_initializer()的作用是什么?A)始化列表中的變量B)局部變量初始化C)初始化所有的變量(GraphKeys.VARIABLES)D)不清楚答案:C解析:[單選題]15.如果給出一串數(shù)據(jù)[[0,2],[-3,2],[0,0],[-1,3],[0,1],[-2,0]]與它最相似的分布是A)均勻分布B)高斯分布C)0-1分布D)指數(shù)分布答案:B解析:[單選題]16.飛槳框架的經(jīng)典應(yīng)用案例有()。A)國網(wǎng)山東B)商湯圖像C)平安醫(yī)療D)中科院遙感所答案:A解析:難易程度:易題型:[單選題]17.在keras中,evaluate函數(shù)按()計算在某些輸入數(shù)據(jù)上模型的誤差。A)batchB)dataC)labelD)訓(xùn)練數(shù)據(jù)答案:A解析:[單選題]18.tf.argmax使用的場景有A)矩陣運算B)計算預(yù)測類別C)維度變換D)元素排序答案:B解析:[單選題]19.查看GPU信息的函數(shù)是:A)tensor_gpu.is_cudaB)torch.cuda.device_count()C)tensor_gpu.deviceD)torch.cuda.is_available()答案:D解析:[單選題]20.與學(xué)習(xí)率不同,()不影響計算訓(xùn)練時間。批量大小受硬件內(nèi)存的限制,而學(xué)習(xí)率則不然。建議使用適合硬件內(nèi)存的較大批量大小,并使用更大的學(xué)習(xí)速率。A)批量大小B)學(xué)習(xí)率C)動量D)權(quán)重衰減答案:A解析:[單選題]21.下列哪一項在神經(jīng)網(wǎng)絡(luò)中引入了非線性?()A)隨機梯度下降B)修正線性單元(ReLU)C)卷積函數(shù)D)以上都不正確答案:B解析:[單選題]22.不屬于卷積內(nèi)部性質(zhì)的有A)步長B)卷積核C)0填充D)池化核答案:D解析:[單選題]23.進行獨熱處理的函數(shù)是A)scatter_B)onehotC)eyeD)diag答案:A解析:[單選題]24.Print(tf.__version__)是可能正確被的語句,則這條程序語句實現(xiàn)的作用是?A)查詢tensorflow版本B)查詢tensorflow年代C)查詢tensorflow位置D)測試tf模塊安裝是否正常答案:A解析:[單選題]25.pytorch執(zhí)行參數(shù)更新的函數(shù)是A)optimizer.zero_grad()B)zero.autoC)cost.backward()D)optimizer.step()答案:D解析:[單選題]26.異步數(shù)據(jù)讀取是指()。A)數(shù)據(jù)讀取與模型訓(xùn)練串行B)數(shù)據(jù)讀取和模型訓(xùn)練并行C)數(shù)據(jù)讀取和模型訓(xùn)練交互D)加快了數(shù)據(jù)讀取速度答案:B解析:難易程度:易題型:[單選題]27.梯度下降算法的正確步驟是什么?1計算預(yù)測值和真實值之間的誤差2重復(fù)迭代,直至得到網(wǎng)絡(luò)權(quán)重的最佳值3把輸入傳入網(wǎng)絡(luò),得到輸出值4用隨機值初始化權(quán)重和偏差5對每一個產(chǎn)生誤差的神經(jīng)元,調(diào)整相應(yīng)的(權(quán)重)值以減小誤差A(yù))3,2,1,5,4B)5,4,3,2,1C)4,3,1,5,2D)1,2,3,4,5答案:C解析:[單選題]28.神經(jīng)網(wǎng)絡(luò)需要激活函數(shù),其原因是可實現(xiàn)A)解決線性可分性B)非線性分類C)歸一化D)正則化答案:B解析:[單選題]29.X=tf.constant([[2.0,3.0],[1.0,0.0]])Withtf.Session()assess:print(sess.run(tf.contrib.layers.l2_regurizer(.5)(x)))該程序的輸出值為()A)3.0B)6.0C)7.0D)以上都不對答案:C解析:[單選題]30.深度學(xué)習(xí)的主要編程語言是()。A)CB)C++C)javaD)python答案:D解析:難易程度:易題型:[單選題]31.帶泄露的ReLU函數(shù)是指?A)Sigmoid函數(shù)B)tanh函數(shù)C)ReLUD)leakyReLU答案:D解析:[單選題]32.Tf.multiply(x,y,name=None),其中類型跟張量x相同的張量是A)yB)tfC)nameD)None答案:A解析:[單選題]33.下圖顯示了訓(xùn)練過的3層卷積神經(jīng)網(wǎng)絡(luò)準確度,與參數(shù)數(shù)量(特征核的數(shù)量)的關(guān)系。從圖中趨勢可見,如果增加神經(jīng)網(wǎng)絡(luò)的寬度,精確度會增加到一個特定閾值后,便開始降低。造成這一現(xiàn)象的可能原因是什么?CA)即使增加卷積核的數(shù)量,只有少部分的核會被用作預(yù)測B)增時,神經(jīng)網(wǎng)絡(luò)預(yù)測能力(Power)會降低C)當卷積核數(shù)量增加時,導(dǎo)致過擬合D)以上都不正確答案:C解析:[單選題]34.批量標準化層的api是A)DropoutB)BatchNormalizationC)DenseFeatureD)Flatten答案:B解析:[單選題]35.以下程序輸出結(jié)果是多少?ImporttensorflowastfA=tf.constant(1)B=tf.constant(1)C=tf.add(a,b)Print(c)Withtf.Session()assess:Print(sess.run(c))A)2B)[1,1]C)[2]D)[0,1]答案:A解析:[單選題]36.keras中負責(zé)損失處理的庫是A)layersB)lossC)optimisD)rnn答案:B解析:[單選題]37.被稱為LSTM低配的神經(jīng)單元是A)rnnB)cnnC)gruD)SimpleRNN答案:C解析:[單選題]38.三元運算符是以下哪個命令()。A)np.all()B)np.any()C)np.where()D)np.std答案:C解析:難易程度:易題型:[單選題]39.net=Network(13)x1=x[0]y1=y[0]z=net.forward(x1)print(z)中的13是表示那個參數(shù)()。A)金陵十三釵B)十三圓桌騎士C)十三個權(quán)重D)普通數(shù)字十三答案:C解析:難易程度:易題型:[單選題]40.神經(jīng)網(wǎng)絡(luò)模型(NeuralNetwork)因受人類大腦的啟發(fā)而得名,神經(jīng)網(wǎng)絡(luò)由許多神經(jīng)元(Neuron)組成,每個神經(jīng)元接受一個輸入,對輸入進行處理后給出一個輸出。請問下列關(guān)于神經(jīng)元的描述中,哪一項是正確的?A)每個神經(jīng)元可以有多個輸入和一個輸出B)每個神經(jīng)元可以有一個輸入和多個輸出C)每個神經(jīng)元可以有多個輸入和多個輸出D)以上都是答案:D解析:[單選題]41.語句W_conv1=weight_variable([5,5,8,32])b_conv1=bias_variable([X])兩句代碼實現(xiàn)卷積核,其中對應(yīng)偏置的數(shù)字X應(yīng)該是:A)32B)8C)5D)1答案:A解析:[單選題]42.tensorboard一般用于對loss和metric的變化進行可視化分析的函數(shù)是A)writer.add_graphB)writer.add_scalarC)writer.add_histogramD)writer.add_figure答案:B解析:[單選題]43.假定你在神經(jīng)網(wǎng)絡(luò)中的隱藏層中使用激活函數(shù)X。在特定神經(jīng)元給定任意輸入,你會得到輸出「-0.0001」。X可能是以下哪一個激活函數(shù)?A)ReLUB)tanhC)SIGMOIDD)以上都不是答案:B解析:[單選題]44.Tf.nn.conv2d(a,B,C,d),其中被卷積數(shù)據(jù)是A)bB)aC)cD)d答案:B解析:[單選題]45.全連接網(wǎng)絡(luò)對一個樣本做一次forward,RNN對一個樣本做()次forwardA)1B)多C)2D)3答案:B解析:[單選題]46.圖像處理時,給定輸入圖像,在輸出圖像中每一個像素是輸入圖像中一個小區(qū)域中像素的加權(quán)平均,其中權(quán)值由一個函數(shù)定義,這個函數(shù)稱為()A)被卷積數(shù)據(jù)B)卷積核C)步長D)填充答案:B解析:[單選題]47.在指數(shù)衰減學(xué)習(xí)率函數(shù)中,衰減系數(shù)必須()A)大于1B)大于0小于1C)1到2之間D)以上都不對答案:B解析:第2部分:多項選擇題,共15題,每題至少兩個正確答案,多選或少選均不得分。[多選題]48.關(guān)于Padding的說法中:正確的是A)以0填充B)填充厚度是卷積核一半C)步長為1D)圖像尺寸變小答案:AB解析:[多選題]49.對于不規(guī)則的切片提取,可以使用A)torch.index_selectB)torch.masked_selecC)torch.takeD)torch.iloc答案:ABC解析:[多選題]50.在AI領(lǐng)域,圖像識別技術(shù)經(jīng)常會應(yīng)用到好多場景,比如應(yīng)用案例有?A)人臉檢測B)表情判斷C)動作識別D)無人駕駛、車牌識別答案:ABCD解析:[多選題]51.內(nèi)置fit函數(shù)支持()類型數(shù)據(jù)A)numpyarrayB)tf.data.DatasetC)PythongeneratorD)以上都對答案:ABCD解析:[多選題]52.在一個概率空間,經(jīng)過不同劃分后,A)信息熵不同B)構(gòu)成新概率空間C)信息熵不變D)不可能有多種劃分答案:AB解析:[多選題]53.對于tf.nn.SoftMax函數(shù),它可以:A)用于多類別分類B)映射到概率空間C)壓縮數(shù)據(jù)D)用于卷積層答案:ABC解析:[多選題]54.騰訊云硬盤產(chǎn)品提供()云硬盤類型,不同的硬盤類型、性能、特點和價格均不同。A)高性能云硬盤B)SSD云硬盤C)增強型SSD云硬盤D)極速型SSD云硬盤答案:ABCD解析:云硬盤產(chǎn)品提供高性能云硬盤、SSD云硬盤、增強型SSD云硬盤及極速型SSD云硬盤四種云硬盤類型,不同的硬盤類型、性能、特點和價格均不同。[多選題]55.交叉熵函數(shù)是卷積神經(jīng)網(wǎng)絡(luò)中常使用函數(shù)softmax_cross_entropy的作用是?A)在全連接層B)進行優(yōu)化時用C)用信息熵D)用softmax映射到概率空間答案:ABCD解析:[多選題]56.Batch歸一化的特點有A)使參數(shù)搜索問題變得容易B)使神經(jīng)網(wǎng)絡(luò)對超參數(shù)的選擇更加穩(wěn)定C)超參數(shù)的范圍更加龐大D)使訓(xùn)練更加容易答案:ABCD解析:[多選題]57.神經(jīng)風(fēng)格遷移的損失函數(shù)包含哪幾部分?A)內(nèi)容圖像的損失函數(shù)B)風(fēng)格圖像的損失函數(shù)C)交叉熵損失函數(shù)D)均方差損失函數(shù)答案:AB解析:[多選題]58.以下多個選項其中屬于AI描述其主要的三大主義或?qū)W派的是?A)機器學(xué)習(xí)B)連接主義C)行為主義D)符號主義答案:BCD解析:[多選題]59.以下哪些詞向量之間的差值非常接近?A)男人,女人B)國王,王后C)父親,母親D)父親,兒子答案:ABC解析:[多選題]60.通常深度學(xué)習(xí)網(wǎng)絡(luò)的卷積層部分的組成有A)卷積層B)RELUC)POOLING層D)pedding答案:ABC解析:[多選題]61.在神經(jīng)網(wǎng)絡(luò)中,常常會用到如下函數(shù):tensorflow.nn.softmax_cross_entropy_with_logits_V2()是A)在卷積層B)進行優(yōu)化C)用信息熵D)一定全連接層答案:BCD解析:[多選題]62.哪些屬于序列數(shù)據(jù)A)語音識別B)情感分類C)機器翻譯D)DNA序列分析答案:ABCD解析:第3部分:判斷題,共22題,請判斷題目是否正確。[判斷題]63.形狀相似的兩個信號序列,其相關(guān)系數(shù)也大。A)正確B)錯誤答案:對解析:[判斷題]64.TensorFlow是一個采用數(shù)據(jù)流圖用于數(shù)據(jù)計算的開源軟件庫A)正確B)錯誤答案:對解析:[判斷題]65.nn.Sequential無需定義forward方法A)正確B)錯誤答案:對解析:[判斷題]66.最常用的池化方式是最大池化A)正確B)錯誤答案:對解析:[判斷題]67.若沒有在超參數(shù)中作出正確的標尺決定,可以通過在均勻標出上選取多個數(shù)據(jù)進行彌補A)正確B)錯誤答案:對解析:[判斷題]68.損失函數(shù)(lossfunction)是用來估量模型的預(yù)測值f(x)與真實值Y的不一致程度,它是一個非負實值函數(shù),通常使用L(Y,f(x))來表示,損失函數(shù)越大,模型的魯棒性就越好。A)正確B)錯誤答案:錯解析:[判斷題]69.對于一個固定劃分,信息熵是針對全體概率事件的。A)正確B)錯誤答案:對解析:[判斷題]70.隨機梯度下降在神經(jīng)網(wǎng)絡(luò)中引入了非線性。A)正確B)錯誤答案:錯解析:[判斷題]71.常見編碼中,ASC和Unicode的bit位相同。A)正確B)錯誤答案:錯解析:[判斷題]72.loss和各種metric的變化曲線可以使用writer.add_scalar處理A)正確B)錯誤答案:對解析:[判斷題]73.圖像卷積靠卷積核完成,卷積核規(guī)定了運算的規(guī)則,濾波是卷積運算所帶來的效果。A)正確B)錯誤答案:對解析:[判斷題]74.在步長迭代運算中,連續(xù)函數(shù)與間斷函數(shù)比較,好處在于,能夠不間斷運算。A)正確B)錯誤答案:對解析:[判斷題]75.連接主義是研究中等生物智慧的行為,比如視覺。A)正確B)錯誤答案:對解析:[判斷題]76.鏡像是一種云服務(wù)器軟件配置(操作系統(tǒng)、預(yù)安裝程序等)的模板。A)正確B)錯誤答案:對解析:鏡像是一種云服務(wù)器軟件配置(操作系統(tǒng)、預(yù)安裝程序等)的模板。[判斷題]77.圖像卷積就是卷積核在圖像上按行滑動遍歷像素時不斷的相乘求和的過程。A)正確B)錯誤答案:對解析:[判斷題]78.就目前學(xué)習(xí),損失函數(shù)有均方差表達,和交叉熵表達。A)正確B)錯誤答案:對解析:[判斷題]79.resnet可以很好解決梯度消失問題A)正確B)錯誤答案:對解析:[判斷題]80.|A|一定大于AA)正確B)錯誤答案:錯解析:[判斷題]81.caffe的基本工作流程所有計算以層的形式表示,網(wǎng)絡(luò)層所做的事情就是輸入數(shù)據(jù),然后輸出計算結(jié)果。A)正確B)錯誤答案:對解析:第4部分:問答題,共16題,請在空白處填寫正確答案。[問答題]82.在全連接神經(jīng)網(wǎng)絡(luò)中可以通過設(shè)置______來防止過擬合。答案:正則化;解析:[問答題]83.簡述占位符的含義與作用。答案:占位符實質(zhì)上也是一種張量,由tf.placeholder方法創(chuàng)建,但是占位符并沒有初始值,它只會分配必要的內(nèi)存。其值是在會話中由用戶在調(diào)用run方法是傳遞的。解析:[問答題]84.在MNIST數(shù)據(jù)集中,標簽數(shù)據(jù)為_______表示。答案:獨熱;解析:[問答題]85.請標出一下神經(jīng)網(wǎng)絡(luò)的參數(shù)符號答案:>解析:[問答題]86.請介紹下tensorflow的計算圖?答案:Tensorflow是一個通過計算圖的形式來表述計算的編程系統(tǒng),計算圖也叫數(shù)據(jù)流圖,可以把計算圖看做是一種有向圖,Tensorflow中的每一個節(jié)點都是計算圖上的一個Tensor,也就是張量,而節(jié)點之間的邊描述了計算之間的依賴關(guān)系(定義時)和數(shù)學(xué)操作(運算時)。解析:[問答題]87.深度學(xué)習(xí)在自然語言處理有哪些應(yīng)用方向。答

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論