《人工智能深度學(xué)習(xí)技術(shù)》近年考試真題匯總(附答案)_第1頁(yè)
《人工智能深度學(xué)習(xí)技術(shù)》近年考試真題匯總(附答案)_第2頁(yè)
《人工智能深度學(xué)習(xí)技術(shù)》近年考試真題匯總(附答案)_第3頁(yè)
《人工智能深度學(xué)習(xí)技術(shù)》近年考試真題匯總(附答案)_第4頁(yè)
《人工智能深度學(xué)習(xí)技術(shù)》近年考試真題匯總(附答案)_第5頁(yè)
已閱讀5頁(yè),還剩123頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

PAGEPAGE1《人工智能深度學(xué)習(xí)技術(shù)》近年考試真題匯總(附答案)一、單選題1.交叉熵使用了()梯度下降法A、sigmoid函數(shù)B、RELU函數(shù)C、tanh函數(shù)D、cosh函數(shù)答案:A2.關(guān)于歸一化確定,下列說(shuō)法正確的是:A、通過(guò)中值和均值進(jìn)行確定B、通過(guò)平均值和最小值確定C、通過(guò)方差和均值確定D、通過(guò)標(biāo)準(zhǔn)差和均值確定答案:C3.以下數(shù)據(jù)集分配方式錯(cuò)誤的是:A、2億條數(shù)據(jù),測(cè)試集數(shù)量可以少于4千萬(wàn)條B、數(shù)據(jù)量較少時(shí),訓(xùn)練集和測(cè)試集可以按照7:3分配C、在一些情況下,可以將全部數(shù)據(jù)作為訓(xùn)練集D、小數(shù)據(jù)量時(shí),訓(xùn)練,驗(yàn)證,測(cè)試集比例可以按照6:2:2進(jìn)行分配答案:C4.用e表示詞向量,根據(jù)詞嵌入的特性,e(男人)-e(女人)約等于e(國(guó)王)-e()A、男人B、女人C、國(guó)王D、王后答案:D5.復(fù)合函數(shù)h(f(g(x)))對(duì)x的導(dǎo)數(shù)是:A、(h對(duì)f的導(dǎo)數(shù))乘(f對(duì)g的導(dǎo)數(shù))乘(g對(duì)x的導(dǎo)數(shù))B、h對(duì)x的導(dǎo)數(shù)C、h對(duì)f的導(dǎo)數(shù)D、h對(duì)g的導(dǎo)數(shù)答案:A6.張量A的shape為[4,1,3],執(zhí)行squeeze(A.以后,A、[4,3,1]B、[2,1,3]C、[4,3]D、[4,0,3]答案:C7.(euclideanmetric歐幾里得度量)是一個(gè)通常采用的距離定義,在二維和三維空間中的歐氏距離就是兩點(diǎn)之間的實(shí)際()。A、誤差B、線段C、距離D、坐標(biāo)答案:C8.一個(gè)32X32大小的圖像,通過(guò)步長(zhǎng)為2,尺寸為2X2的池化運(yùn)算后,尺寸變?yōu)锳、14X14B、2X2C、28X28D、16X16答案:D9.編程中,通常要進(jìn)行全局變量初始化操作,可以使用下列那一個(gè)語(yǔ)句()A、init_op=tf.global_variables_initializer()B、init_op=tf.variables_initializer()C、init_op=tf.initializer()D、init_op=np.global_variables_initializer()答案:A10.語(yǔ)句b=tf.ones_like(a)是A、將b節(jié)點(diǎn)內(nèi)容用a替換B、b對(duì)應(yīng)張量維度和A相同,值為1C、b對(duì)應(yīng)張量維度和A相同,值為2D、b對(duì)應(yīng)張量維度和不同答案:B11.優(yōu)化算法減小學(xué)習(xí)率的原因是:A、一種默認(rèn)定式B、減少內(nèi)存容量C、避免在最優(yōu)解附近大幅度擺動(dòng)D、減少迭代次數(shù)答案:C12.以下選項(xiàng),請(qǐng)選出可以實(shí)現(xiàn)tf幫助查詢的編程語(yǔ)句?A、importtensorflowastfPrint(help(tf))B、importtensorflowastfPrint(tf.help(tf))C、importtensorflowastfPrint(tf)D、importtensorflowastfPrint(tf.help())答案:A13.使用BP算法的目的是()實(shí)際輸出與訓(xùn)練集誤差率。A、最大化B、最小化C、均值化D、范數(shù)化答案:B14.在深度學(xué)習(xí)中,前向算法就是有了聯(lián)結(jié)權(quán)重w和()H(x)之后,就可以由前往后面層計(jì)算A、激活函數(shù)B、正弦函數(shù)C、余弦函數(shù)D、Sigmoid函數(shù)答案:A15.TensorFlow?是一個(gè)開放源代碼軟件庫(kù),用于進(jìn)行高性能數(shù)值計(jì)算。借助其靈活的架構(gòu),用戶可以輕松地將計(jì)算工作部署到多種平臺(tái)()和設(shè)備(桌面設(shè)備、服務(wù)器集群、移動(dòng)設(shè)備、邊緣設(shè)備等)A、CPU、GPU、TPUB、CPU、GPUC、CPUD、TPU答案:A16.Tf.truncated_normal(shape,mean,stddev):shape表示生成張量的維度,mean是均值,stddev是標(biāo)準(zhǔn)差。這個(gè)函數(shù)產(chǎn)生()分布,均值和標(biāo)準(zhǔn)差自己設(shè)定A、凸集B、凹集C、正態(tài)D、負(fù)態(tài)答案:C17.依據(jù)函數(shù)的曲線分布而命名的()激活函數(shù)中,就是指Sigmoid函數(shù)A、U型B、M型C、X型D、S型答案:D18.多層神經(jīng)網(wǎng)絡(luò)中使用全連接層的目的是?A、濾波B、One-hot處理C、用于特征提取D、用于分類答案:D19.對(duì)于批量梯度下降,使用優(yōu)化算法是為了在迭代過(guò)程中():A、增大損失值B、使學(xué)習(xí)率衰減C、降低損失值D、提升正則項(xiàng)范圍答案:B20.1950年代:FrankRosenblatt基于神經(jīng)網(wǎng)絡(luò)的概念,開發(fā)出(),由此掀起神經(jīng)網(wǎng)絡(luò)研究的第一次浪潮A、計(jì)算機(jī)B、感知機(jī)C、CPUD、GPU答案:B21.數(shù)學(xué)建模工作,首先要對(duì)目標(biāo)事物進(jìn)行(),然后再進(jìn)行下一步工作。A、度量化B、抽象化C、具體化D、理想化答案:A22.RMSprop相比Momentum,可以選擇更大的()A、損失函數(shù)B、學(xué)習(xí)率C、激活函數(shù)D、樣本集答案:B23.關(guān)于mini-batch說(shuō)法錯(cuò)誤的是A、指的是批量梯度下降B、適用于樣本量小的數(shù)據(jù)集C、每一次只運(yùn)算部分?jǐn)?shù)據(jù),最后將全部數(shù)據(jù)進(jìn)行運(yùn)算D、適用于樣本量大的數(shù)據(jù)答案:B24.池化核ksize=[1,2,2,1]將圖像A、縮小到1/2B、縮小到1/4C、擴(kuò)大兩倍D、擴(kuò)大四倍答案:B25.面部識(shí)別軟件可歸入名為生物識(shí)別的一大類技術(shù)。生物識(shí)別技術(shù)使用()來(lái)驗(yàn)證身份A、生物信息B、特征點(diǎn)C、算法D、標(biāo)識(shí)答案:A26.卷積層的作用是A、增強(qiáng)圖像B、簡(jiǎn)化圖像C、特征提取D、圖像處理答案:C27.()對(duì)于人工神經(jīng)網(wǎng)絡(luò)模型去學(xué)習(xí)、理解非常復(fù)雜和非線性的函數(shù)來(lái)說(shuō)具有十分重要的作用A、激活函數(shù)B、卷積C、池化D、全連接答案:A28.通常全連接層在卷積神經(jīng)網(wǎng)絡(luò)的()A、前幾層B、尾部層C、中間層D、前后幾層答案:B29.()是深度學(xué)習(xí)訓(xùn)練時(shí)的一種提高準(zhǔn)確度的技術(shù)方法。英文全稱為“l(fā)ocalresponsenormalization”A、本區(qū)域B、局部響應(yīng)歸一化/標(biāo)準(zhǔn)化C、BP算法D、池化答案:B30.BP算法是通過(guò)梯度下降的方法對(duì)聯(lián)結(jié)權(quán)重進(jìn)行優(yōu)化,即需要計(jì)算誤差函數(shù)對(duì)聯(lián)結(jié)權(quán)重的()。A、導(dǎo)數(shù)B、偏導(dǎo)數(shù)C、平方差D、標(biāo)準(zhǔn)偏差答案:B31.Tf.equal(0,False)的結(jié)果是A、1B、0C、TrueD、False答案:C32.“熊貓方式”和魚子醬方式的選擇主要是通過(guò)什么決定的A、計(jì)算機(jī)資源的充足與否B、測(cè)試集數(shù)量C、訓(xùn)練集數(shù)量D、隱藏層數(shù)量答案:A33.函數(shù)tf.nn.relu的作用是?A、被卷積數(shù)據(jù)B、卷積核C、步長(zhǎng)D、激活答案:D34.Tf.add(a,b)函數(shù)的作用是?A、除法B、加法操作C、減法操作D、乘法操作答案:B35.卷積神經(jīng)網(wǎng)絡(luò)中,全連接層中,需要修改權(quán)重,修改的依據(jù)是:A、梯度反向傳播B、梯度正向傳播C、與梯度無(wú)關(guān)D、與損失函數(shù)無(wú)關(guān)答案:A36.歐幾里得空間標(biāo)準(zhǔn)內(nèi)積的另外一種表述是()?A、平方差B、和差化積C、內(nèi)積D、點(diǎn)積答案:D37.交叉熵作為()可以衡量p與q的相似性。A、損失函數(shù)B、激活函數(shù)C、sigmoid函數(shù)D、RELU函數(shù)答案:A38.常用的激活函數(shù)RELU,其常用調(diào)用語(yǔ)句為那一個(gè)()A、h_conv1=tf.nn.relu(conv_ret1)B、h_conv1=tf.nn.dropout(conv_ret1)C、h_conv1=tf.nn.lrn(conv_ret1)D、h_conv1=tf.nn.l2_loss(conv_ret1)答案:A39.連續(xù)詞袋模型的英文縮寫是A、CBOWB、CBOMC、CCOWD、BBOW答案:A40.連接主義的主要原理為神經(jīng)網(wǎng)絡(luò)及神經(jīng)網(wǎng)絡(luò)間的連接機(jī)制與學(xué)習(xí)算法。其英文縮寫為()A、symbolicismB、actionismC、connectionismD、AI答案:C41.要想讓損失值最小,需要找到()A、鞍點(diǎn)B、局部最優(yōu)解C、轉(zhuǎn)折點(diǎn)D、全局最優(yōu)解答案:D42.以下四個(gè)mini-batch選取樣本數(shù)量,哪一個(gè)效果最好A、58B、60C、62D、64答案:D43.比()好用的激活函數(shù)是tanh函數(shù)(雙曲正切函數(shù))A、cosh函數(shù)B、Sigmoid函數(shù)C、RELU函數(shù)D、cosx函數(shù)答案:B44.在a=tf.Variable([1,2,3]),b=tf.Variable([3,2,1]),經(jīng)過(guò)tf.multiply(a,B.后值為A、[3,4,3]B、10C、運(yùn)算不能進(jìn)行D、結(jié)果是矩陣答案:A45.對(duì)一個(gè)概率空間,進(jìn)行多種劃分,其信息熵是A、一定相等B、一定不等C、不確定無(wú)關(guān)聯(lián)D、互有關(guān)聯(lián)答案:C46.Inceptionv2的亮點(diǎn)之一加入了BN層,減少了InternalCovariateShift(內(nèi)部neuron的數(shù)據(jù)分布發(fā)生變化),使每一層的輸出都規(guī)范化到一個(gè)N(0,1)的高斯,從而增加了模型的(),可以以更大的學(xué)習(xí)速率訓(xùn)練,收斂更快,初始化操作更加隨意,同時(shí)作為一種正則化技術(shù),可以減少dropout層的使用。A、范數(shù)B、準(zhǔn)確度C、過(guò)擬和D、魯棒性答案:D47.貝努力實(shí)驗(yàn)的基礎(chǔ)概率空間是:A、均勻分布B、高斯分布C、0-1分布D、指數(shù)分布答案:C48.將一個(gè)骰子的“2”修改成“1”,那么擲這個(gè)骰子得信息熵會(huì)。A、增大B、減少C、不變D、不確定答案:B49.實(shí)踐中,Batch歸一化通常和什么一起使用A、訓(xùn)練集的mini-batchB、測(cè)試集的mini-batchC、整個(gè)訓(xùn)練集D、整個(gè)測(cè)試集答案:A50.Batch歸一化步驟不包括A、求每個(gè)訓(xùn)練批次數(shù)據(jù)的均值B、求每個(gè)訓(xùn)練批次數(shù)據(jù)的方差C、使用求得的均值和方差對(duì)該批次的訓(xùn)練數(shù)據(jù)做歸一化,獲得0-1分布D、求每個(gè)訓(xùn)練批次的和答案:D51.RMSprop算法的特點(diǎn)是A、指數(shù)加權(quán)平均數(shù)求和B、指數(shù)加權(quán)平均數(shù)先平方再開方C、指數(shù)加權(quán)平均數(shù)求微分D、指數(shù)加權(quán)平均數(shù)求均方誤差答案:B52.LeNet-5網(wǎng)絡(luò)是針對(duì)灰度圖進(jìn)行訓(xùn)練的,輸入圖像大小為32*32*1,不包含輸入層的情況下共有()層,即2層卷積,2層池化,3層全連接,每一層都包含可訓(xùn)練參數(shù)(連接權(quán)重)A、5B、7C、8D、16答案:B53.從上升速度來(lái)看所有的函數(shù)的,上升最慢的是A、線性函數(shù)B、指數(shù)函數(shù)C、冪函數(shù)D、對(duì)數(shù)函數(shù)答案:D54.從20世紀(jì)()人工智能開始出現(xiàn)了A、50年代B、60年代C、70年代D、80年代答案:A55.編碼器-解碼器模式屬于以下哪種模式?A、一對(duì)一B、一對(duì)多C、多對(duì)一D、多對(duì)多答案:D56.在深度神經(jīng)網(wǎng)絡(luò)中,全連接層的作用是A、濾波B、One-hot處理C、用于特征提取D、用于分類答案:D57.Batch歸一化即是A、批量歸一化B、僅對(duì)輸入數(shù)據(jù)進(jìn)行歸一化C、僅對(duì)隱藏層進(jìn)行歸一化D、提升了參數(shù)搜索難度答案:A58.()和tf.multiply用法一致,功能是實(shí)現(xiàn)x和y的element-wise方式的相乘,也就是所有點(diǎn)對(duì)應(yīng)相乘。A、np.multiplyB、tf.Session()C、tf.mul()D、tf.Graph()答案:A59.深度學(xué)習(xí)典型應(yīng)用:自然語(yǔ)言處理主要指應(yīng)用了()神經(jīng)網(wǎng)絡(luò)A、ANNB、CNNC、RNND、XNN答案:C60.GoogLeNet層數(shù)很深,是()層網(wǎng)絡(luò),為了避免上述提到的梯度消失問(wèn)題,googlenet巧妙的在不同深度處增加了兩個(gè)loss來(lái)保證梯度回傳消失的現(xiàn)象。A、152B、22C、8D、5答案:B61.Tf.convert_to_tensor用于將不同()變成張量:比如可以讓數(shù)組變成張量、也可以讓列表變成張量。A、數(shù)據(jù)B、變量C、高度D、范數(shù)答案:A62.LSTM網(wǎng)絡(luò)通過(guò)精妙的()將短期記憶與長(zhǎng)期記憶結(jié)合起來(lái),并且一定程度上解決了梯度消失的問(wèn)題A、RNN控制B、前饋控制C、BP控制D、門控制答案:D63.Tf.nn.relu能A、被卷積數(shù)據(jù)B、卷積核C、步長(zhǎng)D、用到全連接層答案:D64.關(guān)于符號(hào)主義描述正確是A、是人工智能的主流B、是人工智能的基礎(chǔ)C、是人工智能的全部D、不是人工智能答案:A65.局部平均值又被稱為A、常規(guī)平均值B、柵格平均值C、移動(dòng)平均值D、唯一平均值答案:C66.Sigmoid函數(shù)常被用作神經(jīng)網(wǎng)絡(luò)的閾值函數(shù),將變量映射到()之間。A、0,1B、0,-1C、10,0D、0,0.1答案:A67.在人臉檢測(cè)系統(tǒng)中,如函數(shù)caffe.set_mode_gpu()的含意是設(shè)置為什么模式?A、CPU模式B、GPU模式C、CPU+GPU模式D、TPU模式答案:B68.用距離空間實(shí)現(xiàn)的分類問(wèn)題,一般:A、需要權(quán)重訓(xùn)練B、不需要權(quán)值訓(xùn)練C、不能分類D、需要選定特殊距離空間答案:B69.Adam算法的核心是A、強(qiáng)化了RMSprop算法B、強(qiáng)化了動(dòng)量梯度算法C、同時(shí)使用Momentum和RMSprop算法D、沒(méi)有核心答案:C70.在貝努力實(shí)驗(yàn)是()的理論基礎(chǔ)A、交叉熵?fù)p失函數(shù)B、最小二乘損失函數(shù)C、與二項(xiàng)式分布有關(guān)D、與信息量有關(guān)答案:A71.在h_fc1=tf.nn.relu(tf.matmul(h_flat,W_fc1)+b_fc1)操作,b_fc1是A、對(duì)圖像池化B、偏置項(xiàng)C、激活函數(shù)D、平均答案:B72.指數(shù)加權(quán)平均數(shù)公式的好處在于A、只需要少量參數(shù)B、占用極少內(nèi)存C、不適用學(xué)習(xí)率D、是非監(jiān)督式學(xué)習(xí)答案:B73.雙向循環(huán)神經(jīng)網(wǎng)絡(luò)的英文縮寫是?A、RNNB、SRNNC、TRNND、Bi-RNN答案:D74.如需要定義tf的常量X=tf.constant(2.0,shape=[1,2])語(yǔ)句結(jié)果是A、2B、[2.0,2.0]C、[[2.0,2.0]]D、[[2.0],[2.0]]答案:C75.以下的序列數(shù)據(jù)中,屬于一對(duì)多(一個(gè)輸入,多個(gè)輸出)的關(guān)系是哪個(gè)?A、音樂(lè)生成B、情感分類C、機(jī)器翻譯D、DNA序列分析答案:A76.定義步長(zhǎng)張量strides=[1,3,3,1]能縱向移動(dòng)A、1像素B、2像素C、3像素D、4像素答案:C77.()函數(shù)就是softmax函數(shù),是邏輯函數(shù)的一種推廣A、概率B、歸一化C、損失函數(shù)D、空間答案:B78.在tf.nn.conv2d(a,B,C,d),其中填充操作是A、aB、bC、cD、d答案:D79.()是一種特定形式的RNN循環(huán)神經(jīng)網(wǎng)絡(luò),英文全稱Longshort-termmemoryA、CNNB、LSTMC、RNND、CONV答案:B80.前向傳播過(guò)程+反向傳播過(guò)程,接下來(lái)只需要進(jìn)行(),不斷調(diào)整邊的權(quán)重A、求偏導(dǎo)B、求和C、四舍五入D、迭代答案:D81.Tf.slice函數(shù)作用是:從tf的一個(gè)張量中,A、取出部分張量數(shù)據(jù)B、取出矩陣C、取出數(shù)D、取出向量答案:A82.Mini-batch下降的效果是:A、損失函數(shù)值一直下降B、損失函數(shù)值總體趨勢(shì)下降C、比梯度下降速度快D、梯度下降不明顯答案:B83.Tf定義一個(gè)標(biāo)量變量X,其語(yǔ)句是A、X=tf.variable(2.0,shape=[1,2])B、X=tf.Variable(2.0,dtype=tf.float32)C、X=tf.variable(2.0,shape=[1,2])D、X=tf.constant(2.0,btype=tf.float32)答案:B84.語(yǔ)句tf.nn.conv2d(),其中遇到的圖像張量,格式是A、[batch,in_height,in_width,in_channels]B、[Size,in_height,in_width,in_channels]C、[batch,in_width,in_height,in_channels]D、[batch,in_channels,in_height,in_width]答案:A85.LSTM中,哪個(gè)門的作用是“決定我們會(huì)從細(xì)胞狀態(tài)中丟棄什么信息”?A、輸入門B、遺忘門C、輸出門D、更新門答案:B86.TensorFlow中調(diào)用dropout的方法是:A、tf.nn.dropoutB、tf.train.dropoutC、tf.dropoutD、tf.dropOut答案:A87.為了屏蔽一些不必要的警告和錯(cuò)誤,常使用編程語(yǔ)句例如os.environ['TF_CPP_MIN_LOG_LEVEL']='2'主要作用是屏蔽什么?A、警告B、錯(cuò)誤C、警告和錯(cuò)誤D、反匯編過(guò)程答案:C88.訓(xùn)練時(shí)使用()隨機(jī)忽略一部分神經(jīng)元,以避免模型過(guò)擬合。在AlexNet中主要是最后幾個(gè)全連接層使用了這個(gè)環(huán)節(jié)。A、DropoutB、Conv2dC、max-poolD、FC6-8答案:A89.Tf讀文件語(yǔ)句:key,value=reader.read(tf.train.string_input_producer(['cat.jpg']))語(yǔ)句中,key是A、key是關(guān)鍵詞,value是Key的值B、key是文件打開符,value是整個(gè)文件數(shù)據(jù)讀入。C、key是文件內(nèi)部索引,value是key索引對(duì)應(yīng)數(shù)據(jù);D、key是文件打開符,value是Key的值答案:B90.LeNet-5神經(jīng)網(wǎng)絡(luò)是YannLeCun在1998年設(shè)計(jì)的用于手寫數(shù)字識(shí)別的卷積神經(jīng)網(wǎng)絡(luò),當(dāng)年美國(guó)大多數(shù)銀行就是用它來(lái)識(shí)別()上面的手寫數(shù)字的,它是早期卷積神經(jīng)網(wǎng)絡(luò)中最有代表性的實(shí)驗(yàn)系統(tǒng)之一A、支票B、錢幣C、人臉D、汽車答案:A91.下列選項(xiàng)中,()模型一共分為八層,5個(gè)卷積層,3個(gè)全連接層A、LeNetB、AlexNetC、VGGD、ResNet答案:B92.長(zhǎng)短期記憶網(wǎng)絡(luò)是RNN的一種變體,RNN由于梯度消失的原因只能有()記憶A、長(zhǎng)期B、短期C、中期D、后期答案:B93.輸入大小為64X64的黑白圖像,卷積核5X5,步長(zhǎng)為1,填充方式為“VALID”,卷積后圖像尺寸為A、59B、60C、58D、61答案:B94.對(duì)數(shù)坐標(biāo)下,在[a,b]區(qū)間隨機(jī)隨機(jī)均勻地給r取值的說(shuō)法錯(cuò)誤的是A、取最小值的對(duì)數(shù)得到a的值B、取最小值的對(duì)數(shù)得到b的值C、取最大值的對(duì)數(shù)得到b的值D、取任意值r,則超參數(shù)設(shè)置為10的r次方答案:B95.Conv2d(x_image,W_conv1)+b_conv)中b_conv1是A、對(duì)圖像池化B、偏置項(xiàng)C、激活函數(shù)D、平均答案:B96.Tensorflow.nn.conv2d(batch,in_height,in_width,in_channels),其中參數(shù)in_channels表示的是A、卷積核B、圖像數(shù)C、步長(zhǎng)D、通道數(shù)答案:D97.在jupyternotebook中使用()以交互模式打開獨(dú)立的GUI窗口,對(duì)同一個(gè)figure的繪制都自動(dòng)刷新到對(duì)應(yīng)的GUI窗口A、%matplotlibinlineB、matplotlibinlineC、%mptinlineD、%inline答案:A98.Tf語(yǔ)句y=tf.multiply(a,B,的意思是A、構(gòu)造一個(gè)變量B、構(gòu)造一個(gè)op(操作)C、構(gòu)造一個(gè)任務(wù)D、構(gòu)造一個(gè)函數(shù)答案:B99.通常說(shuō)的范數(shù)它是具有()的概念的函數(shù)A、長(zhǎng)度B、刻度C、距離D、范數(shù)答案:A100.VanishingGradientProblem問(wèn)題是(),這個(gè)問(wèn)題是在神經(jīng)網(wǎng)絡(luò)框架設(shè)計(jì)中經(jīng)常出現(xiàn)的問(wèn)題,例如隱藏層設(shè)計(jì)過(guò)多而導(dǎo)致的。A、梯度消失問(wèn)題B、卷積C、池化D、全連接答案:A101.初始化時(shí)通常使用()隨機(jī)數(shù)給各權(quán)值和閾值賦初值。A、偏導(dǎo)數(shù)B、大的C、小的D、均方根答案:C102.以下哪個(gè)關(guān)于梯度消失的描述是正確的?A、通過(guò)優(yōu)化算法,處理梯度,可以更快做梯度下降,獲取最優(yōu)解B、由于數(shù)據(jù)處理或者激活函數(shù)選擇不合理等原因,無(wú)法獲取梯度,從而不能獲得最優(yōu)解C、由于隱藏層數(shù)量過(guò)少,無(wú)法獲取梯度,從而不能獲得最優(yōu)解D、通過(guò)更多隱藏層,減少梯度迭代,從而更快的進(jìn)行計(jì)算,獲取最優(yōu)解答案:B103.研究發(fā)現(xiàn)Inception-ResNet模型可以在更少的epoch內(nèi)達(dá)到更()的準(zhǔn)確率A、低B、高C、先高后低D、不確定答案:B104.優(yōu)化算法計(jì)算用到了:A、標(biāo)準(zhǔn)差加權(quán)平均B、方差加權(quán)平均C、對(duì)數(shù)加權(quán)平均D、指數(shù)加權(quán)平均答案:D105.在卷積神經(jīng)網(wǎng)絡(luò)中,卷積層與全連接層的先后順序通常為?A、先卷積、池化后全連接B、先全連接、卷積后池化C、先池化、全連接再卷積D、先卷積、全連接、池化后答案:A106.風(fēng)格遷移這一想法與()生成的想法密切相關(guān)A、黑帽B、紋理C、池化D、開運(yùn)算答案:B107.Tf定義一個(gè)占位符號(hào)的語(yǔ)句是A、Y=tf.zeros(2.0,shape=[1,2])B、X=tf.variable(2.0,shape=[1,2])C、Y=tf.placeholder(tf.float32)D、Y=ones(2.0,shape=[1,2])答案:C108.從sigmoid函數(shù)的圖像中可以看到,如果x稍微大點(diǎn)的話,其值接近為1,則在進(jìn)行反向傳播算法的過(guò)程中對(duì)其求導(dǎo)的導(dǎo)數(shù)非常的接近0,因此會(huì)導(dǎo)致梯度為0的()的現(xiàn)象A、梯度消失B、梯度上升C、梯度下降D、梯度發(fā)散答案:A109.Sigmoid函數(shù)的缺點(diǎn):導(dǎo)數(shù)值范圍為(0,0.25],反向傳播時(shí)會(huì)導(dǎo)致“梯度消失”。而()函數(shù)導(dǎo)數(shù)值范圍更大,相對(duì)好一點(diǎn)。A、coshB、sinC、tanhD、sigmoid答案:C110.符號(hào)主義屬于現(xiàn)代人工智能范疇,基于邏輯推理的智能模擬方法()A、模擬人的智能行為B、計(jì)算機(jī)視覺(jué)C、卷積神經(jīng)網(wǎng)絡(luò)D、openCV答案:A111.Session是Tensorflow為了控制,和輸出文件的執(zhí)行的語(yǔ)句.運(yùn)行session.run()可以獲得你要得知的運(yùn)算結(jié)果,或者是你所要運(yùn)算的部分通常要?jiǎng)?chuàng)建Session對(duì)象,對(duì)應(yīng)的編程語(yǔ)句為:A、sess=tf.Session()B、sess.close()C、tf.add()D、tf.equal()答案:A112.在tf.assign(a,B.的意義是:A、將b節(jié)點(diǎn)變量賦值給a節(jié)點(diǎn)變量B、將a節(jié)點(diǎn)變量賦值給b節(jié)點(diǎn)變量C、a=bD、b=a答案:A113.對(duì)于神經(jīng)網(wǎng)絡(luò)中超參數(shù)調(diào)試方法正確的是A、隨機(jī)選擇點(diǎn)來(lái)試驗(yàn)超參數(shù)效果B、當(dāng)你給超參數(shù)取值時(shí),另一個(gè)慣例是采用由精細(xì)到粗糙的策略。C、只調(diào)試容易的D、給定默認(rèn)值即可答案:A114.Tanh函數(shù)的導(dǎo)數(shù)范圍是()A、(0,1]B、(0,0.1]C、(0,-1]D、(0,10]答案:A115.()是定義在單個(gè)樣本上的,是指一個(gè)樣本的誤差A(yù)、損失函數(shù)(LossFunction)B、代價(jià)函數(shù)(CostFunction)C、目標(biāo)函數(shù)(ObjectFunction)D、范數(shù)答案:A116.縮寫ArtificialIntelligence是指A、AOB、AIC、ALD、AN答案:B117.神經(jīng)網(wǎng)絡(luò)需要激活函數(shù),其原因是可實(shí)現(xiàn)A、解決線性可分性B、非線性分類C、歸一化D、正則化答案:B118.激活函數(shù)把“()”保留并映射出來(lái)A、半激活的神經(jīng)元的特征B、未激活的神經(jīng)元的特征C、激活的神經(jīng)元的特征D、無(wú)所謂狀態(tài)的神經(jīng)元的特征答案:C119.將多個(gè)LSTM組合成層,網(wǎng)絡(luò)中有多層,復(fù)雜的結(jié)構(gòu)能夠處理更大范圍的()A、動(dòng)態(tài)性B、靜態(tài)性C、不穩(wěn)定性D、魯棒性答案:A120.計(jì)算機(jī)界,被稱為計(jì)算機(jī)科學(xué)之父,人工智能之父是A、圖靈B、馮-諾依曼C、維納D、牛頓答案:A121.Alf屬于[0,1],A,B是平面上點(diǎn),alf*A+(1-alf)*B的意義是A、過(guò)AB兩點(diǎn)直線B、A和B構(gòu)成的線段C、A和B的向量和D、A和B構(gòu)成的集合答案:B122.可以直觀地看到各層網(wǎng)絡(luò)結(jié)構(gòu)和參數(shù)的工具的是?A、tfB、tf.nnC、TFD、TensorBoard答案:D123.函數(shù)x*ln(x)的導(dǎo)數(shù)是A、ln(x)+1B、xC、lnxD、1/x答案:A124.隨時(shí)間反向傳播的縮寫是哪個(gè)?A、BPTTB、BPC、BPTD、BPTM答案:A125.如果給出一串?dāng)?shù)據(jù)[[0,2],[-3,2],[0,0],[-1,3],[0,1],[-2,0]]與它最相似的分布是A、均勻分布B、高斯分布C、0-1分布D、指數(shù)分布答案:B126.LSTM中,哪個(gè)門的作用是“確定哪些新的信息留在細(xì)胞狀態(tài)中,并更新細(xì)胞狀態(tài)”?A、輸入門B、遺忘門C、輸出門D、更新門答案:A127.Tensorflow中,哪個(gè)是與詞向量有關(guān)的函數(shù)?A、tf.nn.softmax_cross_entropy_with_logitsB、tf.nn.sigmoid_cross_entropy_with_logitsC、tf.nn.embedding_lookupD、tf.nn.dropout答案:C128.下列隨機(jī)序列中[1,3,1.1,2,3.1,1.9]中,可能是A、均勻分布B、正態(tài)分布C、不能確定D、非隨機(jī)答案:A129.Siamese網(wǎng)絡(luò)從數(shù)據(jù)中去學(xué)習(xí)一個(gè)相似性(),用這個(gè)學(xué)習(xí)出來(lái)的度量去比較和匹配新的未知類別的樣本。A、度量B、范數(shù)C、歐式距離D、模答案:A130.如果x的值是True,那么tf.cast(x,tf.float32)的值是什么?A、0.0B、1.0C、FalseD、True答案:B131.經(jīng)典的網(wǎng)絡(luò)LeNet-5第七層是全連接層Output.這個(gè)層共有10個(gè)節(jié)點(diǎn)分別代表輸出數(shù)字范圍是()A、0和9B、0*9C、0到9D、0到10答案:C132.下列使用歸一化操作的激活函數(shù)有:A、reluB、softmaxC、tanhD、leakrelu答案:B133.Multiply這個(gè)函數(shù)實(shí)現(xiàn)的是元素級(jí)別的相乘,也就是兩個(gè)相乘的數(shù)元素各自()A、相與B、相乘C、相除D、相加答案:B134.雙曲正切函數(shù)指的是那一個(gè)函數(shù)?A、Sigmoid函數(shù)B、tanh函數(shù)C、ReLUD、leakyReLU答案:B135.函數(shù)tf.constant()不正確的用法是那一個(gè)選項(xiàng)?A、tensor=tf.constant(1)B、tensor=tf.constant([1,2])C、tensor=tf.constant(-1,shape=[2,3])D、a=tf.constant([1.0,2.0],name="a)答案:D136.在BP算法的過(guò)程中,error項(xiàng)逐漸變小,使得越靠前的網(wǎng)絡(luò)層的學(xué)習(xí)速率越來(lái)越低,這種現(xiàn)象被稱為vanishinggradientproblem即A、梯度上升問(wèn)題B、梯度優(yōu)化C、梯度消失問(wèn)題D、梯度下降法答案:C137.Tf.nn.softmax_cross_entropy_with_logits函數(shù)是TensorFlow中常用的求()的函數(shù),即計(jì)算labels和logits之間的交叉熵(crossentropy)A、信息熵B、信息元C、logitsD、交叉熵答案:D138.“()(FaceFeatureExtraction)”是將一張人臉圖像轉(zhuǎn)化為一串固定長(zhǎng)度的數(shù)值的過(guò)程。這個(gè)數(shù)值串被稱為“人臉特征(FaceFeature)”,具有表征這個(gè)人臉特點(diǎn)的能力A、人臉提特征B、提特征C、特征D、特征擴(kuò)展答案:A139.在典型的Batch歸一化運(yùn)用中需要用什么來(lái)估算A、一個(gè)指數(shù)加權(quán)平均B、平均值C、方差D、最大值答案:A140.程序語(yǔ)句max_pool(conv2,[1,3,3,1],strides=[1,1,1,1],padding="SAME")那么這個(gè)語(yǔ)句中,體現(xiàn)的池化窗口尺寸為多少?A、1*1B、3*3C、1*3D、3*1答案:B141.Mini-batch指的是A、小批量梯度下降B、隨機(jī)梯度下降C、批量梯度下降D、小批量損失計(jì)算答案:A142.多層前饋網(wǎng)絡(luò)也稱為()A、BP網(wǎng)絡(luò)B、隱藏層網(wǎng)絡(luò)C、輸入層網(wǎng)絡(luò)D、輸出層網(wǎng)絡(luò)答案:A143.與Inception同年提出的優(yōu)秀網(wǎng)絡(luò)還有(),它相比于AlexNet有更小的卷積核和更深的層級(jí)A、VGG-NetB、InceptionC、ResNetD、LeNet-5答案:A144.Tensorflow中,tf.equal(tf.argmax(y_conv,axis=1),tf.argmax(y_,1))A、返回整數(shù)值B、返回布爾值C、返回浮點(diǎn)值D、返回字符答案:B145.數(shù)量積(dotproduct;scalarproduct,也稱為()是接受在實(shí)數(shù)R上的兩個(gè)向量并返回一個(gè)實(shí)數(shù)值標(biāo)量的二元運(yùn)算,它是歐幾里得空間的標(biāo)準(zhǔn)內(nèi)積。A、平方差B、和差化積C、內(nèi)積D、點(diǎn)積答案:D146.X的值是False,tf.cast(x,tf.float32)的結(jié)果是A、0.0B、FalseC、1.0D、True答案:A147.Tf.cast(x,tf.float32)將x類型轉(zhuǎn)化成A、返回整數(shù)值B、返回布爾值C、返回浮點(diǎn)值D、返回字符答案:C148.輸入信號(hào)<0時(shí),輸出都是0,輸入信號(hào)>0的情況下,輸出等于輸入,通常指的是指那個(gè)函數(shù)?A、Sigmoid函數(shù)B、tanh函數(shù)C、ReLUD、cosh答案:C149.函數(shù)tanh值域范圍是()A、+1和-1B、+0和-1C、+1和0D、+2和-2答案:A150.Batch歸一化的作用是A、作用于輸出層B、僅作用于輸入層C、無(wú)法在隱藏層起作用D、用于輸入層,甚至深度隱藏層的歸一化過(guò)程答案:D151.Batch歸一化和神經(jīng)網(wǎng)絡(luò)中的什么功能類似A、reluB、dropoutC、sigmoidD、tanh答案:B152.要建立數(shù)學(xué)模型,其詳細(xì)過(guò)程是必須經(jīng)過(guò)數(shù)據(jù)測(cè)量、數(shù)據(jù)比較、()過(guò)程,才能達(dá)到最優(yōu)。A、逐漸逼近B、校準(zhǔn)C、回歸D、監(jiān)督答案:A153.張量Tensor通常是操作()維數(shù)組進(jìn)行傳送,形象地描述為從流圖的一端流動(dòng)到另一端,即TensorFlow的組成A、NB、1C、0D、3答案:A154.Tf.div(a,b)函數(shù)的作用是?A、除法B、加法操作C、減法操作D、乘法操作答案:A155.神經(jīng)網(wǎng)絡(luò)中常用的()Sigmoid函數(shù),會(huì)把量映射到0,1之間A、非激活B、RELUC、極值D、閾值答案:D156.使用函數(shù)tf.nn.conv2d()主要的目的是()A、增強(qiáng)圖像B、簡(jiǎn)化圖像C、特征提取D、圖像處理答案:C157.在實(shí)現(xiàn)tf變量A和B按照對(duì)應(yīng)位相乘的函數(shù)是()A、tf.multiplyB、tf.matmulC、A*BD、A,puls(B.答案:A158.從輸入層到(),再到輸出層。逐層計(jì)算每一個(gè)節(jié)點(diǎn)對(duì)其下一層節(jié)點(diǎn)的影響,這就是前向傳播算法A、輸出層B、隱藏層C、輸入層D、激活函數(shù)層答案:B159.對(duì)于以下線性運(yùn)算的結(jié)果向量,如果要映射成概率結(jié)果,需要函數(shù):A、tf.nn.softmaxB、tf.nn.dropoutC、tf.nn.maxpoolD、tf.nn.cov2d答案:A160.()是指根據(jù)文本所表達(dá)的含義和情感信息將文本劃分成褒揚(yáng)的或貶義的兩種或幾種類型,是對(duì)文本作者傾向性和觀點(diǎn)、態(tài)度的劃分,因此有時(shí)也稱傾向性分析。A、語(yǔ)音識(shí)別B、機(jī)器學(xué)習(xí)C、自然語(yǔ)言處理D、情感分類答案:D161.Tf中,第一層卷積核W_conv1=variable([5,5,1,32]),第二層卷積核是:A、variable([5,5,1,32])B、variable([3,3,1,32])C、variable([5,5,4,8])D、variable([5,5,32,6])答案:D162.深度學(xué)習(xí)領(lǐng)域用的最多的框架是A、caffeB、torchC、tensorflowD、mxnet答案:C163.從()到AlexNet。進(jìn)化之路一:網(wǎng)絡(luò)結(jié)構(gòu)加深;進(jìn)化之路二:加強(qiáng)卷積功能;進(jìn)化之路三:從分類到檢測(cè);進(jìn)化之路四:新增功能模塊。A、LeNetB、AlexNetC、VGGD、ResNet答案:A164.卷積神經(jīng)網(wǎng)絡(luò)中每層卷積層(Convolutionallayer)由若干卷積單元組成,每個(gè)卷積單元的參數(shù)都是通過(guò)反向傳播算法最佳化得到,其作用是()A、增強(qiáng)圖像B、簡(jiǎn)化圖像C、特征提取D、圖像處理答案:C165.實(shí)現(xiàn)帶偏置的卷積操作的運(yùn)算是:A、conv_ret1=conv2d(x_image,W_conv1)+b_conv1B、conv_ret1=conv2d(x_image,W_conv1+b_conv1)C、conv_ret1=conv2d(x_image,W_conv1,b_conv1)D、conv_ret1=conv2d(x_image,W_conv1)答案:A166.pytorch中可視化指標(biāo)變化:A、writer.add_graphB、writer.add_scalarC、writer.add_histogramD、writer.add_figure答案:B167.可以實(shí)現(xiàn)多個(gè)卷積尺寸處理算法的網(wǎng)絡(luò)是A、lenetB、alexnetC、vggD、Inception答案:D168.DataLoader中drop_last的作用是A、批次大小B、是否亂序C、使用多進(jìn)程讀取數(shù)據(jù),設(shè)置的進(jìn)程數(shù)。D、是否丟棄最后一個(gè)樣本數(shù)量不足batch_size批次數(shù)據(jù)。答案:D169.sigmoid函數(shù)常使用的領(lǐng)域是A、多分類B、二分類C、rnnD、cnn答案:B170.pytorch中,LSTM是否處理截距的參數(shù)為A、input_sizeB、batch_firstC、biasD、hidden_size答案:C171.多分類處理流程中,不屬于softmax特點(diǎn)的是A、輸出結(jié)果的數(shù)量和類別數(shù)相同B、輸出結(jié)果對(duì)應(yīng)了別概率C、輸出求和為1D、概率值大于0.5的是最終的預(yù)測(cè)結(jié)果答案:D172.將二維數(shù)據(jù)展開成全連接的函數(shù)是A、DropoutB、BatchNormalizationC、DenseFeatureD、Flatten答案:D173.使用CNN處理數(shù)據(jù)時(shí),數(shù)據(jù)以()維的方式存在A、1B、2C、3D、4答案:D解析:卷積中數(shù)據(jù)維度為[樣本個(gè)數(shù),高度,寬度,通道數(shù)]174.時(shí)間步說(shuō)法正確的是A、部分前后B、特征數(shù)量不同C、每個(gè)時(shí)間步特征數(shù)量相同D、圖像中不存在時(shí)間步答案:C175.pytorch中,LSTM輸入尺寸參數(shù)為A、input_sizeB、batch_firstC、biasD、hidden_size答案:A176.控制是否循環(huán)神經(jīng)每次都輸出結(jié)果的參數(shù)是A、return_sequencesB、num_classesC、unrollD、training答案:A177.優(yōu)化算法中描述錯(cuò)誤的是A、sgd會(huì)受噪音影響B(tài)、動(dòng)量?jī)?yōu)化的次數(shù)較多C、adagrad算法學(xué)習(xí)率不變D、mbgd可以減少噪音的影響答案:C178.pytorch中批量歸一化使用的是A、nn.LinearB、nn.FlattenC、nn.DropoutD、nn.BatchNorm2d答案:D179.DataLoader中shuffle的作用是A、批次大小B、是否亂序(數(shù)據(jù)洗牌)C、使用多進(jìn)程讀取數(shù)據(jù),設(shè)置的進(jìn)程數(shù)。D、是否丟棄最后一個(gè)樣本數(shù)量不足batch_size批次數(shù)據(jù)。答案:B180.不是LSTM的作用的是A、解決梯度消失B、解決梯度爆炸C、使用后面的時(shí)間步,預(yù)測(cè)前面時(shí)間步的結(jié)果D、關(guān)聯(lián)很久以前的時(shí)間步答案:C181.利用tf.GradientTape求微分的方法叫做Tensorflow的()機(jī)制A、梯度下降B、模型處理C、梯度處理D、自動(dòng)微分答案:D182.pytorch中數(shù)值一般是()類型A、intB、floatC、boolD、time答案:B183.pytorch減少維度的函數(shù)是:A、reshapeB、squeezeC、unsqueezeD、transpose答案:B184.關(guān)于通道理解錯(cuò)誤的是A、單通道為灰度圖B、卷積后的通道越多,效果越好C、彩色圖進(jìn)行卷積處理只能是三通道D、彩色圖是三通道答案:C185.CNN傳遞數(shù)據(jù)處理時(shí),數(shù)據(jù)應(yīng)該是()維度A、1B、2C、3D、4答案:D186.以下不是RNN的特點(diǎn)有:A、當(dāng)前輸入值是上一次輸出值B、使用tanh激活C、使用時(shí)間步作為計(jì)算數(shù)據(jù)D、每個(gè)處理的時(shí)間步對(duì)應(yīng)的權(quán)重不同答案:D187.DataLoader中num_workers的作用是A、批次大小B、是否亂序C、使用多進(jìn)程讀取數(shù)據(jù),設(shè)置的進(jìn)程數(shù)。D、是否丟棄最后一個(gè)樣本數(shù)量不足batch_size批次數(shù)據(jù)。答案:C188.靜態(tài)圖時(shí)期計(jì)算圖的執(zhí)行方式是:A、先定義圖,再執(zhí)行圖B、執(zhí)行和定義同時(shí)執(zhí)行C、不區(qū)分這兩個(gè)步驟D、先執(zhí)行后,在定義答案:A189.tensorflow.keras.Dataset中,取前k個(gè)樣本的函數(shù)是:A、shuffleB、takeC、repeatD、shard答案:B190.當(dāng)前時(shí)間步是否參與此次運(yùn)算的門是:A、遺忘門B、輸入門C、輸出門D、更新門答案:C191.pytorch中拼接的函數(shù)是A、concatB、c_C、catD、concateete答案:C192.tensorflow保存模型的函數(shù)是:A、save_weightsB、saveC、loadD、restore答案:B解析:save保存的是模型,save_weight保存的是模型權(quán)重193.水平翻轉(zhuǎn)的函數(shù)是A、RandomHorizontalFlip()B、RandomVerticalFlip()C、RandomRotationD、RandomCrop答案:A194.梯度消失的現(xiàn)象是A、導(dǎo)數(shù)為0B、參數(shù)不再更新C、達(dá)到最優(yōu)梯度D、到達(dá)最優(yōu)解答案:B195.一般深度學(xué)習(xí)中,處理大量數(shù)據(jù)集,一般使用的下降方式是:A、批量梯度下降B、小批量梯度下降C、隨機(jī)梯度下降D、正規(guī)方程解答案:B196.四維張量一般用來(lái)表示A、灰度圖B、彩色圖C、視頻D、時(shí)間答案:C解析:批量圖片,視頻都可以是四維的197.keras中負(fù)責(zé)損失處理的庫(kù)是A、layersB、lossC、optimisD、rnn答案:B198.多分類模型,一般使用()函數(shù)A、reluB、tanhC、sigmoidD、softmax答案:D199.pytorch增加維度的函數(shù)是:A、reshapeB、squeezeC、unsqueezeD、transpose答案:C200.可以根據(jù)前后語(yǔ)義進(jìn)行處理計(jì)算的網(wǎng)絡(luò)模型時(shí)A、CNNB、BRNNC、RNND、LSTM答案:B201.垂直翻轉(zhuǎn)的函數(shù)是A、RandomHorizontalFlip()B、RandomVerticalFlip()C、RandomRotationD、RandomCrop答案:B202.動(dòng)量?jī)?yōu)化算法的特點(diǎn)是A、如果梯度同方向速度會(huì)越來(lái)越快B、梯度可以最快速度迭代到最優(yōu)解C、學(xué)習(xí)率不斷衰減D、沒(méi)有方法可以越過(guò)鞍點(diǎn)答案:A203.RNN網(wǎng)絡(luò)的特點(diǎn)是:A、有多少個(gè)時(shí)間步,就有多少個(gè)RNN單元B、不管有多少時(shí)間步,都是用一個(gè)RNN神經(jīng)單元處理C、RNN內(nèi)部使用relu激活D、RNN可以解決梯度消失問(wèn)題答案:B204.pytorch中用于處理簡(jiǎn)單模型的構(gòu)建方式為:A、繼承nn.Module基類構(gòu)建自定義模型B、使用nn.Sequential按層順序構(gòu)建模型C、繼承nn.Module基類構(gòu)建模型并輔助應(yīng)用模型容器進(jìn)行封裝(nn.Sequential,nn.ModuleList,nn.ModuleDict)D、使用model直接處理答案:B205.RNN中使用的激活函數(shù)是A、reluB、sigmoidC、tanhD、softmax答案:C206.一般用于將輸入中的單詞映射為稠密向量的函數(shù)是A、EmbeddingB、LSTMC、GRUD、RNN答案:A207.sigmoid函數(shù)描述錯(cuò)誤的是A、輸出結(jié)果是-1~+1B、0.5是分類的閾值C、輸出的結(jié)果為正類別概率D、導(dǎo)數(shù)范圍為0~0.25答案:A208.獨(dú)熱編碼描述錯(cuò)誤的是A、可以對(duì)特征使用B、可以對(duì)標(biāo)簽使用C、二分類必須做獨(dú)熱D、獨(dú)熱長(zhǎng)度和類別數(shù)量一致答案:C209.pytorch中二分類的代價(jià)函數(shù)是:A、CrossEntropyLoss()B、BCELoss()C、MSElossD、criteen答案:B210.情感分析屬于下列哪一種分析方式A、多對(duì)一B、一對(duì)多C、多對(duì)多D、以上都不對(duì)答案:A211.VGG16中的16代表的是A、卷積層B、池化層C、總層數(shù)D、含有權(quán)重的層數(shù)答案:D212.如果輸入一張3通道的圖像,下面表述方式正確的是:A、model.add(Dense(40,input_dim=[1,3,20,20]))B、model.add(Dense(40,input_dim=[1,20,20,3]))C、model.add(Dense(40,input_dim=[3,1,20,20]))D、model.add(Dense(40,input_dim=[3,1,20,20]))答案:B213.()是序列模型處理的基礎(chǔ)單元A、時(shí)間步B、樣本C、一句話D、一個(gè)數(shù)據(jù)集答案:A214.使用1*1卷積思想的網(wǎng)絡(luò)模型是A、lenetB、alexnetC、resnetD、inception答案:D215.不屬于卷積內(nèi)部性質(zhì)的有A、步長(zhǎng)B、卷積核C、0填充D、池化核答案:D216.sparse_categorical_crossentropy屬性的使用場(chǎng)景是:A、回歸類型問(wèn)題B、邏輯回歸處理C、多分類,標(biāo)簽沒(méi)有經(jīng)過(guò)獨(dú)熱處理D、多分類,標(biāo)簽經(jīng)過(guò)獨(dú)熱處理答案:C217.可以比較兩個(gè)單詞是否有關(guān)聯(lián),可以使用A、rnnB、lstmC、向量?jī)?nèi)積D、embedding答案:C218.動(dòng)態(tài)圖處理中,無(wú)序開啟A、求導(dǎo)B、會(huì)話C、自動(dòng)微分D、反向傳播答案:B219.彩色圖片數(shù)據(jù)()維張量A、1B、2C、3D、4答案:C220.相對(duì)復(fù)雜的模型,建議使用()方式創(chuàng)建A、SequentialB、函數(shù)式API創(chuàng)建任意結(jié)構(gòu)模型C、Model子類化創(chuàng)建自定義模型D、自定義函數(shù)答案:C221.數(shù)據(jù)管道從文件夾獲取數(shù)據(jù)的方式是:A、from_tensor_slicesB、flow_from_directoryC、make_csv_datasetD、list_files答案:D222.訓(xùn)練模型最靈活的方式是:A、內(nèi)置fitB、內(nèi)置train_on_batchC、自定義訓(xùn)練循環(huán)D、內(nèi)置pile答案:C223.被稱為L(zhǎng)STM低配的神經(jīng)單元是A、rnnB、cnnC、gruD、SimpleRNN答案:C224.相對(duì)而言,最好梯度下降的算法是A、momentumB、adagradC、rmspropD、adam答案:D225.resnet和Inception使用()代替全連接處理A、平均池化B、最大池化C、1*1卷積D、3*3卷積答案:A226.CNN最后使用全連接的作用是:A、有更多的神經(jīng)元進(jìn)行處理B、一種形式C、讓網(wǎng)絡(luò)使用softmax處理D、不做也可以答案:C227.pytorch保留整數(shù)部分,向0歸整的函數(shù)是A、roundB、floorC、ceilD、trunc答案:D228.pytorch表達(dá)二元交叉熵的代碼是A、(model(X).data>0.5).float()B、(predicted==Y.data).float().mean()C、-(Y*torch.log(hypothesis)+(1-Y)*torch.log(1-hypothesis)).mean()D、torch.mean(torch.square(y-h))答案:C229.pad_sequences的作用是A、獨(dú)熱處理B、embedding處理C、模型代價(jià)函數(shù)D、使用0補(bǔ)全時(shí)間步答案:D230.Keras中,處理二分類的代價(jià)調(diào)用是:A、mseB、binary_crossentropyC、categorical_crossentropyD、sparse_categorical_crossentropy答案:B231.tensorboard的默認(rèn)端口是A、8000B、6000C、6006D、8080答案:C232.自定義循環(huán)訓(xùn)練模型模式,無(wú)需()過(guò)程A、編譯B、求導(dǎo)C、計(jì)算梯度D、計(jì)算得分答案:A233.tensorboard啟動(dòng)命令是A、tensorflowopenboardB、opentensorboard路徑C、os.open路徑D、tensorboard--logdir路徑答案:D234.對(duì)于正則化函數(shù)dropout描述正確的是A、直接刪除神經(jīng)元B、讓神經(jīng)元隨機(jī)失活C、dropout過(guò)擬合效果有限D(zhuǎn)、只能使用在CNN網(wǎng)絡(luò)中答案:B235.pytorch交換維度的函數(shù)是:A、reshapeB、squeezeC、unsqueezeD、transpose答案:D236.pytorch封裝類正向傳播的函數(shù)是:A、callB、forwardC、backD、research答案:B237.item()在pytorch中的作用是A、獲取數(shù)據(jù)值B、獲取維度C、獲取梯度D、獲取降維后的結(jié)果答案:A238.pytorch中可視化參數(shù)分布:A、writer.add_graphB、writer.add_scalarC、writer.add_histogramD、writer.add_figure答案:C239.正常情況下卷積網(wǎng)絡(luò)在多少層以后就很難優(yōu)化A、11B、15C、22D、25答案:C240.管道處理是用于()性能A、CPUB、GPUC、TPUD、編譯答案:B241.tensorflow2.0誕生的時(shí)間是:A、2020.10.01B、2019.10.01C、2018.09.10D、2010.06.01答案:B242.Keras中pile函數(shù)中,填寫的參數(shù)不可以是:A、優(yōu)化方式B、損失公式C、評(píng)估指標(biāo)D、數(shù)據(jù)答案:D243.pytorch中用于網(wǎng)絡(luò)層連接使用的是A、nn.LinearB、nn.FlattenC、nn.DropoutD、nn.BatchNorm2d答案:A244.optimizer.zero_grad()的作用是A、梯度初始化B、重新計(jì)算迭代次數(shù)C、重新計(jì)算代價(jià)D、優(yōu)化器優(yōu)化結(jié)果到0答案:A245.resnet網(wǎng)絡(luò)中,如果通道數(shù)有變化,那么躍遷方式是A、直接使用原有數(shù)值B、使用1*1卷積核改變通道C、不做躍遷D、使用3*3卷積核改變通道答案:B246.動(dòng)量梯度下降的特點(diǎn)是:A、β一般設(shè)置為0.1B、算法震蕩小C、學(xué)習(xí)率會(huì)改變D、記憶上一次的梯度,應(yīng)用到本次進(jìn)行使用答案:D247.哪個(gè)網(wǎng)絡(luò)模型首次使用relu激活函數(shù)A、LeNetB、AlexNetC、ResNetD、Inception答案:B解析:alexnet首次使用relu函數(shù)248.pytorch中隨機(jī)失活使用的是A、nn.LinearB、nn.FlattenC、nn.DropoutD、nn.BatchNorm2d答案:C249.二分類和多分類直接說(shuō)法正確的是A、使用相同的激活函數(shù)B、使用相同的代價(jià)函數(shù)公式C、二分類使用softmax激活,多分類使用sigmoid激活D、得到的結(jié)果都是概率形式答案:D250.softmax函數(shù)說(shuō)法錯(cuò)誤的是A、輸出的結(jié)果和為1B、使用于多分類C、可以防止數(shù)據(jù)過(guò)擬合D、輸出的結(jié)果為正類別的概率答案:C解析:softmax沒(méi)有防止數(shù)據(jù)過(guò)擬合的作用251.pytorch梯度下降用不到的函數(shù)是A、stepB、backwardC、zero_gradD、fit答案:D252.進(jìn)行獨(dú)熱處理的函數(shù)是A、scatter_B、onehotC、eyeD、diag答案:A253.提升管道性能描述錯(cuò)誤的是:A、使用prefetch方法讓數(shù)據(jù)準(zhǔn)備和參數(shù)迭代兩個(gè)過(guò)程相互并行。B、使用map時(shí)設(shè)置num_parallel_calls讓數(shù)據(jù)轉(zhuǎn)換過(guò)程多進(jìn)程執(zhí)行。C、使用cache方法讓數(shù)據(jù)在第一個(gè)epoch后緩存到內(nèi)存中,僅限于數(shù)據(jù)集不大情形。D、使用map轉(zhuǎn)換時(shí),不用batch,采用向量化的轉(zhuǎn)換方法對(duì)每個(gè)batch進(jìn)行轉(zhuǎn)換。答案:D254.Inception中,不管并聯(lián)卷積池化如何改變,合并后特征圖的()必須相同A、通道B、尺寸C、維度D、色差答案:B多選題1.通常,使用TensorFlow框架進(jìn)行開發(fā),可以應(yīng)用在實(shí)際領(lǐng)域和應(yīng)用場(chǎng)景有那些?A、語(yǔ)音識(shí)別B、自然語(yǔ)言處理NLPC、計(jì)算機(jī)視覺(jué)D、風(fēng)格遷移廣告答案:ABCD2.TensorFlow軟件庫(kù)可以輕松地將計(jì)算工作部署到多種平臺(tái)()A、CPUB、GPUC、TPUD、SDK答案:ABC3.關(guān)于梯度的問(wèn)題,以下說(shuō)法錯(cuò)誤的是:A、梯度下降會(huì)增加學(xué)習(xí)次數(shù)B、多使用梯度爆炸,增加計(jì)算效率提升模型準(zhǔn)確率C、梯度下降可以減少計(jì)算量,建議使用D、梯度爆炸會(huì)增大計(jì)算量,編寫代碼時(shí)避免梯度爆炸答案:BC4.要抽象和展示MathematicalModel通常會(huì)使用()等方式A、數(shù)學(xué)符號(hào)B、數(shù)學(xué)式子C、程序D、圖形答案:ABCD5.人臉檢測(cè)的圖片通常有那幾種類型?A、LIVE表示生活照;B、IDCARD表示身份證芯片照;C、WATERMARK表示帶水印證件照;D、CERT表示證件照片;答案:ABCD6.遷移學(xué)習(xí)之開發(fā)模型的方法包括那幾種?A、選擇源任務(wù)B、開發(fā)源模型C、重用模型D、調(diào)整模型答案:ABCD7.對(duì)于tf.nn.SoftMax函數(shù),它可以:A、用于多類別分類B、映射到概率空間C、壓縮數(shù)據(jù)D、用于卷積層答案:ABC8.在循環(huán)神經(jīng)網(wǎng)絡(luò)中,LSTM有哪幾個(gè)門?A、輸入門B、遺忘門C、輸出門D、更新門答案:ABC9.神經(jīng)網(wǎng)絡(luò)解決非線性分類,是通過(guò):A、構(gòu)造神經(jīng)網(wǎng)絡(luò)B、用激活函數(shù)C、訓(xùn)練權(quán)重矩陣D、讓損失最大化答案:ABC10.在神經(jīng)網(wǎng)絡(luò)中,以下哪種技術(shù)用于解決過(guò)擬合?A、DropoutB、正則化C、批規(guī)范化D、激活函數(shù)答案:ABC11.假定一個(gè)全連接網(wǎng)絡(luò)有三個(gè)權(quán)重矩陣維度為W1[a,b],W2[c,d],W3[e,f],該網(wǎng)絡(luò)A、輸入維度為[M,a]B、輸出維度[M,f]C、輸入數(shù)據(jù)維度為[a,b]D、輸出數(shù)據(jù)維度為[e,f]答案:AB12.對(duì)數(shù)坐標(biāo)下,在[a,b]區(qū)間隨機(jī)隨機(jī)均勻地給r取值的說(shuō)法正確的是A、取最小值的對(duì)數(shù)得到a的值B、取最小值的對(duì)數(shù)得到b的值C、取最大值的對(duì)數(shù)得到a的值D、取最大值的對(duì)數(shù)得到b的值答案:AD13.信息熵是對(duì)概率空間的整個(gè)系統(tǒng)描述,這里的概率空間描述正確的是:A、包含全部樣本點(diǎn)B、可能有多種劃分C、是核函數(shù)D、解決線性分類問(wèn)題答案:AB14.關(guān)于訓(xùn)練,驗(yàn)證集劃分,下列正確的是:A、不一定需要驗(yàn)證集B、數(shù)據(jù)集數(shù)量較少時(shí),訓(xùn)練集和測(cè)試集比例可以是7:3C、任何數(shù)量的數(shù)據(jù)集,都應(yīng)遵守訓(xùn)練集和測(cè)試集比例7:3的鐵則D、大數(shù)據(jù)量的驗(yàn)證集,可以不遵循訓(xùn)練集和測(cè)試集比例7:3的原則答案:ABD15.以下哪些tensorflow的函數(shù)可以對(duì)張量進(jìn)行邏輯運(yùn)算A、equal()B、not_equal()C、less()D、greater()答案:ABCD16.關(guān)于“熊貓方式”和魚子醬方式的選擇說(shuō)法正確的是A、當(dāng)計(jì)算機(jī)資源足夠時(shí)選擇“魚子醬方式”B、當(dāng)計(jì)算機(jī)資源足夠時(shí)選擇“熊貓方式”C、當(dāng)計(jì)算機(jī)資源缺乏時(shí)選擇“魚子醬方式”D、當(dāng)計(jì)算機(jī)資源缺乏時(shí)選擇“熊貓方式”答案:AD17.從圖像中提取CNN特征,()模型是首選算法。它的缺點(diǎn)在于,參數(shù)量有140M之多,需要更()的存儲(chǔ)空間。但是這個(gè)模型很有研究?jī)r(jià)值A(chǔ)、VGGB、大C、小D、少答案:AB18.Sigmoid激活函數(shù)的用途是:A、解決非線性分類B、數(shù)據(jù)壓縮至(0,1)C、是核函數(shù)D、解決線性分類問(wèn)題答案:AB19.在關(guān)于解決棋類問(wèn)題的方法中A、深藍(lán)屬于符號(hào)主義B、阿爾法go是連接主義C、深藍(lán)是連接主義D、阿爾法go是行為主義答案:AB20.在一個(gè)概率空間,經(jīng)過(guò)不同劃分后,A、信息熵不同B、構(gòu)成新概率空間C、信息熵不變D、不可能有多種劃分答案:AB21.語(yǔ)句a=np.array([1,2,3,45,22,100])S=tf.convert_to_tensor(A,name="sss")的正確斷言是:A、a是np指定的張量B、可以實(shí)現(xiàn)對(duì)tf張量的任意填充C、convert_to_tensor將a轉(zhuǎn)換成tf張量D、S是指向tf張量的結(jié)點(diǎn)答案:ABCD22.語(yǔ)句My_var_times_two=my_var.assign(2*my_var)A、讓my_var對(duì)應(yīng)變量翻倍B、有賦值C、My_var_times_two是一個(gè)節(jié)點(diǎn)D、需要先對(duì)my_var初始化答案:ABCD23.深度學(xué)習(xí)訓(xùn)練中,包含以下步驟;A、準(zhǔn)備樣本集合B、前向傳遞,求出lossC、求出反向的梯度dYD、按照梯度dY,確定的更新參數(shù),更新X,繼續(xù)循環(huán)答案:ABCD24.讀入的圖片,要想用tf卷積,需要A、將圖片轉(zhuǎn)換成張量B、需要按照tf的四元組格式C、需要定義卷積核D、定義步長(zhǎng)答案:ABCD25.如果“connectionism”是AI三大主義之一,則對(duì)connectionism描述正確的有()A、基礎(chǔ)理論是神經(jīng)網(wǎng)絡(luò)B、深度學(xué)習(xí)屬于連接主義C、又稱仿生學(xué)派D、產(chǎn)生在20世紀(jì)50年代產(chǎn)生答案:ABCD26.AlphaGo下圍棋的關(guān)鍵技術(shù)深度學(xué)習(xí)A、決策神經(jīng)網(wǎng)絡(luò)B、評(píng)估神經(jīng)網(wǎng)絡(luò)C、歷史經(jīng)驗(yàn)D、線性代數(shù)答案:AB27.關(guān)于連接主義,正確描述是A、基礎(chǔ)理論是神經(jīng)網(wǎng)絡(luò)B、深度學(xué)習(xí)屬于連接主義C、又稱仿生學(xué)派D、產(chǎn)生在20世紀(jì)50年代產(chǎn)生答案:ABCD28.在語(yǔ)句tf.truncated_normal(U,stddev=0.1)和tf.constant(V)中,正確說(shuō)法是:A、U是shape向量B、V是數(shù)值或列表C、U和V意義相同D、U和V意義不相同答案:ABD29.深度神經(jīng)網(wǎng)絡(luò)的構(gòu)成中,把卷積層放在前面,全連接層放在后面,它們的作用是什么?A、用卷積層提取特征B、pooling的下采樣能夠降低overfittingC、激活函數(shù)relu可以用到卷積層D、全連接層只能有一層答案:ABC30.下面幾個(gè)參數(shù)中,不屬于卷積核的參數(shù)是A、步長(zhǎng)B、填充C、輸入通道D、輸出通道答案:AB31.在卷積神經(jīng)網(wǎng)絡(luò)中,隨機(jī)生成的卷積核后:A、個(gè)別一些卷積核對(duì)特征提取幾乎無(wú)貢獻(xiàn)B、每個(gè)卷積核對(duì)特定特征進(jìn)行提取C、有信號(hào)共振的原理D、特征最后形成編碼,送入全連接網(wǎng)絡(luò)答案:ABCD32.在AI領(lǐng)域,圖像識(shí)別技術(shù)經(jīng)常會(huì)應(yīng)用到好多場(chǎng)景,比如應(yīng)用案例有?A、人臉檢測(cè)B、表情判斷C、動(dòng)作識(shí)別D、無(wú)人駕駛、車牌識(shí)別答案:ABCD33.隨機(jī)梯度下降的特點(diǎn)是:A、mini-batch大小為1B、每次迭代有可能原理最優(yōu)解C、永遠(yuǎn)不會(huì)收斂D、不能使用向量化加速答案:ABCD34.能夠跳出局部最優(yōu)解的算法有:A、AdamB、MomentumC、RMSpropD、Lasso答案:ABC35.()變換在數(shù)字圖像處理中通常是對(duì)于圖像的()提取A、BGRB、歐氏距離C、骨架D、RGB答案:BC36.借助池化,網(wǎng)絡(luò)存儲(chǔ)可以有效提升存儲(chǔ)的利用率,池化操作通常有幾種?A、平均池化B、卷積C、最大池化D、全連接答案:AC37.關(guān)于行為主義的正確描述是A、基礎(chǔ)理論是控制論B、產(chǎn)生在20世紀(jì)50年代產(chǎn)生C、是仿生昆蟲的D、是研究自組織、自適應(yīng)、自學(xué)習(xí)的答案:ABCD38.關(guān)于深度神經(jīng)網(wǎng)絡(luò)的構(gòu)成,將卷積層放在前面,將全連接層放在后面,它們的作用是A、用卷積層提取特征B、pooling的下采樣能夠降低overfittingC、激活函數(shù)relu可以用到卷積層D、全連接層負(fù)責(zé)分類答案:ABCD39.在循環(huán)神經(jīng)網(wǎng)絡(luò)中,GRU中有幾個(gè)門?A、輸入門B、遺忘門C、重置門D、更新門答案:CD40.搜索參數(shù)的兩種重要方式是A、沒(méi)有足夠計(jì)算資源,通過(guò)每天觀察,不斷調(diào)整參數(shù)B、同時(shí)試驗(yàn)多種模型,獲得學(xué)習(xí)曲線C、沒(méi)有足夠計(jì)算資源,通過(guò)試驗(yàn)多種模型,獲得學(xué)習(xí)曲線D、擁有足夠資源時(shí),通過(guò)每天觀察一個(gè)參數(shù),來(lái)進(jìn)行調(diào)整答案:AB41.分類任務(wù)的損失函數(shù),可以是:A、信息熵B、最小二乘平方損失C、距離模型D、概率模型答案:ABCD42.支持向量機(jī)SVM算法能夠解決非線性分類,是通過(guò)那些措施?A、核函數(shù)B、線性分類C、增加數(shù)據(jù)維度D、激活函數(shù)答案:ABC43.數(shù)和矩陣相乘在函數(shù)和矩陣與矩陣相乘的函數(shù)分別是?A、tf.multiply(x2,y2)B、tf.matmul(x,y)C、tf.equalD、tf.cast答案:AB44.梯度為0的點(diǎn)可以是A、局部最優(yōu)解B、全局最優(yōu)解C、鞍點(diǎn)D、轉(zhuǎn)折點(diǎn)答案:ABC45.所謂函數(shù)的另一種描述是:A、它是一個(gè)集合B、可以看成一個(gè)映射C、一個(gè)概率空間D、一個(gè)線性空間答案:AB46.Mini-batch比較好的取值有A、16B、32C、64D、128答案:ABCD47.神經(jīng)風(fēng)格遷移過(guò)程包括?A、創(chuàng)建網(wǎng)絡(luò)B、損失函數(shù)最小化C、梯度下降過(guò)程LOSS最小化D、數(shù)據(jù)清洗答案:ABC48.在tensorflow平臺(tái)中,能實(shí)現(xiàn)卷積運(yùn)算的函數(shù)是:A、tf.nn.conv2dB、tf.nn.depthwise_conv2dC、tf.nn.convolutionD、tf.random_normal答案:ABC49.關(guān)于符號(hào)主義,正確描述是A、又稱邏輯主義B、又稱心理學(xué)派C、基礎(chǔ)理論是數(shù)理邏輯D、是研究生物的答案:ABC50.Tensorflow中,哪些運(yùn)算結(jié)果為TrueA、tf.equal(1.0,1)B、tf.equal(1.0,1.0)C、tf.equal(0,False)D、tf.equal(1,False)答案:ABC51.范數(shù),在()、()及相關(guān)的數(shù)學(xué)領(lǐng)域,范數(shù)是一個(gè)函數(shù),是矢量空間內(nèi)的所有矢量賦予非零的正長(zhǎng)度或大小。A、線性代數(shù)B、泛函分析C、腐蝕D、膨脹答案:AB52.關(guān)于正則化的正確說(shuō)法有:A、要求在損失函數(shù)加正則化項(xiàng)B、是強(qiáng)制將w更新進(jìn)行截止C、會(huì)減少過(guò)擬合D、會(huì)增加過(guò)擬合答案:ABC53.人工智能被分為三大學(xué)派或者三大主義,請(qǐng)從以下選項(xiàng)中選擇出()?A、symbolicismB、connectionismC、actionismD、機(jī)器學(xué)習(xí)答案:ABC54.(Non-maximumsuppression,NMS)的本質(zhì)是?A、搜索局部極大值B、抑制非極大值元素C、尋找出最小值D、尋找出閾值答案:AB55.由深度神經(jīng)網(wǎng)絡(luò)構(gòu)成的網(wǎng)絡(luò)結(jié)構(gòu)中,其構(gòu)成通常會(huì)包括那些層?A、輸入層B、卷積層(激活函數(shù))C、池化層D、全連接層答案:ABCD56.函數(shù)conv2d()有好幾個(gè)參數(shù)…,對(duì)其參數(shù)描述正確的下面選項(xiàng)有那些?A、步長(zhǎng)在高度方向和寬度方向均為stridesB、填充圖像邊緣,使圖像尺寸不變C、input是待卷積的數(shù)據(jù)D、filter是卷積核答案:ABCD57.人臉檢測(cè)系統(tǒng)中,檢測(cè)出人臉后,可對(duì)人臉進(jìn)行分析,獲得()等72個(gè)關(guān)鍵點(diǎn)A、眼B、口C、鼻D、輪廓答案:ABCD58.Tf中能實(shí)現(xiàn)兩個(gè)向量代數(shù)運(yùn)算的語(yǔ)句是A、c=tf.greater(A,b)B、a=tf.subtract(A,b)C、b=tf.Equal(A,b)D、d=tf.matmul(A,b)答案:BD59.張量數(shù)學(xué)運(yùn)算主要有A、標(biāo)量運(yùn)算B、向量運(yùn)算C、矩陣運(yùn)算D、廣播處理答案:ABCD60.tensorflow2.0中常見(jiàn)的兩種數(shù)據(jù)為A、變量B、常量C、占位符D、全是答案:AB61.邏輯回歸S型曲線描述正確的是:A、輸出結(jié)果是-1~+1B、0.5是分類的閾值C、輸出的結(jié)果為正類別概率D、導(dǎo)數(shù)范圍為0~0.25答案:BCD62.涉及到1*1卷積的網(wǎng)絡(luò)模型有A、lenetB、alexnetC、resnetD、inception答案:CD63.屬于pytorch中常用的損失函數(shù)有:A、nn.MSELossB、nn.CrossEntropyLossC、nn.L1LossD、nn.BCEWithLogitsLoss答案:ABCD64.計(jì)算圖創(chuàng)建中包含的流程有A、創(chuàng)建日志B、開啟autograph跟蹤C(jī)、執(zhí)行autographD、將計(jì)算圖信息寫入日志答案:ABCD65.Keras中循環(huán)相關(guān)的層有A、LSTMB、EmbeddingC、SimpleRNND、LSTMCell:LSTM答案:ABCD66.以下可以連續(xù)求導(dǎo)的幾乎函數(shù)有A、reluB、sigmoidC、tanhD、dropout答案:BC67.對(duì)于不規(guī)則的切片提取,可以使用A、torch.index_selectB、torch.masked_selecC、torch.takeD、torch.iloc答案:ABC68.LSTM中擁有的門是:A、遺忘門B、輸入門C、輸出門D、更新門答案:ABC69.內(nèi)置fit函數(shù)支持()類型數(shù)據(jù)A、numpyarrayB、tf.data.DatasetC、PythongeneratorD、以上都對(duì)答案:ABCD70.可以處理深度過(guò)擬合問(wèn)題的方式有A、數(shù)據(jù)增強(qiáng)B、dropoutC、L2正則D、批量歸一化答案:ABCD71.pytorch和維度處理相關(guān)的是A、sizeB、viewC、reshapeD、forward答案:ABC72.訓(xùn)練模型的三種方式:A、內(nèi)置fitB、內(nèi)置train_on_batchC、自定義訓(xùn)練循環(huán)D、內(nèi)置pile答案:ABC73.常用的循環(huán)網(wǎng)絡(luò)相關(guān)層有:A、nn.EmbeddingB、nn.LSTMC、nn.GRUD、nn.RNN答案:ABCD74.具有激活功能的函數(shù)有A、reluB、softmaxC、sigmoidD、tanh答案:ABCD75.張量結(jié)構(gòu)操作A、張量創(chuàng)建B、索引切片C、維度變換D、合并分割答案:ABCD76.keras.optimizers子模塊中包含的優(yōu)化方式有A、SGDB、AdagradC、RMSpropD、Nadam答案:ABCD77.比alexnet網(wǎng)絡(luò)性能好的網(wǎng)絡(luò)有A、lenetB、alexnetC、resnetD、inception答案:CD78.不涉及隱藏層時(shí),分類算法中,會(huì)用到激活函數(shù)有A、reluB、tanhC、softmaxD、sigmoid答案:CD79.性能優(yōu)于alexnet的網(wǎng)絡(luò)有:A、LeNetB、VGG16C、ResNetD、Inception答案:BCD80.writer.add_scalar僅能對(duì)標(biāo)量的值的變化進(jìn)行可視化,一般用于()分析A、損失B、評(píng)估指標(biāo)C、權(quán)重D、截距答案:AB81.二分類邊界線描述正確的是A、正類別概率為0.5B、z=0C、正類別概率為0D、z=1答案:AB82.使用到平均池化的cnn網(wǎng)絡(luò)的有A、lenetB、alexnetC、resnetD、Inception答案:CD83.獨(dú)熱編碼的特點(diǎn)有A、每一行只有一個(gè)1B、1所在的位置下標(biāo)就是標(biāo)簽C、標(biāo)簽有幾種,每個(gè)向量的長(zhǎng)度就是多少D、適用于多分類交叉熵計(jì)算答案:ABCD84.做作為分類損失函數(shù)的有A、binary_crossentropyB、categorical_crossentropyC、sparse_categorical_crossentropyD、hinge答案:ABC解析:D為SVM中的合頁(yè)損失85.長(zhǎng)短期記憶中的門有A、遺忘門B、輸入門C、輸出門D、更新門答案:ABC86.Keras.pile中可以作為metrics的有A、mseB、accuracyC、sgdD、bgd答案:AB87.Keras中的基礎(chǔ)層有A、DenseB、BatchNormalizationC、SpatialDropout2DD、DenseFeature答案:ABCD88.pytorch中用于向量計(jì)算的函數(shù)是A、sumB、meanC、minD、std答案:ABCD89.神經(jīng)網(wǎng)絡(luò)層數(shù)越多,就會(huì)產(chǎn)生什么效果A、算法精度提升B、梯度消失風(fēng)險(xiǎn)越大C、計(jì)算時(shí)間越長(zhǎng)D、參數(shù)越多答案:ABCD90.數(shù)據(jù)管道中可以使用獲取數(shù)據(jù)的方式有A、from_tensor_slicesB、read_csvC、make_csv_datasetD、list_files答案:ACD91.keras中fit函數(shù)的參數(shù)有A、dataB、labelsC、epochsD、batch_size答案:ABCD92.不使用全連接處理序列問(wèn)題的原因是A、時(shí)間步不能確定B、模型太簡(jiǎn)單C、只能處理分類D、算法精度不足答案:ABD93.pytorch求導(dǎo)的方式可以是:A、backwardB、autograd.gradC、自動(dòng)微分和優(yōu)化器D、梯度磁帶答案:ABC94.需要獨(dú)熱的數(shù)據(jù)類型有A、多分類標(biāo)簽B、離散特征C、時(shí)間步單詞D、連續(xù)值答案:ABC95.可以用于卷積網(wǎng)絡(luò)處理分類的是A、最大池化B、平均池化C、全連接D、卷積答案:BC96.可以啟動(dòng)tensorboard的方式有:A、命令行中執(zhí)行tensorboard--logdir./data/tensorboardB、notebook.start("--logdir./data/tensorboard")C、notebook.list()D、load_exttensorboard答案:AB97.可以運(yùn)用循環(huán)網(wǎng)絡(luò)的類型有A、視頻B、音樂(lè)C、對(duì)話D、文章創(chuàng)作答案:ABCD98.能進(jìn)行正則化功能的處理有A、dropoutB、l1C、l2D、數(shù)據(jù)增強(qiáng)答案:ABCD99.tensorflow2.0求最小值可以使用A、梯度詞袋B、優(yōu)化器C、梯度下降D、正規(guī)方程解答案:ABCD100.pytorch張量合并的函數(shù)是A、catB、stackC、splitD、shape答案:AB101.下列屬于序列處理多對(duì)一的場(chǎng)景是A、圖像預(yù)測(cè)B、情感分類C、語(yǔ)音翻譯D、寫唐詩(shī)答案:AB102.Adagrad優(yōu)化器需要執(zhí)行的步驟是A、計(jì)算梯度B、累計(jì)平方梯度C、計(jì)算更新D、應(yīng)用更新答案:ABCD103.tensorflow2.0常用的三種計(jì)算圖是A、靜態(tài)計(jì)算圖B、動(dòng)態(tài)計(jì)算圖C、AutographD、4維動(dòng)態(tài)圖答案:ABC判斷題1.在卷積神經(jīng)網(wǎng)絡(luò)中實(shí)施填充是一件十分重要的事情,如果沒(méi)有填充,邊緣區(qū)域的像素值基本不會(huì)受到卷積層的影響A、正確B、錯(cuò)誤答案:A2.風(fēng)格遷移可以被卷積神經(jīng)網(wǎng)絡(luò)不同激活的內(nèi)部相互關(guān)系所捕捉到。A、正確B、錯(cuò)誤答案:A3.學(xué)習(xí)率(Learningrate)作為監(jiān)督學(xué)習(xí)以及深度學(xué)習(xí)中重要的超參,其決定著目標(biāo)函數(shù)能否收斂到局部最小值以及何時(shí)收斂到最小值。合適的學(xué)習(xí)率能夠使目標(biāo)函數(shù)在合適的時(shí)間內(nèi)收斂到局部最小值。A、正確B、錯(cuò)誤答案:A4.Frobenius范數(shù)不是一種矩陣范數(shù)A、正確B、

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論