《人工智能深度學(xué)習(xí)技術(shù)》考試復(fù)習(xí)題庫大全-下(多選、判斷題部分)_第1頁
《人工智能深度學(xué)習(xí)技術(shù)》考試復(fù)習(xí)題庫大全-下(多選、判斷題部分)_第2頁
《人工智能深度學(xué)習(xí)技術(shù)》考試復(fù)習(xí)題庫大全-下(多選、判斷題部分)_第3頁
《人工智能深度學(xué)習(xí)技術(shù)》考試復(fù)習(xí)題庫大全-下(多選、判斷題部分)_第4頁
《人工智能深度學(xué)習(xí)技術(shù)》考試復(fù)習(xí)題庫大全-下(多選、判斷題部分)_第5頁
已閱讀5頁,還剩109頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

PAGEPAGE1《人工智能深度學(xué)習(xí)技術(shù)》考試復(fù)習(xí)題庫大全-下(多選、判斷題部分)多選題1.在深度神經(jīng)網(wǎng)絡(luò)中,如果是填充后求卷積,圖像尺寸保持不變,以下哪些參數(shù)是正確的A、以0填充一圈B、以1填充一圈C、步長(zhǎng)為1D、圖像尺寸變小答案:AC2.語句train_step.run(feed_dict={x:batch[0],y_actual:batch[1],keep_prob:0.5})這條語句的意義:A、train_step必須是優(yōu)化器B、feed_dict接收訓(xùn)練集和標(biāo)簽集。C、要求百分之五十的神經(jīng)元參與訓(xùn)練。D、這是訓(xùn)練過程的入口。答案:ABCD3.不能實(shí)現(xiàn)總體求和、總體平均的函數(shù)是:A、tf.reduce_sumB、tf.multiplyC、tf.reduce_meanD、tf.norm答案:BD4.神經(jīng)風(fēng)格遷移的損失函數(shù)包含哪幾部分?A、內(nèi)容圖像的損失函數(shù)B、風(fēng)格圖像的損失函數(shù)C、交叉熵?fù)p失函數(shù)D、均方差損失函數(shù)答案:AB5.在tensorflow平臺(tái)中,能實(shí)現(xiàn)卷積運(yùn)算的函數(shù)是:A、tf.nn.conv2dB、tf.nn.depthwise_conv2dC、tf.nn.convolutionD、tf.random_normal答案:ABC6.語句中:tensorflow.truncated_normal(shape,mean,stddev)以下說法正確的是A、shape是張量形狀B、正態(tài)隨機(jī)數(shù)填充C、隨機(jī)數(shù)需截?cái)郉、方差是stddev答案:ABC7.對(duì)于tf.nn.SoftMax函數(shù),它可以:A、用于多類別分類B、映射到概率空間C、壓縮數(shù)據(jù)D、用于卷積層答案:ABC8.Mini-batch比較好的取值有A、16B、32C、64D、128答案:ABCD9.程序語句例如conv2d(input_d,filter_d,strides=[1,3,3,1],padding='SAME'),這條語句的含意理解為()?A、步長(zhǎng)在高度方向和寬度方向均為3B、填充圖像邊緣,使圖像尺寸不變C、input_d是待卷積的數(shù)據(jù)D、進(jìn)行卷積操作答案:ABCD10.TensorFlow軟件庫可以輕松地將計(jì)算工作部署到多種平臺(tái)()A、CPUB、GPUC、TPUD、SDK答案:ABC11.BPTT算法是針對(duì)循環(huán)層的訓(xùn)練算法,它的基本原理和BP算法是一樣的,也包含同樣的幾個(gè)步驟:A、前向計(jì)算每個(gè)神經(jīng)元的輸出值B、反向計(jì)算每個(gè)神經(jīng)元的誤差項(xiàng)值,它是誤差函數(shù)E對(duì)神經(jīng)元j的加權(quán)輸入的偏導(dǎo)數(shù)C、計(jì)算每個(gè)權(quán)重的梯度D、最后再用隨機(jī)梯度下降算法更新權(quán)重答案:ABCD12.對(duì)于w_data=np.mat([[1.0,3.0]]).T生成的張量維度是A、維度是(2,1)的張量B、是向量,值為[1,3]C、是矩陣[[1],[3]]D、是向量[[1,3]]的轉(zhuǎn)置答案:ACD13.語句train_acc=accuracy.eval(feed_dict={x:batch[0],y_actual:batch[1],keep_prob:1.0})A、是訓(xùn)練過程B、是測(cè)試過程C、輸入訓(xùn)練集合D、輸入dropout比例答案:ACD14.關(guān)于梯度消失,說法正確的是:A、可以通過激活函數(shù)防止梯度消失B、梯度消失對(duì)神經(jīng)網(wǎng)絡(luò)無影響C、盡量避免梯度消失D、梯度消失反向傳播時(shí),由于梯度值過小或消失的現(xiàn)象答案:ACD15.哪些是tensorflow的算術(shù)運(yùn)算函數(shù)?A、add()B、subtract()C、multiply()D、div()答案:ABCD16.神經(jīng)風(fēng)格遷移過程包括?A、創(chuàng)建網(wǎng)絡(luò)B、損失函數(shù)最小化C、梯度下降過程LOSS最小化D、數(shù)據(jù)清洗答案:ABC17.Tf.train.AdamOptimizer(1e-4).minimize(cross_entropy)意義:A、定義學(xué)習(xí)步長(zhǎng)B、優(yōu)化器C、交叉熵?fù)p失函數(shù)D、開始訓(xùn)練答案:ABC18.TensorFlow框架可用于多個(gè)領(lǐng)域,例如:A、語音識(shí)別B、NLPC、計(jì)算機(jī)視覺D、自動(dòng)駕駛答案:ABCD19.可以理解為壓縮求和,常用于降維的函數(shù)和計(jì)算張量的各個(gè)維度上的元素的平均值的函數(shù)分別是?A、tf.reduce_sumB、tf.multiplyC、tf.reduce_meanD、tf.norm答案:AC20.Batch歸一化步驟A、求每個(gè)訓(xùn)練批次數(shù)據(jù)的均值B、求每個(gè)訓(xùn)練批次數(shù)據(jù)的方差C、使用求得的均值和方差對(duì)該批次的訓(xùn)練數(shù)據(jù)做歸一化,獲得0-1分布D、尺度變換和偏移答案:ABCD21.以下屬于激活函數(shù)的有:A、ReluB、dropoutC、sigmoidD、softmax答案:ACD22.字節(jié)邏輯運(yùn)算10110111和01010101的異或操作:A、結(jié)果是10110110B、結(jié)果是11100010C、規(guī)律是見同為0,見異為1D、結(jié)果是11100011答案:BC23.張量語句tf.concat()是:A、合并張量B、與張量維度有關(guān)C、實(shí)現(xiàn)代數(shù)運(yùn)算D、輸入數(shù)據(jù)是一個(gè)張量答案:AB24.Batch歸一化會(huì)起作用的原因包括A、通過歸一化所有的輸入特征值,以獲得類似范圍的值,加速學(xué)習(xí)B、將參數(shù)歸一化可以減緩學(xué)習(xí)速率C、可以使權(quán)重比你的網(wǎng)絡(luò)更滯后或更深D、可以使權(quán)重比你的網(wǎng)絡(luò)更超前或更深答案:AC25.深度學(xué)習(xí)網(wǎng)絡(luò)的卷積部分的組成有A、卷積層B、RELUC、POOLING層D、pedding答案:ABC26.神經(jīng)網(wǎng)絡(luò)中超參數(shù)調(diào)試方法A、隨機(jī)選擇點(diǎn)來試驗(yàn)超參數(shù)效果B、當(dāng)你給超參數(shù)取值時(shí),另一個(gè)慣例是采用由粗糙到精細(xì)的策略。C、只調(diào)試容易的D、給定默認(rèn)值即可答案:AB27.計(jì)算機(jī)視覺特征檢測(cè)點(diǎn)檢測(cè)中,點(diǎn)特征的優(yōu)勢(shì)是?A、點(diǎn)特征屬于局部特征,對(duì)遮擋有一定魯棒性B、通常圖像中可以檢測(cè)到成百上千的點(diǎn)特征,以量取勝C、點(diǎn)特征有較好的辨識(shí)性,不同物體上的點(diǎn)容易區(qū)分D、點(diǎn)特征提取通常速度很快答案:ABCD28.關(guān)于符號(hào)主義,正確描述是A、又稱邏輯主義B、又稱心理學(xué)派C、基礎(chǔ)理論是數(shù)理邏輯D、是研究生物的答案:ABC29.關(guān)于連接主義,正確描述是A、基礎(chǔ)理論是神經(jīng)網(wǎng)絡(luò)B、深度學(xué)習(xí)屬于連接主義C、又稱仿生學(xué)派D、產(chǎn)生在20世紀(jì)50年代產(chǎn)生答案:ABCD30.AlphaGo下圍棋的關(guān)鍵技術(shù)深度學(xué)習(xí)A、決策神經(jīng)網(wǎng)絡(luò)B、評(píng)估神經(jīng)網(wǎng)絡(luò)C、歷史經(jīng)驗(yàn)D、線性代數(shù)答案:AB31.如果用貝努力實(shí)驗(yàn)概率事件A,進(jìn)行參數(shù)估計(jì),參數(shù)是:P(A)=p(1)^m*p(0)^nA、讓A的可能概率最大B、參數(shù)就是p(1)或p(0)C、讓p(1)最大D、讓m最大答案:AB32.對(duì)于卷積層網(wǎng)絡(luò)的tf.nn.dropout,以下說法正確的是?A、在全連接層B、停止一些節(jié)點(diǎn)更新C、防止過擬合D、訓(xùn)練初給出答案:ABCD33.從圖像中提取CNN特征,()模型是首選算法。它的缺點(diǎn)在于,參數(shù)量有140M之多,需要更()的存儲(chǔ)空間。但是這個(gè)模型很有研究?jī)r(jià)值A(chǔ)、VGGB、大C、小D、少答案:AB34.在圖像處理中,在顏色RGB建立三維向量的距離空間,能A、實(shí)現(xiàn)顏色分類B、計(jì)算兩種顏色的差別C、計(jì)算兩個(gè)圖像差別D、與圖像內(nèi)容有關(guān)答案:ABC35.在AI領(lǐng)域,圖像識(shí)別技術(shù)經(jīng)常會(huì)應(yīng)用到好多場(chǎng)景,比如應(yīng)用案例有?A、人臉檢測(cè)B、表情判斷C、動(dòng)作識(shí)別D、無人駕駛、車牌識(shí)別答案:ABCD36.哪些屬于序列數(shù)據(jù)A、語音識(shí)別B、情感分類C、機(jī)器翻譯D、DNA序列分析答案:ABCD37.以下哪些詞向量之間的差值非常接近?A、男人,女人B、國王,王后C、父親,母親D、父親,兒子答案:ABC38.人臉檢測(cè)的圖片通常有那幾種類型?A、LIVE表示生活照;B、IDCARD表示身份證芯片照;C、WATERMARK表示帶水印證件照;D、CERT表示證件照片;答案:ABCD39.深度學(xué)習(xí)的興起主要得益于三個(gè)方面的原因A、新方法的出現(xiàn),為神經(jīng)網(wǎng)絡(luò)深度的拓展解決了梯度彌散的問題;B、大量已標(biāo)注數(shù)據(jù)的出現(xiàn),為神經(jīng)網(wǎng)絡(luò)的訓(xùn)練做好了數(shù)據(jù)準(zhǔn)備;C、GPU(圖形處理器)的使用,為卷積計(jì)算提供了高速解決方案D、深度學(xué)習(xí)等于人工智能答案:ABC40.以下屬于梯度下降的有A、BGDB、SGDC、Mini-BatchD、dropout答案:ABC41.對(duì)數(shù)坐標(biāo)下,在[a,b]區(qū)間隨機(jī)隨機(jī)均勻地給r取值的說法正確的是A、取最小值的對(duì)數(shù)得到a的值B、取最小值的對(duì)數(shù)得到b的值C、取最大值的對(duì)數(shù)得到a的值D、取最大值的對(duì)數(shù)得到b的值答案:AD42.下面幾個(gè)參數(shù)中,不屬于卷積核的參數(shù)是A、步長(zhǎng)B、填充C、輸入通道D、輸出通道答案:AB43.深度學(xué)習(xí)中通過動(dòng)物來形容訓(xùn)練模型有A、熊貓法B、魚子醬法C、貓狗法D、大魚法答案:AB44.Anaconda包括()以及一大堆安裝好的工具包,比如:numpy、pandas等A、CondaB、PythonC、OPENCVD、TPU答案:AB45.語句t=tf.ones_like(a)的幾個(gè)意義是A、將t節(jié)點(diǎn)內(nèi)容用a替換B、t節(jié)點(diǎn)對(duì)應(yīng)張量維度和A相同C、t對(duì)應(yīng)張量值為1D、a需要預(yù)先初始化答案:BCD46.以下說法,關(guān)于tensorflow描述正確的是A、集成了主流的機(jī)器學(xué)習(xí)算法B、支持分布式部署C、支持Python語言開發(fā)D、不支持深度學(xué)習(xí)答案:ABC47.下面哪些序列數(shù)據(jù)屬于多對(duì)多(多個(gè)輸入,多個(gè)輸出)的關(guān)系A(chǔ)、音樂生成B、情感分類C、編碼器-解碼器D、機(jī)器翻譯答案:CD48.()變換在數(shù)字圖像處理中通常是對(duì)于圖像的()提取A、BGRB、歐氏距離C、骨架D、RGB答案:BC49.神經(jīng)網(wǎng)絡(luò)解決非線性分類,是通過:A、構(gòu)造神經(jīng)網(wǎng)絡(luò)B、用激活函數(shù)C、訓(xùn)練權(quán)重矩陣D、讓損失最大化答案:ABC50.范數(shù),在()、()及相關(guān)的數(shù)學(xué)領(lǐng)域,范數(shù)是一個(gè)函數(shù),是矢量空間內(nèi)的所有矢量賦予非零的正長(zhǎng)度或大小。A、線性代數(shù)B、泛函分析C、腐蝕D、膨脹答案:AB51.在tf語句中,a=tf.Variable(25);執(zhí)行sess.run(A.語句以后,以下說法正確的是:A、執(zhí)行一個(gè)操作節(jié)點(diǎn)B、從python操作tf模塊C、執(zhí)行tf內(nèi)的python模塊D、實(shí)現(xiàn)python引用tf源代碼答案:AB52.在語句tf.truncated_normal(U,stddev=0.1)和tf.constant(V)中,正確說法是:A、U是shape向量B、V是數(shù)值或列表C、U和V意義相同D、U和V意義不相同答案:ABD53.關(guān)于歸一化描述正確的是:A、歸一化可以預(yù)防過擬合B、歸一化沒有實(shí)質(zhì)作用C、歸一化將所有數(shù)據(jù)樣本值縮放到0-1之間D、歸一化是一種激活函數(shù)答案:AC54.在tensorflow中,tf.reshape函數(shù)的參數(shù)是(tensor,shape,name=None),以下哪些描述是正確的?A、函數(shù)的作用是將tensor變換為參數(shù)shape形式B、其中的shape為一個(gè)列表形式C、name可省略D、-1所代表的含義是我們不用親自去指定這一維的大小,函數(shù)會(huì)自動(dòng)進(jìn)行計(jì)算答案:ABCD55.(Non-maximumsuppression,NMS)的本質(zhì)是?A、搜索局部極大值B、抑制非極大值元素C、尋找出最小值D、尋找出閾值答案:AB56.關(guān)于卷積核是個(gè)張量,本身的參數(shù),它包括有:A、高度B、寬度C、輸入通道D、輸出通道答案:ABCD57.Tensorflow中,函數(shù)tensorflow.nn.softmax_cross_entropy_with_logits()的功能描述正確的是A、在卷積層B、進(jìn)行優(yōu)化C、用信息熵D、一定全連接層答案:BCD58.要權(quán)釋機(jī)器學(xué)習(xí)/深度學(xué)習(xí)在人工智能體系中的作用,通常從機(jī)器感知、()、()三方面來進(jìn)行A、感知B、理解C、決策D、證明答案:BC59.對(duì)于矩陣A可以求逆,那么A必須A、是方陣B、行列式不為零C、任意矩陣D、行列式為1答案:AB60.以下可以處理Mnist數(shù)據(jù)集的分類算法有A、KNNB、邏輯回歸C、卷積神經(jīng)網(wǎng)絡(luò)D、k-mean答案:ABC61.遷移學(xué)習(xí)是一種機(jī)器學(xué)習(xí)的方法,包含以下兩種開發(fā)方法?A、開發(fā)模型的方法B、預(yù)訓(xùn)練模型的方法C、數(shù)據(jù)清洗D、似然變換答案:AB62.深度學(xué)習(xí)會(huì)用到()的學(xué)習(xí)方法來訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)。A、有監(jiān)督B、無監(jiān)督C、行為主義D、機(jī)器學(xué)習(xí)答案:AB63.在關(guān)于解決棋類問題的方法中A、深藍(lán)屬于符號(hào)主義B、阿爾法go是連接主義C、深藍(lán)是連接主義D、阿爾法go是行為主義答案:AB64.搜索參數(shù)的兩種重要方式是A、沒有足夠計(jì)算資源,通過每天觀察,不斷調(diào)整參數(shù)B、同時(shí)試驗(yàn)多種模型,獲得學(xué)習(xí)曲線C、沒有足夠計(jì)算資源,通過試驗(yàn)多種模型,獲得學(xué)習(xí)曲線D、擁有足夠資源時(shí),通過每天觀察一個(gè)參數(shù),來進(jìn)行調(diào)整答案:AB65.語句tf.transpose(x).eval()的意義是:A、對(duì)x進(jìn)行轉(zhuǎn)置B、從tf環(huán)境中獲取x的數(shù)據(jù)交給python環(huán)境C、不對(duì)x轉(zhuǎn)置D、不能獲知x的內(nèi)容答案:AB66.數(shù)學(xué)建模過程中,引入距離空間,可以:A、度量任意兩個(gè)點(diǎn)的接近程度B、可以實(shí)現(xiàn)線性運(yùn)算C、可以度量點(diǎn)到集合距離D、度量凸集合到凸集合的距離答案:ACD67.反向傳播算法的過程如下:A、初始化聯(lián)結(jié)權(quán)重Wij,對(duì)于輸入的訓(xùn)練樣本,求取每個(gè)節(jié)點(diǎn)輸出和最終輸出層的輸出值B、對(duì)輸出層求取偏導(dǎo)數(shù)C、對(duì)于隱藏層求取偏導(dǎo)數(shù)D、求取輸出誤差對(duì)于每個(gè)權(quán)重的梯度,更新權(quán)重答案:ABCD68.線性變換中,若A是方陣,用A對(duì)線性空間的向量t進(jìn)行變換。其結(jié)果為TA、變換前后向量模有變化B、t角度變化到TC、T也是向量D、T和t維度相同答案:ABCD69.讀入的圖片,要想用tf卷積,需要A、將圖片轉(zhuǎn)換成張量B、需要按照tf的四元組格式C、需要定義卷積核D、定義步長(zhǎng)答案:ABCD70.單個(gè)神經(jīng)元能解決什么問題A、與B、或C、非D、異或答案:ABC71.以下哪些屬于獨(dú)熱編碼?A、[0,1,0,0]B、[0,1,1,0]C、[1,0,0,0]D、[0,0,0,1]答案:ACD72.在卷積神經(jīng)網(wǎng)絡(luò)中,隨機(jī)生成的卷積核后:A、個(gè)別一些卷積核對(duì)特征提取幾乎無貢獻(xiàn)B、每個(gè)卷積核對(duì)特定特征進(jìn)行提取C、有信號(hào)共振的原理D、特征最后形成編碼,送入全連接網(wǎng)絡(luò)答案:ABCD73.PyCharm使用()語言是提高開發(fā)效率的工具A、numpyB、PythonIDEC、PythonD、sklearn答案:BC74.在概率空間,概率事件Ai和概率樣本點(diǎn)ai不同點(diǎn)在于A、樣本點(diǎn)不能再劃分B、事件可以再劃分C、事件可能有多個(gè)樣本D、事件的概率肯定大于等于樣本點(diǎn)概率答案:ABCD75.人臉檢測(cè)項(xiàng)目中,使用的圖片格式通常有那幾種?A、PNGB、JPGC、JPEGD、BMP答案:ABCD76.比較適合循環(huán)神經(jīng)網(wǎng)絡(luò)的應(yīng)用有哪些?A、視頻行為識(shí)別B、實(shí)體名字識(shí)別C、語音識(shí)別D、機(jī)器翻譯答案:ABCD77.使用one-hot方法表示詞匯有什么缺點(diǎn)?A、每個(gè)單詞需要用高維向量來表示,而且只有一個(gè)數(shù)是零,其他都是1,表示冗余,存儲(chǔ)量大B、每個(gè)單詞表示的向量相乘都為零(正交),無法表示詞匯之間的聯(lián)系C、效率非常高D、能夠處理非連續(xù)型數(shù)值特征答案:AB78.所謂函數(shù)的另一種描述是:A、它是一個(gè)集合B、可以看成一個(gè)映射C、一個(gè)概率空間D、一個(gè)線性空間答案:AB79.在tensorflow中,x=tf.cast(u,tf.float32)的意義,說法正確的是A、將隨機(jī)數(shù)賦值給uB、將u內(nèi)數(shù)據(jù)轉(zhuǎn)換成float32C、將u內(nèi)的數(shù)據(jù)進(jìn)行洗牌處理D、實(shí)現(xiàn)類型轉(zhuǎn)化的功能答案:BD80.圖像識(shí)別常用的方案有那些?A、人臉檢測(cè)B、表情判斷C、動(dòng)作識(shí)別D、無人駕駛答案:ABCD81.語句tf.nn.dropout(h_fc1,keep_prob)的意義是A、停止某些節(jié)點(diǎn)更新B、保留百分率為keep_prob的節(jié)點(diǎn)更新C、在全鏈接層有效D、可以停止任意層節(jié)點(diǎn)更新答案:ABCD82.語句tf.variables_initializer語句可以A、初始化一個(gè)變量B、初始化多個(gè)變量C、初始化全部變量D、初始化常量答案:ABC83.深度學(xué)習(xí)訓(xùn)練中,包含以下步驟;A、準(zhǔn)備樣本集合B、前向傳遞,求出lossC、求出反向的梯度dYD、按照梯度dY,確定的更新參數(shù),更新X,繼續(xù)循環(huán)答案:ABCD84.關(guān)于“熊貓方式”和魚子醬方式的選擇說法正確的是A、當(dāng)計(jì)算機(jī)資源足夠時(shí)選擇“魚子醬方式”B、當(dāng)計(jì)算機(jī)資源足夠時(shí)選擇“熊貓方式”C、當(dāng)計(jì)算機(jī)資源缺乏時(shí)選擇“魚子醬方式”D、當(dāng)計(jì)算機(jī)資源缺乏時(shí)選擇“熊貓方式”答案:AD85.手寫體識(shí)別程序經(jīng)常調(diào)用的四個(gè)數(shù)據(jù)集包括以下選項(xiàng)中那幾個(gè)?()A、train-images.idx3-ubyteB、train-labels-idx1-ubyteC、t10k-images.idx3-ubyteD、t10k-labels-idx1-ubyte答案:ABCD86.歸一化的特點(diǎn):A、更容易收斂得到最優(yōu)解B、權(quán)重值較小C、權(quán)重值大D、無特點(diǎn)答案:AB87.Tensorflow實(shí)現(xiàn)cnn模型的訓(xùn)練與使用開發(fā)過程的步驟通常包括()A、準(zhǔn)備樣本集合B、前向傳遞,求出lossC、求出反向的梯度D、按照梯度的反向傳播,更新參數(shù)答案:ABCD88.程序語句tf.nn.dropout(x,keep_prob,noise_shape=None,seed=None,name=None)正確的描述為?A、第一個(gè)參數(shù)x:指輸入。train的時(shí)候才是dropout起作用的時(shí)候B、第二個(gè)參數(shù)keep_prob:設(shè)置神經(jīng)元被選中的概率,在初始化時(shí)keep_prob是一個(gè)占位符C、noise_shape:干擾形狀。此字段默認(rèn)是None,表示第一個(gè)元素的操作都是獨(dú)立D、第五個(gè)參數(shù)name:指定該操作的名字答案:ABCD89.神經(jīng)網(wǎng)絡(luò)中哪些參數(shù)需要調(diào)試A、學(xué)習(xí)率αB、動(dòng)量梯度下降的參數(shù)βC、mini-Batch的大小D、隱藏層數(shù)目答案:ABCD90.以下哪些tensorflow的函數(shù)可以對(duì)張量進(jìn)行邏輯運(yùn)算A、equal()B、not_equal()C、less()D、greater()答案:ABCD91.關(guān)于sigmoid函數(shù),它的性質(zhì)有什么?A、概率平均B、能解決非線性分類問題C、將負(fù)的權(quán)值映射到正值D、將正權(quán)值映射到負(fù)數(shù)答案:BC92.常用的梯度優(yōu)化算法有:A、dropoutB、動(dòng)量梯度下降法C、RMSpropD、Adam答案:BCD93.在深度學(xué)習(xí)中,從結(jié)構(gòu)上說,卷積神經(jīng)網(wǎng)絡(luò)由()和()層構(gòu)成A、卷積層B、全連接層C、圖像濾波層D、邊緣提取層答案:AB94.人工智能被分為三大學(xué)派或者三大主義,請(qǐng)從以下選項(xiàng)中選擇出()?A、symbolicismB、connectionismC、actionismD、機(jī)器學(xué)習(xí)答案:ABC95.在循環(huán)神經(jīng)網(wǎng)絡(luò)中,哪些技術(shù)可以改善梯度消失問題A、LSTMB、GRUC、RNND、BRNN答案:AB96.離散有限個(gè)事件的信息熵是()A、有限的B、無限的C、可能為負(fù)D、可能大于1答案:AD97.人臉檢測(cè)系統(tǒng)中,檢測(cè)出人臉后,可對(duì)人臉進(jìn)行分析,獲得()等72個(gè)關(guān)鍵點(diǎn)A、眼B、口C、鼻D、輪廓答案:ABCD98.定義卷積核W_conv1=weight_variable([5,5,5,32])后A、尺寸5X5B、輸入通道5C、輸出通道32D、有32個(gè)卷積核答案:ABCD99.在程序中y_predict和y_actual的意義A、y_predict來自神經(jīng)網(wǎng)絡(luò)輸出B、y_predict必從softmax函數(shù)出來。C、y_actual從標(biāo)簽集合來的。D、兩者的維度屬性一致。答案:ABCD100.Tf.nn.dropout()是tensorflow里面為了防止或減輕過擬合而使用的函數(shù),它一般用在全連接層,具體的作用是有那些?A、停止某些節(jié)點(diǎn)更新B、保留百分率為keep_prob的節(jié)點(diǎn)更新C、在全鏈接層有效D、可以停止任意層節(jié)點(diǎn)更新答案:ABCD101.卷積后圖像尺寸不變化,對(duì)于Padding的描述,正確的是A、以0填充B、填充厚度是卷積核厚度減1的一半C、步長(zhǎng)為1D、圖像尺寸變小答案:AB102.Momentum算法可以使用()下降A(chǔ)、batchB、mini-batchC、LassoD、Ridge答案:AB103.下面哪些語句哪些函數(shù)是優(yōu)化器?A、tf.train.GradientDescentOptimizer()B、tf.train.AdamOptimizer()C、tf.train.Optimizer()基本的優(yōu)化類D、tf.train.AdadeltaOptimizer()答案:ABCD104.交叉熵為-1/m∑[y(i)log(hθ(x(i)))+(1?y(i))log(1?hθ(x(i)))]A、m是訓(xùn)練輸入元素個(gè)數(shù)B、∑的加和長(zhǎng)度是輸入個(gè)數(shù)C、y(i)來自標(biāo)簽的onehot表D、hθ(x(i))和標(biāo)簽one-hot表維度一致答案:ABCD105.反向算法BP網(wǎng)絡(luò)學(xué)習(xí)包括以下()個(gè)過程A、組成輸入模式由輸入層經(jīng)過隱含層向輸出層的“模式順傳播”過程B、網(wǎng)絡(luò)的期望輸出與實(shí)際輸出之差的誤差信號(hào)由輸出層經(jīng)過隱含層逐層修正連接權(quán)的“誤差逆?zhèn)鞑ァ边^程C、由“模式順傳播”與“誤差逆?zhèn)鞑ァ钡姆磸?fù)進(jìn)行的網(wǎng)絡(luò)“記憶訓(xùn)練”過程D、網(wǎng)絡(luò)趨向收斂即網(wǎng)絡(luò)的總體誤差趨向極小值的“學(xué)習(xí)收斂”過程答案:ABCD106.能實(shí)現(xiàn)總體加和或平均的函數(shù)分別是:A、tf.reduce_sumB、tf.multiplyC、tf.reduce_meanD、tf.norm答案:AC107.Tf中與梯度相關(guān)的函數(shù)是:A、tf.train.GradientDescentOptimizer(0.01).minimize(cross_entropy)B、[db,dW,dx]=tf.gradient(C,[b,w,x])C、gradient=Optimizer.pute_gradients(loss)D、optm=Optimizer.apply_gradients(grads_holder)答案:ABCD108.由深度神經(jīng)網(wǎng)絡(luò)構(gòu)成的網(wǎng)絡(luò)結(jié)構(gòu)中,其構(gòu)成通常會(huì)包括那些層?A、輸入層B、卷積層(激活函數(shù))C、池化層D、全連接層答案:ABCD109.圖像讀寫語句:image0=tf.image.decode_jpeg(value)A、對(duì)Value進(jìn)行解碼B、Value是jpeg格式數(shù)據(jù)C、value是壓縮數(shù)據(jù)D、tf.image是圖像處理類答案:ABCD110.有訓(xùn)練集包含num個(gè)訓(xùn)練樣本,交叉熵在tf中的表述是:A、entropy=-tf.reduce_sum(y_actual*tf.log(y_predict))B、entropy=-tf.reduce_mean(y_actual*tf.log(y_predict))C、entropy=-tf.reduce_max(y_actual*tf.log(y_predict))D、entropy=-tf.reduce_any(y_actual*tf.log(y_predict))答案:AB111.以下哪條tf語句能夠描述損失函數(shù)A、loss=tf.reduce_mean(tf.square(y-y_datA.)B、loss=tf.reduce_sum(tf.square(y-y_datA.)C、loss=tf.reduce_mean(tf.add(y,y_datA.)D、loss=tf.reduce_mean(tf.subtract(y,y_datA.)答案:AB112.Inception網(wǎng)絡(luò)主要是由那幾層構(gòu)成的?()A、卷積層B、激活函數(shù)C、池化層D、全連接層FC答案:ABCD113.CNN的網(wǎng)絡(luò)訓(xùn)練后,形成模塊model,其中數(shù)據(jù)包括A、所有卷積核B、所有的poolingC、連接層權(quán)重D、relu答案:ABCD114.語句a=np.array([1,2,3,45,22,100])S=tf.convert_to_tensor(A,name="sss")的正確斷言是:A、a是np指定的張量B、可以實(shí)現(xiàn)對(duì)tf張量的任意填充C、convert_to_tensor將a轉(zhuǎn)換成tf張量D、S是指向tf張量的結(jié)點(diǎn)答案:ABCD115.以下哪些框架可以用于深度學(xué)習(xí)領(lǐng)域A、caffeB、torchC、tensorflowD、mxnet答案:ABCD116.信息熵是對(duì)概率空間的整個(gè)系統(tǒng)描述,這里的概率空間描述正確的是:A、包含全部樣本點(diǎn)B、可能有多種劃分C、是核函數(shù)D、解決線性分類問題答案:AB117.Logistic回歸又稱logistic(),是一種廣義的(),常用于()等領(lǐng)域A、回歸分析B、線性回歸分析模型C、數(shù)據(jù)挖掘,經(jīng)濟(jì)預(yù)測(cè)D、疾病自動(dòng)診斷答案:ABCD118.例如集合外的一個(gè)點(diǎn),該點(diǎn)到該集合的距離是A、是該點(diǎn)到集合邊界點(diǎn)的最短距離B、是該點(diǎn)到集合內(nèi)所有點(diǎn)的最短距離C、是該點(diǎn)到集合內(nèi)任意一點(diǎn)的距離D、是該點(diǎn)到集合內(nèi)非邊界點(diǎn)的某點(diǎn)的距離答案:AB119.通過試驗(yàn)超參數(shù)的不同取值可以A、選擇對(duì)訓(xùn)練集目標(biāo)而言的最優(yōu)解B、對(duì)于開發(fā)集而言的最優(yōu)解C、超參搜索過程中最想優(yōu)化的東西D、簡(jiǎn)化參數(shù)調(diào)試答案:ABC120.人工智能是解決機(jī)器()的學(xué)科A、感知B、理解C、決策D、證明答案:ABC121.淺層神經(jīng)網(wǎng)絡(luò)與深度神經(jīng)網(wǎng)絡(luò)比較,其區(qū)別之處是?A、淺層結(jié)構(gòu)算法:其局限性在于有限樣本和計(jì)算單元情況下對(duì)復(fù)雜函數(shù)的表示能力有限,針對(duì)復(fù)雜分類問題其泛化能力受到一定制約B、深度學(xué)習(xí)可通過學(xué)習(xí)一種深層非線性網(wǎng)絡(luò)結(jié)構(gòu),實(shí)現(xiàn)復(fù)雜函數(shù)逼近,表征輸入數(shù)據(jù)分布式表示,并展現(xiàn)了強(qiáng)大的從少數(shù)樣本集中學(xué)習(xí)數(shù)據(jù)集本質(zhì)特征的能力。C、深度學(xué)習(xí)多層的好處是可以用較少的參數(shù)表示復(fù)雜的函數(shù)D、深度學(xué)習(xí)的實(shí)質(zhì),是通過構(gòu)建具有很多隱層的機(jī)器學(xué)習(xí)模型和海量的訓(xùn)練數(shù)據(jù),來學(xué)習(xí)更有用的特征,從而最終提升分類或預(yù)測(cè)的準(zhǔn)確性。答案:ABCD122.關(guān)于正則化的正確說法有:A、要求在損失函數(shù)加正則化項(xiàng)B、是強(qiáng)制將w更新進(jìn)行截止C、會(huì)減少過擬合D、會(huì)增加過擬合答案:ABC123.Inception網(wǎng)絡(luò)都是頂尖的網(wǎng)絡(luò)代表,Inception細(xì)分種類有那幾種?()A、Inceptionv1B、Inceptionv2C、Inceptionv3,Inceptionv4D、Inception-ResNet答案:ABCD124.通常,使用TensorFlow框架進(jìn)行開發(fā),可以應(yīng)用在實(shí)際領(lǐng)域和應(yīng)用場(chǎng)景有那些?A、語音識(shí)別B、自然語言處理NLPC、計(jì)算機(jī)視覺D、風(fēng)格遷移廣告答案:ABCD125.關(guān)于正則化,描述正確的是:A、正則化可以防止欠擬合B、正則化可以防止過擬合C、dropout具有正則化效果D、relu函數(shù)具有正則化效果答案:BC126.以下多個(gè)選項(xiàng)其中屬于AI描述其主要的三大主義或?qū)W派的是?A、機(jī)器學(xué)習(xí)B、連接主義C、行為主義D、符號(hào)主義答案:BCD127.Tf中能實(shí)現(xiàn)兩個(gè)向量代數(shù)運(yùn)算的語句是A、c=tf.greater(A,b)B、a=tf.subtract(A,b)C、b=tf.Equal(A,b)D、d=tf.matmul(A,b)答案:BD128.對(duì)于集合外一個(gè)點(diǎn),到該集合的距離是A、是該點(diǎn)到集合邊界點(diǎn)的最短距離B、是該點(diǎn)到集合內(nèi)所有點(diǎn)的最短距離C、是該點(diǎn)到集合內(nèi)任意一點(diǎn)的距離D、是該點(diǎn)到集合內(nèi)非邊界點(diǎn)的某點(diǎn)的距離答案:AB129.定義卷積核W_conv1=weight_variable([5,5,5,10])后A、尺寸5X5B、輸入通道5C、輸出通道5D、有10個(gè)卷積核答案:ABD130.Tf.slice(image,input,size)從,image取出局部A、image是輸入張量B、input是定位點(diǎn)C、size是取出數(shù)據(jù)描述D、image只能有四維張量答案:ABC131.在循環(huán)神經(jīng)網(wǎng)絡(luò)中,GRU中有幾個(gè)門?A、輸入門B、遺忘門C、重置門D、更新門答案:CD132.要抽象和展示MathematicalModel通常會(huì)使用()等方式A、數(shù)學(xué)符號(hào)B、數(shù)學(xué)式子C、程序D、圖形答案:ABCD133.Tf.nn.conv2d(x,W,name1=[1,1,1,1],name2='SAME')其中name1和name2對(duì)應(yīng)單詞是:A、name1是strideB、name2是paddingC、name1是paddingD、name2是stride答案:AB134.訓(xùn)練語句mnist=input_data.read_data_sets("MNIST_data/",one_hot=True)是指:A、如果本地有mnist就從本地讀入B、如果本地沒有mnist就從網(wǎng)上讀入C、將訓(xùn)練數(shù)據(jù)轉(zhuǎn)換成one_hot表D、將標(biāo)簽數(shù)據(jù)轉(zhuǎn)換成one_hot表答案:ABD135.在tf中,與全局變量初始化相關(guān)的操作語句是A、init_op=tf.global_variables_initializer()B、withtf.Session()assess:C、sess.run(init_op)D、importnumpyasnp答案:ABC136.人臉質(zhì)量信息是要返回人臉各部分的()等信息A、遮擋B、光照C、模糊D、完整度、置信度答案:ABCD137.目前,深度學(xué)習(xí)主要包括()?A、前饋神經(jīng)網(wǎng)絡(luò)B、卷積神經(jīng)網(wǎng)絡(luò)C、循環(huán)神經(jīng)網(wǎng)絡(luò)D、對(duì)抗神經(jīng)網(wǎng)絡(luò)答案:ABCD138.Sigmoid函數(shù)的性質(zhì)有哪些?A、將輸出數(shù)據(jù)壓縮到[0,1]集合范圍B、能解決非線性分類問題C、將負(fù)的權(quán)值映射到正值D、將正權(quán)值映射到負(fù)數(shù)答案:ABC139.關(guān)于訓(xùn)練,驗(yàn)證集劃分,下列正確的是:A、不一定需要驗(yàn)證集B、數(shù)據(jù)集數(shù)量較少時(shí),訓(xùn)練集和測(cè)試集比例可以是7:3C、任何數(shù)量的數(shù)據(jù)集,都應(yīng)遵守訓(xùn)練集和測(cè)試集比例7:3的鐵則D、大數(shù)據(jù)量的驗(yàn)證集,可以不遵循訓(xùn)練集和測(cè)試集比例7:3的原則答案:ABD140.人工智能的的三個(gè)主要流派是指A、符號(hào)主義B、連接主義C、行為主義D、機(jī)器學(xué)習(xí)答案:ABC141.關(guān)于行為主義的正確描述是A、基礎(chǔ)理論是控制論B、產(chǎn)生在20世紀(jì)50年代產(chǎn)生C、是仿生昆蟲的D、是研究自組織、自適應(yīng)、自學(xué)習(xí)的答案:ABCD142.隨機(jī)梯度下降的特點(diǎn)是:A、mini-batch大小為1B、每次迭代有可能原理最優(yōu)解C、永遠(yuǎn)不會(huì)收斂D、不能使用向量化加速答案:ABCD143.如果填充圖像后求卷積,并保持圖像尺寸不變化A、以0填充B、填充厚度為卷積核厚度減1的一半C、步長(zhǎng)為1D、步長(zhǎng)大于1答案:ABC144.語句My_var_times_two=my_var.assign(2*my_var)A、讓my_var對(duì)應(yīng)變量翻倍B、有賦值C、My_var_times_two是一個(gè)節(jié)點(diǎn)D、需要先對(duì)my_var初始化答案:ABCD145.通常深度學(xué)習(xí)網(wǎng)絡(luò)的卷積層部分的組成有A、卷積層B、RELUC、POOLING層D、pedding答案:ABC146.在數(shù)學(xué)里面,內(nèi)積空間是增添了一個(gè)額外的結(jié)構(gòu)的向量空間。這個(gè)額外的結(jié)構(gòu)叫做(),或(),或()A、內(nèi)積B、標(biāo)量積C、點(diǎn)積D、點(diǎn)乘答案:ABC147.假定一個(gè)全連接網(wǎng)絡(luò)有三個(gè)權(quán)重矩陣維度為W1[a,b],W2[c,d],W3[e,f],該網(wǎng)絡(luò)A、輸入維度為[M,a]B、輸出維度[M,f]C、輸入數(shù)據(jù)維度為[a,b]D、輸出數(shù)據(jù)維度為[e,f]答案:AB148.Tensorflow中,哪些運(yùn)算結(jié)果為TrueA、tf.equal(1.0,1)B、tf.equal(1.0,1.0)C、tf.equal(0,False)D、tf.equal(1,False)答案:ABC149.Sigmoid激活函數(shù)的用途是:A、解決非線性分類B、數(shù)據(jù)壓縮至(0,1)C、是核函數(shù)D、解決線性分類問題答案:AB150.什么是影響神經(jīng)網(wǎng)絡(luò)的深度選擇的因素?A、神經(jīng)網(wǎng)絡(luò)的類型,輸入數(shù)據(jù)B、輸出函數(shù)映射C、計(jì)算能力,即硬件和軟件能力D、學(xué)習(xí)率答案:ABCD151.請(qǐng)選擇有關(guān)Tensorflow基本概念正確的描述()A、使用圖(graphs)來表示計(jì)算任務(wù),用于搭建神經(jīng)網(wǎng)絡(luò)的計(jì)算過程B、在被稱之為會(huì)話(Session)的上下文(context)中執(zhí)行圖C、使用張量(tensor)表示數(shù)據(jù),用“階”表示張量的維度,通過變量(Variable)維護(hù)狀態(tài)D、使用feed和fetch可以為任意的操作賦值或者從其中獲取數(shù)據(jù)答案:ABCD152.借助池化,網(wǎng)絡(luò)存儲(chǔ)可以有效提升存儲(chǔ)的利用率,池化操作通常有幾種?A、平均池化B、卷積C、最大池化D、全連接答案:AC153.關(guān)于反向傳播算法,它也存在不足,其主要有:A、訓(xùn)練時(shí)間較長(zhǎng)B、完全不能訓(xùn)練,訓(xùn)練時(shí)由于權(quán)值調(diào)整過大使激活函數(shù)達(dá)到飽和C、易陷入局部極小值D、“喜新厭舊”。訓(xùn)練過程中,學(xué)習(xí)新樣本時(shí)有遺忘舊樣本的趨勢(shì)答案:ABCD154.遷移學(xué)習(xí)之開發(fā)模型的方法包括那幾種?A、選擇源任務(wù)B、開發(fā)源模型C、重用模型D、調(diào)整模型答案:ABCD155.在神經(jīng)網(wǎng)絡(luò)中,常常會(huì)用到如下函數(shù):tensorflow.nn.softmax_cross_entropy_with_logits_V2()是A、在卷積層B、進(jìn)行優(yōu)化C、用信息熵D、一定全連接層答案:BCD156.哪些是Tensorflow的RNN中關(guān)于cell的類A、BasicRNNCellB、BasicLSTMCellC、GRUCellD、MultiRNNCell答案:ABCD157.反向傳播算法BP主要由兩個(gè)環(huán)節(jié)()()反復(fù)循環(huán)迭代,直到網(wǎng)絡(luò)的對(duì)輸入的響應(yīng)達(dá)到預(yù)定的目標(biāo)范圍為止。A、激勵(lì)傳播B、權(quán)重更新C、消息傳播D、激活函數(shù)答案:AB158.交叉熵函數(shù)是卷積神經(jīng)網(wǎng)絡(luò)中常使用函數(shù)softmax_cross_entropy的作用是?A、在全連接層B、進(jìn)行優(yōu)化時(shí)用C、用信息熵D、用softmax映射到概率空間答案:ABCD159.函數(shù)conv2d()有好幾個(gè)參數(shù)…,對(duì)其參數(shù)描述正確的下面選項(xiàng)有那些?A、步長(zhǎng)在高度方向和寬度方向均為stridesB、填充圖像邊緣,使圖像尺寸不變C、input是待卷積的數(shù)據(jù)D、filter是卷積核答案:ABCD160.關(guān)于深度神經(jīng)網(wǎng)絡(luò)的構(gòu)成,將卷積層放在前面,將全連接層放在后面,它們的作用是A、用卷積層提取特征B、pooling的下采樣能夠降低overfittingC、激活函數(shù)relu可以用到卷積層D、全連接層負(fù)責(zé)分類答案:ABCD161.能夠跳出局部最優(yōu)解的算法有:A、AdamB、MomentumC、RMSpropD、Lasso答案:ABC162.關(guān)于Padding的說法中:正確的是A、以0填充B、填充厚度是卷積核一半C、步長(zhǎng)為1D、圖像尺寸變小答案:AB163.關(guān)于LeNet深度神經(jīng)網(wǎng)絡(luò)的構(gòu)成,它的組成描述是A、卷積層B、激活函數(shù)C、池化層D、全連接層答案:ABCD164.深度神經(jīng)網(wǎng)絡(luò)的構(gòu)成中,把卷積層放在前面,全連接層放在后面,它們的作用是什么?A、用卷積層提取特征B、pooling的下采樣能夠降低overfittingC、激活函數(shù)relu可以用到卷積層D、全連接層只能有一層答案:ABC165.動(dòng)量梯度下降算法是通過()和()控制梯度下降的A、平均值B、指數(shù)加權(quán)平均值C、學(xué)習(xí)率D、方差答案:BC166.語句a=tf.Variable([1,2,3])和b=tf.Variable(a)這條語句:A、合法B、非法C、合法但a需要提前初始化D、合法但不夠安全答案:ACD167.在tf.matrix_inverse(x).eval()語句中A、對(duì)x進(jìn)行求逆B、x是矩陣C、從tf環(huán)境中獲取x的數(shù)據(jù)交給python環(huán)境D、不能獲知x的內(nèi)容答案:ABC168.在《深度學(xué)習(xí)》網(wǎng)絡(luò)中,神經(jīng)網(wǎng)絡(luò)層的卷積部份一般都有什么層構(gòu)成?A、卷積層B、RELUC、POOLING層D、pedding答案:ABC169.下列關(guān)于測(cè)試集,說法正確的是A、不管數(shù)據(jù)大小,始終保持30%作為測(cè)試集B、測(cè)試集和驗(yàn)證集不能共存C、在數(shù)據(jù)規(guī)模小時(shí),可以保留30%測(cè)試集D、大數(shù)據(jù)時(shí)代,測(cè)試集不必占用數(shù)據(jù)集的30%,能夠保證對(duì)模型的考核即可答案:CD170.數(shù)和矩陣相乘在函數(shù)和矩陣與矩陣相乘的函數(shù)分別是?A、tf.multiply(x2,y2)B、tf.matmul(x,y)C、tf.equalD、tf.cast答案:AB171.在一個(gè)概率空間,經(jīng)過不同劃分后,A、信息熵不同B、構(gòu)成新概率空間C、信息熵不變D、不可能有多種劃分答案:AB172.Tf.train.AdamOptimizer(1e-4).minimize(cross_entropy)A、準(zhǔn)備樣本集合B、前向傳遞,求出lossC、求出反向的梯度dYD、按照梯度dY,確定的更新參數(shù),更新X,繼續(xù)循環(huán)答案:ABCD173.下列屬于dropout特性的有:A、具有正則化功能B、具有激活函數(shù)功能C、常用于圖像處理D、機(jī)器學(xué)習(xí)算法答案:AC174.梯度為0的點(diǎn)可以是A、局部最優(yōu)解B、全局最優(yōu)解C、鞍點(diǎn)D、轉(zhuǎn)折點(diǎn)答案:ABC175.池化層是夾在連續(xù)的()之間的層次,其主要的工作是用來對(duì)數(shù)據(jù)進(jìn)行下采樣,從而壓縮數(shù)據(jù)和參數(shù)的量,減少()A、卷積層B、過擬合C、池化D、正則化答案:AB176.Adam算法結(jié)合了()算法于一身A、RMSprop算法B、均方誤差C、Momentum算法D、交叉熵答案:AC177.關(guān)于梯度的問題,以下說法錯(cuò)誤的是:A、梯度下降會(huì)增加學(xué)習(xí)次數(shù)B、多使用梯度爆炸,增加計(jì)算效率提升模型準(zhǔn)確率C、梯度下降可以減少計(jì)算量,建議使用D、梯度爆炸會(huì)增大計(jì)算量,編寫代碼時(shí)避免梯度爆炸答案:BC178.在神經(jīng)網(wǎng)絡(luò)中,以下哪種技術(shù)用于解決過擬合?A、DropoutB、正則化C、批規(guī)范化D、激活函數(shù)答案:ABC179.分類任務(wù)的損失函數(shù),可以是:A、信息熵B、最小二乘平方損失C、距離模型D、概率模型答案:ABCD180.如果“connectionism”是AI三大主義之一,則對(duì)connectionism描述正確的有()A、基礎(chǔ)理論是神經(jīng)網(wǎng)絡(luò)B、深度學(xué)習(xí)屬于連接主義C、又稱仿生學(xué)派D、產(chǎn)生在20世紀(jì)50年代產(chǎn)生答案:ABCD181.optimizer.zero_grad()放置的位置可以是A、cost.backward()之前B、optimizer.step()之后C、cost.backward()optimizer.step()之間D、模型創(chuàng)建前答案:ABD182.獨(dú)熱編碼的特點(diǎn)有A、每一行只有一個(gè)1B、1所在的位置下標(biāo)就是標(biāo)簽C、標(biāo)簽有幾種,每個(gè)向量的長(zhǎng)度就是多少D、適用于多分類交叉熵計(jì)算答案:ABCD183.可以處理深度過擬合問題的方式有A、數(shù)據(jù)增強(qiáng)B、dropoutC、L2正則D、批量歸一化答案:ABCD184.屬于pytorch中常用的損失函數(shù)有:A、nn.MSELossB、nn.CrossEntropyLossC、nn.L1LossD、nn.BCEWithLogitsLoss答案:ABCD185.二分類邊界線描述正確的是A、正類別概率為0.5B、z=0C、正類別概率為0D、z=1答案:AB186.Dataset創(chuàng)建數(shù)據(jù)集常用的方法有:A、torch.utils.data.TensorDatasetB、torchvision.datasets.ImageFolderC、繼承torch.utils.data.DatasetD、dataloder答案:ABC187.梯度下降的步驟包含A、正向傳播B、反向傳播C、參數(shù)更新D、求導(dǎo)答案:ABCD188.控制控制cnn降采樣的方式有A、卷積B、最大池化C、平均池化D、全連接答案:ABC189.涉及到1*1卷積的網(wǎng)絡(luò)模型有A、lenetB、alexnetC、resnetD、inception答案:CD190.做作為分類損失函數(shù)的有A、binary_crossentropyB、categorical_crossentropyC、sparse_categorical_crossentropyD、hinge答案:ABC解析:D為SVM中的合頁損失191.不使用全連接處理序列問題的原因是A、時(shí)間步不能確定B、模型太簡(jiǎn)單C、只能處理分類D、算法精度不足答案:ABD192.使用relu激活函數(shù)的網(wǎng)絡(luò)結(jié)構(gòu)有A、LeNetB、AlexNetC、ResNetD、Inception答案:BCD193.keras.optimizers子模塊中包含的優(yōu)化方式有A、SGDB、AdagradC、RMSpropD、Nadam答案:ABCD194.循環(huán)模型中,除了存在c狀態(tài),還存在h狀態(tài)的模型有A、rnnB、lstmC、gruD、embadding答案:BC195.CNN處理圖像的三大優(yōu)勢(shì)是:A、圖像不變性B、局部感知C、參數(shù)共享D、模型替換答案:ABC196.多分類可以使用的函數(shù)是A、reluB、softmaxC、sigmoidD、elu答案:BC197.性能優(yōu)于alexnet的網(wǎng)絡(luò)有:A、LeNetB、VGG16C、ResNetD、Inception答案:BCD198.optimizer中包含的方式有A、rmspropB、adagradC、adamD、sgd答案:ABCD199.可以作為激活函數(shù)的是A、reluB、tanhC、batchnormD、sigmoid答案:ABD解析:C為批量歸一化200.pytorch中l(wèi)stm的輸出值有A、每個(gè)時(shí)間步的預(yù)測(cè)B、最后的狀態(tài)值C、最后的預(yù)測(cè)值D、每個(gè)時(shí)間步的狀態(tài)值答案:ABC201.不涉及隱藏層時(shí),分類算法中,會(huì)用到激活函數(shù)有A、reluB、tanhC、softmaxD、sigmoid答案:CD202.cnn網(wǎng)絡(luò)常用的步驟有A、卷積B、池化C、激活D、全連接答案:ABCD203.pytorch構(gòu)建模型的三種方式A、繼承nn.Module基類構(gòu)建自定義模型B、使用nn.Sequential按層順序構(gòu)建模型C、繼承nn.Module基類構(gòu)建模型并輔助應(yīng)用模型容器進(jìn)行封裝(nn.Sequential,nn.ModuleList,nn.ModuleDict)D、使用model直接處理答案:ABC204.pytorch在gpu上跑數(shù)據(jù)時(shí),需要將()移動(dòng)到gpu上A、模型B、數(shù)據(jù)C、tensorboardD、評(píng)估指標(biāo)答案:AB205.張量結(jié)構(gòu)操作A、張量創(chuàng)建B、索引切片C、維度變換D、合并分割答案:ABCD206.plie中包含的參數(shù)有A、metricsB、lossC、optimizerD、epochs答案:ABC207.nn.Sequential的等價(jià)使用方式有A、利用add_module方法B、利用變長(zhǎng)參數(shù)C、利用OrderedDictD、都不是答案:ABC208.pytorch中l(wèi)stm的輸入值有A、樣本B、初始狀態(tài)C、初始預(yù)測(cè)D、權(quán)重答案:ABC209.模型的整體處理流程包含A、模型創(chuàng)建B、輸入數(shù)據(jù)尺寸C、模型編譯D、模型訓(xùn)練集預(yù)測(cè)答案:ABCD210.具有激活功能的函數(shù)有A、reluB、softmaxC、sigmoidD、tanh答案:ABCD211.常用的循環(huán)網(wǎng)絡(luò)相關(guān)層有:A、nn.EmbeddingB、nn.LSTMC、nn.GRUD、nn.RNN答案:ABCD212.長(zhǎng)短期記憶中的門有A、遺忘門B、輸入門C、輸出門D、更新門答案:ABC213.rnn可以用來處理A、圖像類別預(yù)測(cè)B、語音分析C、情感分類D、文章創(chuàng)作答案:ABCD214.能進(jìn)行正則化功能的處理有A、dropoutB、l1C、l2D、數(shù)據(jù)增強(qiáng)答案:ABCD215.以下屬于深度學(xué)習(xí)常用框架的有A、tensorflow2.0B、kerasC、caffeD、sklearn答案:ABC216.長(zhǎng)短期記憶中的門是A、輸入門B、更新門C、遺忘門D、輸出門答案:ACD217.Keras中的基礎(chǔ)層有A、DenseB、BatchNormalizationC、SpatialDropout2DD、DenseFeature答案:ABCD218.比alexnet網(wǎng)絡(luò)性能好的網(wǎng)絡(luò)有A、lenetB、alexnetC、resnetD、inception答案:CD219.訓(xùn)練模型的三種方式:A、內(nèi)置fitB、內(nèi)置train_on_batchC、自定義訓(xùn)練循環(huán)D、內(nèi)置pile答案:ABC220.池化的方式有:A、平均池化B、最大池化C、中值池化D、最小池化答案:AB221.以下和交叉熵相關(guān)的損失函數(shù)有:A、mseB、binary_crossentropyC、categorical_crossentropyD、sparse_categorical_crossentropy答案:BCD222.數(shù)據(jù)管道中可以使用獲取數(shù)據(jù)的方式有A、from_tensor_slicesB、read_csvC、make_csv_datasetD、list_files答案:ACD223.以下可以連續(xù)求導(dǎo)的幾乎函數(shù)有A、reluB、sigmoidC、tanhD、dropout答案:BC224.pytorch常用的數(shù)據(jù)類型有:A、torch.float16,B、16,C、8,D、torch.bool答案:ABCD225.inception同一層可以同時(shí)使用()尺寸的卷積核A、1*1B、3*3C、5*5D、11*11答案:ABC226.需要循環(huán)迭代的算法有A、k-meansB、線性回歸C、svmD、邏輯回歸答案:ABD227.使用到平均池化的cnn網(wǎng)絡(luò)的有A、lenetB、alexnetC、resnetD、Inception答案:CD228.pytorch中tensorboard的可視化模塊有A、writer.add_graphB、writer.add_scalarC、writer.add_histogramD、writer.add_figure答案:ABCD229.tensorflow2.0常用的三種計(jì)算圖是A、靜態(tài)計(jì)算圖B、動(dòng)態(tài)計(jì)算圖C、AutographD、4維動(dòng)態(tài)圖答案:ABC230.pytorch梯度下降的相關(guān)函數(shù)有A、zero_gradB、backwardC、stepD、optim答案:ABC判斷題1.用sigmoid函數(shù)不能將運(yùn)算映射到概率空間。A、正確B、錯(cuò)誤答案:B2.Yolo采用一個(gè)CNN網(wǎng)絡(luò)來實(shí)現(xiàn)檢測(cè),是單管道策略,其訓(xùn)練與預(yù)測(cè)都是end-to-end,所以Yolo算法比較簡(jiǎn)潔且速度快A、正確B、錯(cuò)誤答案:A3.距離只有在平面或三維空間有意義A、正確B、錯(cuò)誤答案:B4.信息量就是信息熵。A、正確B、錯(cuò)誤答案:B5.訓(xùn)練集分割為小一點(diǎn)的子集訓(xùn)練,這些子集被取名為mini-batchA、正確B、錯(cuò)誤答案:A6.交叉熵(crossentropy)描述的是兩個(gè)概率分布之間的距離,距離越小表示這兩個(gè)概率越相近,越大表示兩個(gè)概率差異越大。A、正確B、錯(cuò)誤答案:A7.SOFTMAX函數(shù),是用來將全數(shù)域函數(shù)結(jié)果映射到概率空間。A、正確B、錯(cuò)誤答案:A8.RMSprop算法是將指數(shù)加權(quán)平均數(shù)先平方再開方A、正確B、錯(cuò)誤答案:A9.在機(jī)器學(xué)習(xí)中,采用信息熵可以解決決策樹問題。A、正確B、錯(cuò)誤答案:A10.Tf.cast()函數(shù)的作用是執(zhí)行tensorflow中張量數(shù)據(jù)類型轉(zhuǎn)換,比如讀入的圖片如果是int8類型的,一般在要在訓(xùn)練前把圖像的數(shù)據(jù)格式轉(zhuǎn)換為float32A、正確B、錯(cuò)誤答案:A11.Sess=tf.Session()Writer=tf.summary.FileWriter(TB_SUMMARY_DIR)Writer.add_graph(sess.graph)以上語句為實(shí)現(xiàn)可視化界面展示tensorboard移植語句A、正確B、錯(cuò)誤答案:A12.人工神經(jīng)網(wǎng)絡(luò)是機(jī)器學(xué)習(xí)的子集,機(jī)器學(xué)習(xí)是人工智能體系的子集A、正確B、錯(cuò)誤答案:A13.常用來進(jìn)行數(shù)據(jù)類型轉(zhuǎn)換的函數(shù)是tf.fcast()A、正確B、錯(cuò)誤答案:B14.用卷積實(shí)現(xiàn)圖像特征提取,就是借用共振原理。A、正確B、錯(cuò)誤答案:B15.隨機(jī)生成的卷積核,個(gè)別一些卷積核對(duì)特征提取幾乎無貢獻(xiàn),但不影響運(yùn)算。A、正確B、錯(cuò)誤答案:A16.T_scope()的含義是在另外一個(gè)命名空間來定義變量A、正確B、錯(cuò)誤答案:A17.在被卷積的2D圖像上進(jìn)行滑動(dòng),并在每個(gè)位置上與該像素點(diǎn)及其相領(lǐng)的像素點(diǎn)進(jìn)行內(nèi)積,這就是二維卷積的功能A、正確B、錯(cuò)誤答案:A18.變量初始化有三種方式,個(gè)別,部分,全局變量初始化。A、正確B、錯(cuò)誤答案:A19.占位符的定義,有助于將預(yù)先不知道的值帶入運(yùn)算中。A、正確B、錯(cuò)誤答案:A20.TensorFlow基于數(shù)據(jù)流圖,用于大規(guī)模分布式數(shù)值計(jì)算的開源框架。節(jié)點(diǎn)表示某種抽象的計(jì)算,邊表示節(jié)點(diǎn)之間相互聯(lián)系的張量A、正確B、錯(cuò)誤答案:A21.對(duì)于一個(gè)固定劃分,信息熵是針對(duì)全體概率事件的。A、正確B、錯(cuò)誤答案:A22.激活函數(shù)給神經(jīng)元引入了非線性因素,使得神經(jīng)網(wǎng)絡(luò)可以任意逼近任何非線性函數(shù),這樣神經(jīng)網(wǎng)絡(luò)就可以應(yīng)用到眾多的非線性模型中A、正確B、錯(cuò)誤答案:A23.人類對(duì)智能機(jī)械的研究從1千年前就開始了。A、正確B、錯(cuò)誤答案:A24.在一次學(xué)習(xí)問題中,只能通過一個(gè)樣本進(jìn)行學(xué)習(xí),以能夠認(rèn)出同一個(gè)人。A、正確B、錯(cuò)誤答案:A25.人工智能就是神經(jīng)網(wǎng)絡(luò)。A、正確B、錯(cuò)誤答案:B26.ImporttensorflowastfPrint(help(tf))這個(gè)語句是尋求幫助的過程A、正確B、錯(cuò)誤答案:A27.Tf.argmax(vector,1):返回的是vector中的最大值的索引號(hào),如果vector是一個(gè)向量,那就返回一個(gè)值,如果是一個(gè)矩陣,那就返回一個(gè)向量,這個(gè)向量的每一個(gè)維度都是相對(duì)應(yīng)矩陣行的最大值元素的索引號(hào)A、正確B、錯(cuò)誤答案:A28.BP算法是神經(jīng)網(wǎng)絡(luò)發(fā)展歷程中里程碑式的算法A、正確B、錯(cuò)誤答案:A29.歸一化指數(shù)函數(shù)Softmax函數(shù),是用來將運(yùn)算結(jié)果映射到概率空間。A、正確B、錯(cuò)誤答案:A30.BP算法是由學(xué)習(xí)過程由信號(hào)的正向傳播與誤差的反向傳播兩個(gè)過程組成。由于多層前饋網(wǎng)絡(luò)的訓(xùn)練經(jīng)常采用誤差反向傳播算法,人們也常把將多層前饋網(wǎng)絡(luò)直接稱為BP網(wǎng)絡(luò)A、正確B、錯(cuò)誤答案:A31.優(yōu)化算法減小學(xué)習(xí)率是為了減少迭代次數(shù)A、正確B、錯(cuò)誤答案:B32.形狀相似的兩個(gè)信號(hào)序列,其相關(guān)系數(shù)也大。A、正確B、錯(cuò)誤答案:A33.通過池化操作,特征損失不能太大。A、正確B、錯(cuò)誤答案:A34.熵這個(gè)概念來自熱力學(xué),信息熵是借用。A、正確B、錯(cuò)誤答案:A35.Dropout具有歸一化功能A、正確B、錯(cuò)誤答案:B36.在卷積神經(jīng)網(wǎng)絡(luò)中,可以利用多個(gè)不同的卷積核進(jìn)行卷積操作A、正確B、錯(cuò)誤答案:A37.所謂積分運(yùn)算,就是求積的極限A、正確B、錯(cuò)誤答案:B38.Tf.reduce_mean函數(shù)的作用是求平均值。第一個(gè)參數(shù)是一個(gè)集合,可以是列表、二維數(shù)組和多維數(shù)組。第二個(gè)參數(shù)指定在哪個(gè)維度上面求平均值。默認(rèn)對(duì)所有的元素求平均A、正確B、錯(cuò)誤答案:A39.開發(fā)軟件Anaconda不可以在Win10平臺(tái)安裝A、正確B、錯(cuò)誤答案:B40.全局最優(yōu)解的函數(shù)損失值最小A、正確B、錯(cuò)誤答案:A41.損失函數(shù)(lossfunction)是用來估量模型的預(yù)測(cè)值f(x)與真實(shí)值Y的不一致程度,它是一個(gè)非負(fù)實(shí)值函數(shù),通常使用L(Y,f(x))來表示,損失函數(shù)越大,模型的魯棒性就越好。A、正確B、錯(cuò)誤答案:B42.BP傳播算法,主要由兩個(gè)環(huán)節(jié)即(激勵(lì)傳播、權(quán)重更新)反復(fù)循環(huán)迭代,直到網(wǎng)絡(luò)對(duì)輸入的響應(yīng)達(dá)到預(yù)定的目標(biāo)/期望范圍為止A、正確B、錯(cuò)誤答案:A43.對(duì)于形如[[[],[]]]的張量,它的維度向量是[1,2,0]。A、正確B、錯(cuò)誤答案:A44.對(duì)平方范數(shù)的損失函數(shù)求偏導(dǎo)數(shù)的結(jié)果,得到一個(gè)梯度向量。A、正確B、錯(cuò)誤答案:A45.在使用SOFTMAX函數(shù)時(shí),是將運(yùn)算結(jié)果從向量空間轉(zhuǎn)化到概率空間。A、正確B、錯(cuò)誤答案:A46.在卷積神經(jīng)網(wǎng)絡(luò)中實(shí)施填充是一件十分重要的事情,如果沒有填充,邊緣區(qū)域的像素值基本不會(huì)受到卷積層的影響A、正確B、錯(cuò)誤答案:A47.卷積神經(jīng)網(wǎng)絡(luò)中,其中,卷積層是分類的,全連接層是特征提取的。A、正確B、錯(cuò)誤答案:B48.|A|一定大于AA、正確B、錯(cuò)誤答案:B49.框架TensorFlow?最初是由GoogleBrain團(tuán)隊(duì)(隸屬于Google的AI部門)中的研究人員和工程師聯(lián)合開發(fā)的A、正確B、錯(cuò)誤答案:A50.在自然界信息傳播速度,是以指數(shù)函數(shù)的速度進(jìn)行的。A、正確B、錯(cuò)誤答案:A51.概率系統(tǒng)中,單個(gè)事件的信息熵,是系統(tǒng)信息熵的一個(gè)組成部分。A、正確B、錯(cuò)誤答案:A52.神經(jīng)風(fēng)格遷移可以用任何預(yù)訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)來實(shí)現(xiàn)A、正確B、錯(cuò)誤答案:A53.孿生網(wǎng)絡(luò)又稱為連體網(wǎng)絡(luò),網(wǎng)絡(luò)中的連體是通過共享權(quán)值來實(shí)現(xiàn)。A、正確B、錯(cuò)誤答案:A54.對(duì)于非規(guī)范的兩個(gè)序列,比較相似度,可以用信息熵原理。A、正確B、錯(cuò)誤答案:A55.對(duì)于函數(shù)tf.expand_dims函數(shù)用于對(duì)張量維度擴(kuò)充。A、正確B、錯(cuò)誤答案:A56.鞍點(diǎn)是多維空間中函數(shù)的最優(yōu)解A、正確B、錯(cuò)誤答案:B57.如果對(duì)多元數(shù)量函數(shù)求梯度,結(jié)果是個(gè)向量。A、正確B、錯(cuò)誤答案:A58.TensorFlow最初由Google大腦的研究員和工程師開發(fā)出來,用于機(jī)器學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)方面的研究,于2015.10宣布開源,在眾多深度學(xué)習(xí)框架中脫穎而出,在Github上獲得了最多的Star量A、正確B、錯(cuò)誤答案:A59.深度學(xué)習(xí)是隱藏層更多的人工神經(jīng)網(wǎng)絡(luò)模型A、正確B、錯(cuò)誤答案:A60.出租車幾何或曼哈頓距離(ManhattanDistance)是由十九世紀(jì)的赫爾曼·閔可夫斯基所創(chuàng)詞匯A、正確B、錯(cuò)誤答案:A61.有一個(gè)隱藏層網(wǎng)絡(luò),就是二層神經(jīng)網(wǎng)絡(luò)A、正確B、錯(cuò)誤答案:A62.在程序中如果涉及區(qū)間條件判斷,一定在全部條件進(jìn)行驗(yàn)證。A、正確B、錯(cuò)誤答案:A63.給定概率空間,信息熵是針對(duì)無限個(gè)概率事件的。A、正確B、錯(cuò)誤答案:B64.不論多大的數(shù)據(jù)集,測(cè)試集數(shù)量必須保持在30%A、正確B、錯(cuò)誤答案:B65.一句話所言事物的實(shí)現(xiàn)概率大,信息熵越大。A、正確B、錯(cuò)誤答案:B66.編程語句os.environ['TF_CPP_MIN_LOG_LEVEL']='2'含意是編程程序時(shí)默認(rèn)的顯示等級(jí)只顯示warning和ErrorA、正確B、錯(cuò)誤答案:A67.所謂積分運(yùn)算,就是求和的極限A、正確B、錯(cuò)誤答案:A68.LeNet5網(wǎng)絡(luò)最初是為了識(shí)別支票上面的手寫數(shù)字而設(shè)計(jì)的A、正確B、錯(cuò)誤答案:A69.梯度爆炸時(shí),導(dǎo)數(shù)值比較大,發(fā)生數(shù)值溢出,會(huì)出現(xiàn)NaNA、正確B、錯(cuò)誤答案:A70.全局變量初始化語句后,變量和常量都被初始化。A、正確B、錯(cuò)誤答案:B71.導(dǎo)數(shù)和偏導(dǎo)沒有本質(zhì)區(qū)別,都是當(dāng)自變量的變化量趨于0時(shí),函數(shù)值的變化量與自變量變化量比值的極限A、正確B、錯(cuò)誤答案:A72.在tf語句中X.Value是將x中的內(nèi)容取出。A、正確B、錯(cuò)誤答案:B73.經(jīng)過權(quán)值和閾值不斷迭代調(diào)整的過程,就是網(wǎng)絡(luò)的學(xué)習(xí)與訓(xùn)練過程A、正確B、錯(cuò)誤答案:A74.Yolo的泛化能力強(qiáng),在做遷移時(shí),模型魯棒性高A、正確B、錯(cuò)誤答案:A75.X.assign(100)是條立即數(shù)賦值語句。A、正確B、錯(cuò)誤答案:A76.所謂損失函數(shù),只有在訓(xùn)練的時(shí)候才參與運(yùn)算,在訓(xùn)練以后,測(cè)試或應(yīng)用中無需損失函數(shù)。A、正確B、錯(cuò)誤答案:A77.均方損失函數(shù),是個(gè)數(shù)量函數(shù),它的張量的維度是0A、正確B、錯(cuò)誤答案:A78.損失函數(shù),可以由誤差向量的總體范數(shù)平方定義A、正確B、錯(cuò)誤答案:A79.在歐氏空間中,凸集是對(duì)于集合內(nèi)的每一對(duì)點(diǎn),連接該對(duì)點(diǎn)的直線段上的每個(gè)點(diǎn)也在該集合內(nèi)。A、正確B、錯(cuò)誤答案:A80.卷積神經(jīng)網(wǎng)絡(luò)的前幾層檢查提取例如邊緣這樣的簡(jiǎn)單特征A、正確B、錯(cuò)誤答案:A81.超參數(shù)范圍中,隨機(jī)取值是選擇合適的標(biāo)尺進(jìn)行取值A(chǔ)、正確B、錯(cuò)誤答案:A82.損失函數(shù)是經(jīng)驗(yàn)風(fēng)險(xiǎn)函數(shù)的核心部分,也是結(jié)構(gòu)風(fēng)險(xiǎn)函數(shù)重要組成部分A、正確B、錯(cuò)誤答案:A83.RecurrentNeuralNetwork。神經(jīng)網(wǎng)絡(luò)是一種節(jié)點(diǎn)定向連接成環(huán)的人工神經(jīng)網(wǎng)絡(luò)A、正確B、錯(cuò)誤答案:A84.賦范空間中,v,ws屬于向量空間V,||v+w||<=||v||+||w||表示三角不等式。A、正確B、錯(cuò)誤答案:A85.由于Yolo是對(duì)整張圖片做卷積,所以其在檢測(cè)目標(biāo)有更大的視野,它不容易對(duì)背景誤判A、正確B、錯(cuò)誤答案:A86.Tf語句X.Initializer的意義是對(duì)X常量初始化。A、正確B、錯(cuò)誤答案:B87.學(xué)習(xí)率(Learningrate)作為監(jiān)督學(xué)習(xí)以及深度學(xué)習(xí)中重要的超參,其決定著目標(biāo)函數(shù)能否收斂到局部最小值以及何時(shí)收斂到最小值。合適的學(xué)習(xí)率能夠使目標(biāo)函數(shù)在合適的時(shí)間內(nèi)收斂到局部最小值。A、正確B、錯(cuò)誤答案:A88.概率空間的樣本點(diǎn),其對(duì)應(yīng)概率必須相等。A、正確B、錯(cuò)誤答案:A89.損失函數(shù),可以由交叉熵定義A、正確B、錯(cuò)誤答案:A90.Mini-batch是指只處理部分?jǐn)?shù)據(jù)的梯度下降算法A、正確B、錯(cuò)誤答案:B91.循環(huán)神經(jīng)網(wǎng)絡(luò)的權(quán)重系數(shù)是共享的,即在一次迭代中,循環(huán)節(jié)點(diǎn)使用相同的權(quán)重系數(shù)處理所有的時(shí)間步。A、正確B、錯(cuò)誤答案:A92.Tf.summary.histogram()函數(shù)功能是輸出一個(gè)直方圖的SummaryprotocolbufferA、正確B、錯(cuò)誤答案:A93.在神經(jīng)網(wǎng)絡(luò)框架中,常使用如下函數(shù)tf.truncated_normal(shape,mean,stddev)這個(gè)函數(shù)產(chǎn)生正態(tài)分布,均值和標(biāo)準(zhǔn)差自己設(shè)定A、正確B、錯(cuò)誤答案:A94.張量維度或形狀,是用一個(gè)向量描述。A、正確B、錯(cuò)誤答案:A95.歐幾里得距離,和曼哈頓距離的定義,互有矛盾。A、正確B、錯(cuò)誤答案:B96.過擬合是指由于訓(xùn)練樣本不足,導(dǎo)致測(cè)試結(jié)果不堪用A、正確B、錯(cuò)誤答案:B97.自然界任何一個(gè)物理系統(tǒng)都存在固定振動(dòng)頻率,當(dāng)外界有相同頻率振動(dòng),就能使該物體產(chǎn)生共振。A、正確B、錯(cuò)誤答案:A98.處理分類問題一般用神經(jīng)網(wǎng)絡(luò),處理預(yù)測(cè)問題用線性回歸。A、正確B、錯(cuò)誤答案:A99.對(duì)于概率空間一個(gè)任意劃分,其結(jié)果依然是概率空間。A、正確B、錯(cuò)誤答案:A100.所謂圖靈測(cè)試是一個(gè)典型思想實(shí)驗(yàn)。A、正確B、錯(cuò)誤答案:A101.Non-MaximumSuppression,簡(jiǎn)稱NMS,理解為抑制不是極大值的元素,可以理解為局部最大搜索A、正確B、錯(cuò)誤答案:A102.在步長(zhǎng)迭代運(yùn)算中,連續(xù)函數(shù)與間斷函數(shù)比較,好處在于,能夠不間斷運(yùn)算。A、正確B、錯(cuò)誤答案:A103.三元組損失算法中,只有選擇難的三元組梯度下降法才能發(fā)揮作用。A、正確B、錯(cuò)誤答案:A104.Batch歸一化不能加速訓(xùn)練A、正確B、錯(cuò)誤答案:B105.人工神經(jīng)網(wǎng)絡(luò)是一種模仿生物神經(jīng)網(wǎng)絡(luò)行為特征,進(jìn)行信息處理的數(shù)學(xué)模型A、正確B、錯(cuò)誤答案:A106.Tf.argmax可以認(rèn)為就是np.argmax。tensorflow使用numpy實(shí)現(xiàn)的這個(gè)APIA、正確B、錯(cuò)誤答案:A107.用二維濾波器在被卷積的2D圖像上所有位置滑動(dòng),并在每個(gè)位置上與對(duì)應(yīng)像素點(diǎn)及其領(lǐng)域像素點(diǎn)做內(nèi)積,這就是二維卷積的原理A、正確B、錯(cuò)誤答案:A108.Batch歸一化增加了隱藏值分布變化的數(shù)量A、正確B、錯(cuò)誤答案:B109.物體檢測(cè)中應(yīng)用NMS算法的主要目的是消除多余(交叉重復(fù))的窗口,找到最佳物體檢測(cè)位置。A、正確B、錯(cuò)誤答案:A110.BP傳播算法過程是經(jīng)過信號(hào)前向傳播與誤差反向傳播,W權(quán)值和閾值的調(diào)整反復(fù)進(jìn)行,一直進(jìn)行到預(yù)先設(shè)定的學(xué)習(xí)訓(xùn)練次數(shù),或輸出誤差減小到允許的程度A、正確B、錯(cuò)誤答案:A111.動(dòng)量梯度下降法運(yùn)行速度幾乎總是快于標(biāo)準(zhǔn)的梯度下降算法A、正確B、錯(cuò)誤答案:A112.Mini-batch不能使用正則化A、正確B、錯(cuò)誤答案:B113.希爾伯特空間也是一個(gè)內(nèi)積空間A、正確B、錯(cuò)誤答案:A114.歸一化是指將數(shù)據(jù)集數(shù)據(jù)縮放到0~1A、正確B、錯(cuò)誤答案:A115.循環(huán)神經(jīng)網(wǎng)絡(luò)的LSTM中有三個(gè)門A、正確B、錯(cuò)誤答案:A116.梯度和損失函數(shù)一樣,也是數(shù)量函數(shù)A、正確B、錯(cuò)誤答案:B117.機(jī)器學(xué)習(xí)是一種隨著經(jīng)驗(yàn)積累、自動(dòng)提高性能、完成特定任務(wù)的計(jì)算機(jī)程序A、正確B、錯(cuò)誤答案:A118.距離的大小程度,是一個(gè)標(biāo)量。A、正確B、錯(cuò)誤答案:A119.RNN的LSTM可以防止梯度消失或者梯度爆炸A、正確B、錯(cuò)誤答案:A120.連接主義是研究中等生物智慧的行為,比如視覺。A、正確B、錯(cuò)誤答案:A121.在深度神經(jīng)網(wǎng)絡(luò)中,通常使用一種叫修正線性單元(Rectifiedlinearunit,ReLU)作為神經(jīng)元的激活函數(shù)A、正確B、錯(cuò)誤答案:A122.TensorFlow能夠直接解決各種機(jī)器學(xué)習(xí)任務(wù)。目標(biāo)就是在一般情況下,無論遇到什么問題,TensorFlow都可以在一定程度上提供API的支持A、正確B、錯(cuò)誤答案:A123.對(duì)一個(gè)概率空間的樣本事件進(jìn)行劃分,劃分后依然是概率空間。A、正確B、錯(cuò)誤答案:A124.風(fēng)格遷移的內(nèi)容可以被卷積神經(jīng)網(wǎng)絡(luò)更靠頂部的層激活所捕捉到。A、正確B、錯(cuò)誤答案:A125.全連接層能夠?qū)崿F(xiàn)卷積運(yùn)算。A、正確B、錯(cuò)誤答案:B126.雙向循環(huán)神經(jīng)網(wǎng)絡(luò)(bidirectionalrecurrentneuralnetwork,Bi-RNN)由兩層循環(huán)神經(jīng)網(wǎng)絡(luò)組成,它們的輸入相同,只是信息傳遞的方向不同。A、正確B、錯(cuò)誤答案:A127.Tf中,tf.assign_add,也是賦值語句。A、正確B、錯(cuò)誤答案:A128.理論上用sigmoid函數(shù)也能將運(yùn)算映射到概率空間。A、正確B、錯(cuò)誤答案:A129.前向傳播算法的作用是計(jì)算輸入層結(jié)點(diǎn)對(duì)隱藏層結(jié)點(diǎn)的影響A、正確B、錯(cuò)誤答案:A130.Tensorboard中,可以使用tf.summary.scalar記錄標(biāo)量A、正確B、錯(cuò)誤答案:A131.若沒有在超參數(shù)中作出正確的標(biāo)尺決定,可以通過在均勻標(biāo)出上選取多個(gè)數(shù)據(jù)進(jìn)行彌補(bǔ)A、正確B、錯(cuò)誤答案:A132.執(zhí)行完語句tf.assign(start,new_value)后可以將變量start的值傳遞給新的變量new_valueA、正確B、錯(cuò)誤答案:B133.梯度消失可以通過更好的激活函數(shù)來解決A、正確B、錯(cuò)誤答案:A134.在一個(gè)系統(tǒng)中,信息量的概率平均就是信息熵。A、正確B、錯(cuò)誤答案:A135.關(guān)于信息,這個(gè)概念目前還沒有明確定義。A、正確B、錯(cuò)誤答案:A136.事件的信息熵,是系統(tǒng)信息熵的一個(gè)組成部分。A、正確B、錯(cuò)誤答案:A137.RecurrentNeuralNetwork,RNN這種網(wǎng)絡(luò)的本質(zhì)特征是在處理單元之間既有內(nèi)部的反饋連接又有前饋連接A、正確B、錯(cuò)誤答案:A138.GRU單元有記憶細(xì)胞CellA、正確B、錯(cuò)誤答案:A139.DeanPomerleau在卡耐基梅隆大學(xué)于上世紀(jì)80年代末制造了一輛自動(dòng)駕駛汽車,其算法核心是基于神經(jīng)網(wǎng)絡(luò)A、正確B、錯(cuò)誤答案:A140.BP算法是通過梯度下降法對(duì)聯(lián)結(jié)權(quán)重進(jìn)行優(yōu)化,所以需要計(jì)算誤差函數(shù)對(duì)聯(lián)結(jié)權(quán)重的偏導(dǎo)數(shù)。A、正確B、錯(cuò)誤答案:A141.增大卷積核的大小必然會(huì)提高卷積神經(jīng)網(wǎng)絡(luò)的性能。A、正確B、錯(cuò)誤答案:B142.分類問題用神經(jīng)網(wǎng)絡(luò),預(yù)測(cè)問題用線性回歸。A、正確B、錯(cuò)誤答案:A143.Print(sess.run(tf.sigmoid(a)))是邏輯回歸A、正確B、錯(cuò)誤答案:B144.全連接層無法實(shí)現(xiàn)卷積運(yùn)算。A、正確B、錯(cuò)誤答案:A145.有了聯(lián)結(jié)權(quán)重w和激活函數(shù)H(x)之后,就可以由前往后計(jì)算,依次算出所有的經(jīng)過聯(lián)結(jié)權(quán)重處理后的輸出值,經(jīng)過激活函數(shù)處理之后的輸出值,最終算出輸出層的y值。這就是前向傳播算法A、正確B、錯(cuò)誤答案:A146.關(guān)于循環(huán)神經(jīng)網(wǎng)絡(luò),GRU中有兩個(gè)門A、正確B、錯(cuò)誤答案:A147.LSTM(Longshort-termmemory),主要由四個(gè)ponent組成:InputGate,OutputGate,MemoryCell以及ForgetGateA、正確B、錯(cuò)誤答案:A148.在實(shí)際項(xiàng)目中,不一定需要驗(yàn)證集A、正確B、錯(cuò)誤答案:A149.事件的信息量,與事件發(fā)生的概率無關(guān)。A、正確B、錯(cuò)誤答案:B150.對(duì)于損失函數(shù),有多種函數(shù)形式可以表達(dá)。A、正確B、錯(cuò)誤答案:A151.隨機(jī)梯度下降的學(xué)習(xí)率不會(huì)改變A、正確B、錯(cuò)誤答案:B152.Tf.random_normal()函數(shù)用于從服從指定正態(tài)分布的數(shù)值中取出指定個(gè)數(shù)的值A(chǔ)、正確B、錯(cuò)誤答案:A153.Tripletloss理解使loss在訓(xùn)練迭代中下降的越小越好,也就是要使得Anchor與Positive越接近越好,Anchor與Negative越遠(yuǎn)越好A、正確B、錯(cuò)誤答案:A154.實(shí)踐中,Batch歸一化通常和訓(xùn)練集的mini-batch一起使用A、正確B、錯(cuò)誤答案:A155.損失函數(shù)有兩個(gè)表達(dá)方式,均方差表達(dá),和信息熵表達(dá)。A、正確B、錯(cuò)誤答案:A156.對(duì)于函數(shù)tf.reshape函數(shù)用于對(duì)張量變形。A、正確B、錯(cuò)誤答案:A157.在古典概率空間,其樣本點(diǎn)對(duì)應(yīng)概率必須相等。A、正確B、錯(cuò)誤答案:A158.自然界任何物體都存在固定振動(dòng)頻率,當(dāng)外界有相同頻率振動(dòng),就能使該物體產(chǎn)生共振。A、正確B、錯(cuò)誤答案:A159.所謂導(dǎo)數(shù)是個(gè)方向,所謂梯度也是個(gè)方向。維度不同而已。A、正確B、錯(cuò)誤答案:A160.深度學(xué)習(xí)的概念源于人工神經(jīng)網(wǎng)絡(luò)的研究。含多隱層的多層感知器就是一種深度學(xué)習(xí)結(jié)構(gòu)。深度學(xué)習(xí)通過組合低層特征形成更加抽象的高層表示屬性類別或特征,以發(fā)現(xiàn)數(shù)據(jù)的分布式特征表示A、正確B、錯(cuò)誤答案:A161.神經(jīng)網(wǎng)絡(luò)框架TensorFlow可以安裝在Ubuntu、MacOS和Windows系統(tǒng)平臺(tái)上A、正確B、錯(cuò)誤答案:A162.函數(shù)tf.nn.softmax_cross_entropy_with_logits_

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論