人工智能自然語言技術(shù)N2考試復習題庫(匯總)_第1頁
人工智能自然語言技術(shù)N2考試復習題庫(匯總)_第2頁
人工智能自然語言技術(shù)N2考試復習題庫(匯總)_第3頁
人工智能自然語言技術(shù)N2考試復習題庫(匯總)_第4頁
人工智能自然語言技術(shù)N2考試復習題庫(匯總)_第5頁
已閱讀5頁,還剩166頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

PAGEPAGE1人工智能自然語言技術(shù)N2考試復習題庫(匯總)一、單選題1.relu函數(shù)的作用是可以將小于()的數(shù)輸出為0A、-1B、0C、1D、x答案:B2.神經(jīng)網(wǎng)絡(luò)一般包括輸入層、隱藏層和輸出層,Batch歸一化操作用于網(wǎng)絡(luò)的什么層?A、輸出層B、輸入層C、無法在隱藏層起作用D、用于輸入層,甚至深度隱藏層的歸一化過程答案:D3.常用的激活函數(shù),修正線性單元指的是以下哪個選項?A、sigmoidB、tanhC、reluD、leakyrelu答案:C4.以下哪個不屬于LSTM的“門”A、遺忘門B、輸入門C、輸出門D、更新門答案:D5.Pytorch為機器學習和()提供了方便靈活的接口A、機器學習B、算法重構(gòu)C、NPLD、深度學習答案:D6.sigmoid求導之后的取值范圍是多少?A、(0,0.1]B、(0,0.2]C、(0,0.25]D、(0,0.5]答案:C7.在使用TensorFlow中,下面哪個函數(shù)可以打印某點值A(chǔ)、A=tf.run()B、A=S.valueC、A=S.eval()D、tf.assign()答案:A8.tf.mul()函數(shù)對Tensor的作用是什么A、相減B、相除C、相乘D、相加答案:C9.反向傳播過程中傳遞的參數(shù)是什么?A、學習率B、迭代次數(shù)C、誤差D、網(wǎng)絡(luò)層數(shù)答案:C10.以下的四個選項當中,哪個選項的算法指的是有監(jiān)督的學習方式A、聚類B、降維C、回歸算法D、PCA答案:C11.以下哪個激活函數(shù)是對Relu的改進A、tanhB、sigmoidC、softmaxD、leaky-Relu答案:D12.神經(jīng)網(wǎng)絡(luò)中經(jīng)常使用到激活函數(shù),下面關(guān)于激活函數(shù)的說法是正確的?A、神經(jīng)網(wǎng)絡(luò)中最好的激活函數(shù)是sigmoidB、激活函數(shù)有正則化作用C、dropout是CNN中的激活函數(shù)D、神經(jīng)元輸出后需要給定一個激活函數(shù)答案:D13.LDA這個模型是在哪一年提出的?A、2000B、2001C、2002D、2003答案:D14.以下四個選項中,哪個選項的縮寫是RNNA、卷積神經(jīng)網(wǎng)絡(luò)B、標準神經(jīng)網(wǎng)絡(luò)C、循環(huán)神經(jīng)網(wǎng)絡(luò)D、自注意力機制答案:C15.在進行神經(jīng)網(wǎng)絡(luò)建模時,需要對目標數(shù)據(jù)進行怎樣的操作A、度量化B、抽象化C、具體化D、理想化答案:A16.在模型構(gòu)建前期,對數(shù)據(jù)進行劃分,正常的將數(shù)據(jù)集進行切分為三個集合,下面哪個不被包含?A、確認集B、測試集C、驗證集D、訓練集答案:A17.LDA模型可以做什么事情A、將文檔集中每篇文檔的主題以概率分布的形式給出,從而通過分析一些文檔抽取出它們的主題(分布)出來后,便可以根據(jù)主題(分布)進行主題聚類或文本分類B、可以找出來最優(yōu)的分類超平面C、可以找到因變量和自變量之間的一次關(guān)系D、不確定答案:A18.sigmoid可以把值映射到0,1之間,對于二分類問題,一會把下sigmoid的閾值會設(shè)為多少A、0.5B、0.1C、1D、0答案:A19.tf開始執(zhí)行每個變量里的初始化操作的函數(shù)是哪個A、variables_initializer()B、global_variables_initializer()C、sess.runD、global_initializer()答案:B20.tanh的輸出范圍是多少A、[0,1]B、[-1,1]C、[-1,0]D、[-0.5,0.5]答案:B21.下面哪個對batch歸一化的解釋不正確?A、使參數(shù)搜索問題變得容易B、使神經(jīng)網(wǎng)絡(luò)對超參數(shù)的選擇更加穩(wěn)定C、超參數(shù)的范圍更加龐大D、僅作用于輸入層答案:D22.BP算法是人工智能的里程碑,具體這個算法能起到什么作用A、最大化實際輸出與訓練集的誤差率B、最小化實際輸出與訓練集的誤差率C、均值化實際輸出與訓練集的誤差率D、范數(shù)化實際輸出與訓練集的誤差率答案:B23.造成RNN梯度消失與下面哪個因素有關(guān)A、激活函數(shù)求導B、學習率C、批處理數(shù)D、網(wǎng)絡(luò)層數(shù)答案:A24.tf.abs對張量做什么操作A、求絕對值B、相減C、相除D、相加答案:A25.常用的操作Batch歸一化的作用,和下列描述的哪個操作一樣?A、reluB、dropoutC、sigmoidD、tanh答案:B26.CNN網(wǎng)絡(luò)包含如下哪個概念A、視野域B、循環(huán)結(jié)構(gòu)C、梯度消失D、以上都不包含答案:A27.tf.subtract的返回值是什么類型的數(shù)據(jù)A、范數(shù)B、數(shù)組C、矢量D、Tensor答案:D28.下列選項中關(guān)于Batch歸一化的描述,描述錯誤的是哪個?A、使參數(shù)搜索問題變得容易B、使神經(jīng)網(wǎng)絡(luò)對超參數(shù)的選擇更加穩(wěn)定C、超參數(shù)的范圍更加龐大D、僅作用于輸入層答案:D29.tf.matmul()方法的作用是什么A、相與B、乘積C、相除D、相加答案:B30.哪個網(wǎng)絡(luò)結(jié)構(gòu)常用于人臉識別A、LeNET5B、(CNN:AlexNet)C、VGGD、ResNet答案:B31.關(guān)于在訓練模型,選擇超參數(shù)的過程中的隨機取值指的是?A、隨機選擇標尺取值B、隨機取值就是有效范圍內(nèi)隨機均勻取值C、選擇合適的標尺進行取值D、隨機的進行均勻的取值答案:C32.下列四個選項中,哪個選項指的是mini-batchA、小批量梯度下降B、隨機梯度下降C、批量梯度下降D、小批量損失計算答案:A33.以下四個人物中,哪個被譽為人工智能之父A、圖靈B、馮-諾依曼C、維納D、牛頓答案:A34.下面哪個尺寸一般被用于設(shè)置batch_size大小A、125B、126C、127D、128答案:D35.常用的激活函數(shù)relu,下列對該激活函數(shù)描述正確的是?A、引用了無效的單元格地址B、過濾無效神經(jīng)元C、不是激發(fā)函數(shù)D、將正數(shù)保留,將負數(shù)置0答案:D36.以下描述,說的是下列選項中哪個激活函數(shù)?描述:輸入信號<0時,輸出都是0,輸入信號>0的情況下,輸出等于輸入A、Sigmoid函數(shù)B、tanh函數(shù)C、ReLUD、cosh答案:C37.遷移學習說的是下面哪個網(wǎng)絡(luò)?A、RNNB、CNNC、NLPD、TransferLearning答案:D38.tf.add函數(shù)是對兩個tensor做什么運算?A、維度轉(zhuǎn)化B、相加C、相減D、相乘答案:B39.當使用withtf.Session()創(chuàng)建的會話時,在關(guān)閉時的同事()釋放資源A、自動B、手動C、不能D、無法答案:A40.以下哪個不屬于長短期記憶網(wǎng)絡(luò)A、輸入門B、輸出門C、更新門D、遺忘門答案:C41.神經(jīng)網(wǎng)絡(luò)中常用的dropout函數(shù),下列選項中關(guān)于它的描述正確的是?A、屬于正則處理B、一個激活函數(shù)C、用于分割數(shù)據(jù)集D、用于將數(shù)據(jù)樣本多樣化答案:A42.神經(jīng)網(wǎng)絡(luò)反向傳播傳播的是什么?A、學習率B、迭代次數(shù)C、誤差D、網(wǎng)絡(luò)層數(shù)答案:C43.NLP中的核心和最重要網(wǎng)絡(luò)是哪個?A、CNNB、NNC、RNND、SVM答案:C44.以下哪個激活函數(shù)用來處理二分類任務(wù)A、tanhB、LeakyReluC、sigmoidD、relu答案:C45.實際工程問題中,需要根據(jù)業(yè)務(wù)和需求,構(gòu)建相應(yīng)的()?A、架構(gòu)B、數(shù)學模型C、流程圖D、數(shù)據(jù)集答案:B46.一下哪個網(wǎng)絡(luò)是NLP中用的最多的A、ANNB、CNNC、RNND、DNN答案:C47.對LSTM的作用描述正確的是A、增大文本數(shù)量B、簡化文本C、特征提取D、文本分類答案:C48.下面哪個與過擬合問題有關(guān)?A、DorpoutB、正則化C、批規(guī)范化D、以上技術(shù)均可以答案:D49.動量梯度法,是通過學習率和什么控制的,下列說法正確的是?A、指數(shù)加權(quán)平均數(shù)B、局部平均值C、全局平局值D、方差答案:A50.計算TensorFlow以硬件平臺通常分為哪些版本A、CPU,GPU,TPUB、CPU,GPUC、CPUD、TPU答案:A51.對于選擇超參數(shù),選擇了不同的取值,不可以_____?A、選擇對訓練集目標而言的最優(yōu)解B、對于開發(fā)集而言的最優(yōu)解C、超參搜索過程中最想優(yōu)化的東西D、簡化參數(shù)調(diào)試答案:D52.像個性化推薦,機器創(chuàng)作等這類任務(wù),用到了以下哪個內(nèi)容A、深度學習B、GANC、自編碼D、遷移學習答案:A53.以下選項中關(guān)于sigmoid求導之后的值域描述正確的是?A、(0,0.1]B、(0,0.2]C、(0,0.25]D、(0,0.5]答案:C54.LDA模型的隱變量Z是A、每個詞對應(yīng)的主題B、每篇文檔對應(yīng)的主題C、每段話對應(yīng)的主題D、每個詞組對應(yīng)的主題答案:A55.tf.concat的作用?A、相加B、兩個張量拼接C、相減D、求絕對值答案:B56.下面哪個網(wǎng)絡(luò)常用于NLP任務(wù)中A、ANNB、CNNC、RNND、XNN答案:C57.RNN的意思是什么A、全連接網(wǎng)絡(luò)B、卷積神經(jīng)網(wǎng)絡(luò)C、循環(huán)神經(jīng)網(wǎng)絡(luò)D、感知機網(wǎng)絡(luò)答案:C58.以下幾個選項中跟LDA最為接近的模型是?A、pLSAB、線性回歸C、邏輯回歸D、嶺回歸答案:A59.循環(huán)神經(jīng)網(wǎng)絡(luò)RNN的作用描述正確的是A、增大文本數(shù)量B、簡化文本C、特征提取D、文本分類答案:C60.如何對比矩陣是否相等A、c=tf.greater(a,b)B、a=tf.subtract(a,b)C、b=tf.equal(a,b)D、d=tf.matmul(a,b)答案:C61.使用的TensorFlow中的一個方法進行數(shù)據(jù)的計算tf.subtract,最終會返回什么類型的數(shù)據(jù)A、TensorB、數(shù)組C、矢量D、范數(shù)答案:A62.什么樣的神經(jīng)網(wǎng)絡(luò)模型被稱為深度學習模型?A、加入更多層,使神經(jīng)網(wǎng)絡(luò)的深度增加B、有維度更高的數(shù)據(jù)C、當這是一個圖形識別的問題時D、以上都不正確答案:A63.在pLSA的基礎(chǔ)上加入了什么框架就可以變成LDAA、XGBoostB、LightGBMC、貝葉斯D、隨機森林答案:C64.learning_rate用于網(wǎng)絡(luò)的什么作用A、調(diào)整學習率B、批處理C、dropoutD、過擬合答案:A65.深度學習中的“超參數(shù)”指哪個?A、隱藏層的大小B、激活值C、權(quán)重D、偏置答案:A66.如果對圖像進行池化,ksize=[1,4,4,1]那么圖像會變成多大A、縮小到1/2B、擴大四倍C、擴大兩倍D、縮小到1/16答案:D67.常用的激活函數(shù)其中包括Tanh,它的導數(shù)的范圍是在哪個區(qū)間?A、(0,1]B、(0,0.1]C、(0,-1]D、(0,10]答案:A68.以下哪個領(lǐng)域包含文本摘要任務(wù)A、圖像識別B、數(shù)據(jù)挖掘C、自然語言D、不確定答案:C69.訓練模型階段,如果想要損失值最小,需要得到什么值?A、鞍點B、局部最優(yōu)解C、轉(zhuǎn)折點D、全局最優(yōu)解答案:D70.以下選項中關(guān)于在圖像特征經(jīng)過幾個卷積后,特征信號會發(fā)生怎樣的變化:A、減弱B、不變C、增強D、都有可能答案:D71.常用的softmax函數(shù),下列選項中描述正確得是哪個?A、主要用于二分類B、算出來為概率值C、將最小的概率值所對應(yīng)的類別作為輸入樣本的輸出類別D、所有的概率相加大于1答案:B72.CNN的全稱是什么A、全連接網(wǎng)絡(luò)B、循環(huán)神經(jīng)網(wǎng)絡(luò)C、卷積神經(jīng)網(wǎng)絡(luò)D、以上都不對答案:C73.sigmoid可以將數(shù)據(jù)的特征,映射到哪個區(qū)間?A、0,1B、0,-1C、10,0D、0,0.1答案:A74.交叉熵函數(shù)一般用作定義什么函數(shù)?A、損失函數(shù)B、激活函數(shù)C、relu函數(shù)D、sigmoid函數(shù)答案:A75.在網(wǎng)絡(luò)模型的構(gòu)建中,關(guān)于dropout運行的描述正確的是哪個?A、dropout能增加新樣本防止過擬合B、隨機取消一些節(jié)點,只是用部分節(jié)點進行擬合運算,防止過擬合C、dropout進行歸一化操作,防止過擬合D、dropout通過給損失函數(shù)增加懲罰項,防止過擬合答案:B76.以下哪個技術(shù)可以用于機器創(chuàng)作A、深度學習B、GANC、自編碼D、遷移學習答案:A77.tensoflow中的函數(shù)Graph.get_operations()的作用是什么A、返回圖中的操作節(jié)點列表B、為節(jié)點創(chuàng)建層次化的名稱,并返回一個上下文管理器C、完成圖的構(gòu)建,即將其設(shè)置為只讀模式D、返回圖中的操作節(jié)點列表答案:D78.BP算法說的是那兩個參數(shù)之間的誤差率A、最大化實際輸出與訓練集的誤差率B、最小化實際輸出與訓練集的誤差率C、均值化實際輸出與訓練集的誤差率D、范數(shù)化實際輸出與訓練集的誤差率答案:B79.在使用tensorflow提供了很多函數(shù),例如multiply,這個函數(shù)實現(xiàn)的功能是什么?A、相除B、相乘C、相與D、相加答案:B80.下列對神經(jīng)網(wǎng)絡(luò)中的relu激活函數(shù),正確的說法是哪個?A、引用了無效的單元格地址B、過濾無效神經(jīng)元C、不是激發(fā)函數(shù)D、將正數(shù)保留,將負數(shù)置0答案:D81.在TensorFlow中conv2d(a,b,c,d)中,四個參數(shù)中的b代表的是什么意思A、被卷積數(shù)據(jù)B、卷積核C、步長D、填充答案:B82.BP算法最早時,是在以下哪個任務(wù)中得到了最早的應(yīng)用A、手寫數(shù)字識別B、CPUC、GPUD、不確定答案:A83.RNN的中文全稱是什么?A、循環(huán)神經(jīng)網(wǎng)絡(luò)B、標準神經(jīng)網(wǎng)絡(luò)C、卷積神經(jīng)網(wǎng)絡(luò)D、自注意力機制答案:A84.sigmoid可以把值映射到0,1之間,通常情況下sigmoid的閾值會設(shè)為多少A、0.5B、0.1C、1D、0答案:A85.下列對于Batch歸一化操作的應(yīng)用范圍描述正確的是?A、作用于輸出層B、僅作用于輸入層C、無法在隱藏層起作用D、用于輸入層,甚至深度隱藏層的歸一化過程答案:D86.在NLP自然語言處理中,不可以做以下選項中的那個任務(wù)A、會話機器人B、人臉檢測C、推薦系統(tǒng)D、文本糾錯答案:B87.哪個為人工智能之父A、圖靈B、馮-諾依曼C、維納D、牛頓答案:A88.在RNN循環(huán)神經(jīng)網(wǎng)絡(luò)中,在反向傳播過程中很容易發(fā)生梯度消失現(xiàn)象,它與什么因素相關(guān)A、激活函數(shù)求導B、學習率C、批處理數(shù)D、網(wǎng)絡(luò)層數(shù)答案:A89.什么是隨機梯度下降A(chǔ)、隨機賦值,祈禱它們是正確的B、搜索所有權(quán)重和偏差的組合,直到得到最佳值C、賦予一個初始值,通過檢查跟最佳值的差值,然后迭代更新權(quán)重D、以上都不正確答案:C90.模型訓練階段,使用優(yōu)化算法是為了在迭代的過程中實現(xiàn)怎么的效果A、增大損失值B、使學習率衰減C、降低損失值D、提升正則項范圍答案:B91.網(wǎng)絡(luò)表示(NetworkEmbedding)模型是受到以下哪種模型的啟發(fā)而來?A、LDAB、word2vecC、PageRankD、SVD答案:B92.在使用TensorFlow的過程中,如果想要打印某點值,應(yīng)該怎么操作A、A=tf.run()B、A=S.valueC、A=S.eval()D、tf.assign()答案:A93.上升速度最快的是哪個函數(shù)A、線性函數(shù)B、指數(shù)函數(shù)C、對數(shù)函數(shù)D、冪函數(shù)答案:C94.在實際的應(yīng)用中,通常的歸一化和以下哪個選項中的描述一并使用A、訓練集的mini-batchB、測試集的mini-batchC、整個訓練集D、整個測試集答案:A95.dropout作為神經(jīng)網(wǎng)絡(luò)建模中常用的函數(shù),它有什么用A、沒有激活函數(shù)功能B、一種圖像特征處理算法C、一種語音處理算法D、一種正則化方式答案:D96.以下哪些是神經(jīng)網(wǎng)絡(luò)中的“超參數(shù)”?A、隱藏層的大小B、激活值C、權(quán)重D、偏置答案:A97.以下幾個選項中,哪個用來處理多分類任務(wù)A、tanhB、softmaxC、sigmoidD、relu答案:B98.tf開始執(zhí)行每個variable里的initializer的函數(shù)是哪個A、sess.runB、global_variables_initializer()C、variables_initializer()D、global_initializer()答案:B99.tf.concat對張量做什么運算A、相加B、兩個張量拼接C、相減D、求絕對值答案:B100.tf里的con1d的作用是什么A、二維卷積B、一維卷積C、lstm操作D、GRU操作答案:B101.關(guān)于Batch歸一化的描述,說法正確的是?A、批量歸一化B、僅對輸入數(shù)據(jù)進行歸一化C、僅對隱藏層進行歸一化D、提升了參數(shù)搜索難度答案:A102.在實現(xiàn)前向傳播和反向傳播中使用的“cache”是什么?A、它用于跟蹤我們正在搜索的超參數(shù),以加速計算。B、用于在訓練期間緩存代價函數(shù)的中間值。C、使用它傳遞反向傳播中計算的變量到相應(yīng)的前向傳播步驟,它包含對于前向傳播計算導數(shù)有用的變量。D、使用它傳遞前向傳播中計算的變量到相應(yīng)的反向傳播步驟,它包含對于反向傳播計算導數(shù)有用的變量。答案:D解析:cache“緩存”記錄來自正向傳播單元的值,并將其發(fā)送到反向傳播單元,這是鏈式求導的需要。103.tf.Graph.finalize()的作用是什么A、返回圖中的操作節(jié)點列表B、為節(jié)點創(chuàng)建層次化的名稱,并返回一個上下文管理器C、返回圖中的操作節(jié)點列表D、完成圖的構(gòu)建,即將其設(shè)置為只讀模式答案:D104.Tanh的導數(shù)范圍是多少?A、(0,1]B、(0,0.1]C、(0,-1]D、(0,10]答案:A105.多分類問題的最后一層一般用什么激活函數(shù)A、sigmoidB、tanhC、softmaxD、relu答案:C106.在下列神經(jīng)網(wǎng)絡(luò)的參數(shù)中,其中的參數(shù)的調(diào)試不包括哪個?A、學習率αB、動量梯度下降的參數(shù)βC、mini-Batch的大小D、輸入圖片大小答案:D107.正則化也是常用的手段,以下關(guān)于正則化描述錯誤的是哪個A、過擬合可以通過正則化方式消除B、常用的正則化方式由L1,L2,以及dropoutC、欠擬合可以通過正則化方式消除D、正則化是損失函數(shù)的一個補償項答案:C108.tf.to_int64的作用?A、轉(zhuǎn)為64位浮點類型–float64B、轉(zhuǎn)為32位整型–int32C、字符串轉(zhuǎn)為數(shù)字D、轉(zhuǎn)為64位整型–int64答案:D109.tf.tanh的作用是什么A、計算元素的sigmoid值.B、計算元素的softmax值.C、計算元素的雙曲正切值.D、計算元素的relu值答案:C110.以下哪個網(wǎng)絡(luò)用于文本表示的網(wǎng)絡(luò)A、RNNB、word2vecC、CNND、Transformer答案:B111.以下選項關(guān)于神經(jīng)網(wǎng)絡(luò)中,在對超參數(shù)的選擇和調(diào)試中,其中最重要的參數(shù)應(yīng)該是什么?A、mini-Batch的大小B、動量梯度下降的參數(shù)βC、學習率αD、隱藏層數(shù)目答案:C112.考慮文字背后語義關(guān)聯(lián)的是A、TF(詞頻)B、TF-IDFC、TF,TF-IDFD、LDA主題模型答案:D113.Relu的求導,正半?yún)^(qū)的求導之后是多少A、0B、0.25C、1D、-1答案:C114.雙曲正切激活函數(shù),指的是以下哪個激活函數(shù)?A、ReluB、sigmoidC、tanhD、sin答案:C115.二項分布屬于()A、連續(xù)型分布B、離散型分布C、正態(tài)分布D、伽瑪分布答案:B116.LDA中的一個采樣是什么采樣A、gamma函數(shù)B、二項分布C、pLSAD、Gibbs采樣答案:D117.下列說法中關(guān)于Batch歸一化的描述,說法正確的是?A、批量歸一化B、僅對輸入數(shù)據(jù)進行歸一化C、僅對隱藏層進行歸一化D、提升了參數(shù)搜索難度答案:A118.以下四個選項中關(guān)于二項分布說法正確的是A、連續(xù)型分布B、離散型分布C、正態(tài)分布D、伽瑪分布答案:B119.通常使用到的交叉熵函數(shù)是作為什么作用?A、損失函數(shù)B、激活函數(shù)C、sigmoid函數(shù)D、relu函數(shù)答案:A120.tf.mul的作用是什么A、相乘B、相加C、相減D、相除答案:A121.在動量梯度下降(Momentum)中,其中的參數(shù)β一般的默認值是多少?A、0.7B、0.8C、0.9D、1答案:C122.多分類問題一般用什么激活函數(shù)進行映射A、sigmoidB、tanhC、softmaxD、relu答案:C123.TensorFlow是一個開放源碼的軟件庫,通常它有哪些版本A、CPU,GPU,TPUB、CPU,GPUC、CPUD、TPU答案:A124.在下列幾關(guān)于mini-batch的說法當中,描述錯誤的是哪個?A、指的是批量梯度下降B、適用于樣本量小的數(shù)據(jù)集C、每一次只運算部分數(shù)據(jù),最后將全部數(shù)據(jù)進行運算D、適用于樣本量大的數(shù)據(jù)答案:B125.sigmoid激活函數(shù)有什么致命的缺點?A、反向傳播容易造成梯度消失B、正向傳播容易造成梯度消失C、正向傳播容易造成梯度爆炸D、以上都正確答案:A126.LDA的實質(zhì)是在做一個什么東西A、根據(jù)給定的一篇文檔,反推其主題B、可以找出來最優(yōu)的分類超平面C、可以找到因變量和自變量之間的一次關(guān)系D、不確定答案:A127.在tf中常用的Add函數(shù)它的用途是做什么?A、維度轉(zhuǎn)化B、相加C、相乘D、相減答案:B128.NLP中常用的激活函數(shù)Tanh,它的輸出的值域范圍是多少?A、+1和-1B、+0和-1C、+1和0D、+2和-2答案:A129.以下四個選項中能實現(xiàn)對比兩個矩陣是否相等的是哪個函數(shù)?A、c=tf.greater(a,b)B、a=tf.subtract(a,b)C、b=tf.equal(a,b)D、d=tf.matmul(a,b)答案:C130.下列管Batch歸一化操作的作用描述正確的是?A、作用于輸出層B、僅作用于輸入層C、無法在隱藏層起作用D、用于輸入層,甚至深度隱藏層的歸一化過程答案:D131.下列選項中,處理梯度消失問題效果最好的函數(shù)是哪個?A、sigmoidB、tanhC、reluD、Leakyrelu答案:D132.下列四個選項中,對于正則化的描述正確的選項是哪個?A、每一個隱層都需要正則化B、正則化可以預防過擬合C、正則化可以預防欠擬合D、每一個模型中都需要正則化,否則無法正確預測結(jié)果答案:B133.tanh激活函數(shù)相比sigmoid是有優(yōu)勢的,體現(xiàn)在哪些方面A、解決了sigmoid輸出為非0中心的問題B、tanh不易飽和C、tanh解決了sigmoid的指數(shù)運算D、tanh不會造成梯度消失答案:A134.在嶺回歸模型中,回歸系數(shù)的先驗分布是()。A、拉普拉斯分布B、正態(tài)分布C、正態(tài)分布與拉普拉斯的混合分布D、指數(shù)分布答案:B135.如果使用到了mini-batch去選取樣本,一般對選擇多大批次?A、61B、62C、63D、64答案:D136.Relu的求導非常簡單所以速度快,它正半?yún)^(qū)的求導之后是多少A、0B、0.25C、1D、-1答案:C137.LDA稱為()A、損失分布法B、內(nèi)部衡量法C、打分卡法D、內(nèi)部損失數(shù)據(jù)法答案:A138.下列選項中對于神經(jīng)網(wǎng)絡(luò)中的超參數(shù)調(diào)試的方法的描述,其中描述正確的是哪個選項?A、隨機選擇點來試驗超參數(shù)效果B、當你給超參數(shù)取值時,另一個慣例是采用由精細到粗糙的策略。C、只調(diào)試容易的D、給定默認值即可答案:A139.在貝葉斯統(tǒng)計中,如果后驗分布與先驗分布屬于同類,則被稱為什么A、二項分布B、多項分布C、共軛分布D、Bete分布答案:C140.最簡單常用的sigmoid激活函數(shù)的輸出值的范圍是在以下哪個區(qū)間中?A、0~1B、0~2C、-1~0D、-1~1答案:A141.batch_size一般設(shè)置為多少A、61B、62C、63D、64答案:D142.tf.nn.softmax_cross_entropy_with_logits的作用是什么?A、信息熵B、信息元C、交叉熵D、logits答案:C143.以下哪個手段不屬于CNNA、局部連接B、權(quán)值共享C、池化操作D、多層次結(jié)構(gòu)答案:D144.tensorflow的方法expand_dims用于對張量做什么操作A、改變tensor的形狀B、返回數(shù)據(jù)的元素數(shù)量C、插入維度1進入一個tensor中D、返回tensor的rank答案:C145.sigmoid激活函數(shù)最大的問題是容易造成____?A、反向傳播容易造成梯度消失B、正向傳播容易造成梯度消失C、正向傳播容易造成梯度爆炸D、以上都正確答案:A146.下列選項中哪個可以很好的解決梯度爆炸的問題?A、梯度剪切,正則B、增加擬合數(shù)據(jù)C、增加訓練數(shù)據(jù)維度D、增加隱藏層答案:A147.使用withtf.Session()assess創(chuàng)建的會話時,在關(guān)閉的同時會()釋放資源A、自動B、無法C、不能D、手動答案:A148.在對數(shù)據(jù)或者任務(wù)進行建模時,需要對目標進行怎樣的操作A、度量化B、抽象化C、具體化D、理想化答案:A149.以下哪個領(lǐng)域包含命名實體識別任務(wù)A、圖像識別B、數(shù)據(jù)挖掘C、自然語言D、不確定答案:C150.tf.abs的作用是什么A、相加B、相減C、相除D、求絕對值答案:D151.sigmoid激活函數(shù)的模型曲線是()?A、X型B、S型C、U型D、L型答案:B152.softmax是多分類中常用的函數(shù),它又叫什么函數(shù)A、概率B、歸一化C、損失函數(shù)D、空間答案:B153.以下幾個選項中,哪個是對relu激活函數(shù)的改進A、tanhB、LeakyReluC、sigmoidD、softmax答案:B154.下列四個選項中,對于正則化(regularization)的描述正確的選項是哪個?A、每一個隱層都需要正則化(regularization)B、每一個模型中都需要正則化,否則無法正確預測結(jié)果C、正則化可以預防欠擬合D、正則化可以預防過擬合答案:D155.GAN網(wǎng)絡(luò)指的是哪個網(wǎng)路A、生成對抗網(wǎng)絡(luò)B、卷積神經(jīng)網(wǎng)絡(luò)C、循環(huán)神經(jīng)網(wǎng)絡(luò)D、全連接網(wǎng)絡(luò)答案:A156.ReinforcementLearning是什么網(wǎng)絡(luò)A、全連接網(wǎng)絡(luò)B、遷移學習C、循環(huán)神經(jīng)網(wǎng)絡(luò)D、強化學習答案:D157.以下哪個不屬于LSTMA、輸入門B、輸出門C、更新門D、遺忘門答案:C158.下列關(guān)于mini-batch原理的說法,描述正確的是?A、選取數(shù)據(jù)中部分數(shù)據(jù)進行梯度下降B、和批量梯度下降相同,只是將算法進行優(yōu)化C、將數(shù)據(jù)每次進行一小批次處理,通過迭代將數(shù)據(jù)全部處理D、隨機選取一些數(shù)據(jù),計算梯度進行下降,每次將學習率降低一點答案:C159.常用的操作Batch歸一化,對比到神經(jīng)網(wǎng)絡(luò)中,和下列描述的哪個步驟很相似?A、reluB、dropoutC、sigmoidD、tanh答案:B160.像TensorFlow這樣的框架,為機器學習和()提供了方便靈活的接口A、機器學習B、算法重構(gòu)C、NPLD、深度學習答案:D161.tf中的conv2d(a,b,c,d),參數(shù)b代表什么?A、被卷積數(shù)據(jù)B、步長C、卷積核D、填充答案:C162.softmax又可以稱為什么函數(shù)A、概率B、歸一化C、損失函數(shù)D、空間答案:B163.以下哪個激活函數(shù)的執(zhí)行速度是最快的A、reluB、tanhC、sigmoidD、不能確定答案:A164.實際的應(yīng)用中在數(shù)據(jù)預處理階段會有數(shù)據(jù)劃分,下列關(guān)于訓練,測試以及驗證說法錯誤的是哪個?A、訓練集用于算子的擬合B、可以直接使用訓練集來驗證算子的準確率C、驗證集和測試集用來評判算子的準確度D、可以不配置驗證集答案:B165.神經(jīng)網(wǎng)絡(luò)的運行流程是從輸入層到()再到輸出層A、輸出層B、隱藏層C、輸出層D、激活函數(shù)層答案:B166.tanh的取值范圍是多少?A、+1和-1B、+0和-1C、+1和0D、+2和-2答案:A167.以下幾個描述中,關(guān)于優(yōu)化算法減小學習率的原因,說法正確的是?A、一種默認定式B、減少內(nèi)存容量C、避免在最優(yōu)解附近大幅度擺動D、減少迭代次數(shù)答案:C168.tf.reshape()的用途是?A、相乘B、相加C、維度轉(zhuǎn)化D、相減答案:C169.像sigmoid,relu,tanh等等這類叫做什么函數(shù)A、非激活B、激活C、極值D、修正線答案:B170.自動駕駛是如何起源的A、BP算法B、神經(jīng)網(wǎng)絡(luò)C、前向算法D、NFC答案:A171.通過以下哪種方式可以得到加權(quán)平均值A(chǔ)、局部平均值B、局部方差C、全局平均值D、全局方差答案:A172.以下幾個選項中,哪個選項沒描述神經(jīng)網(wǎng)絡(luò)的超參數(shù)是正確的A、權(quán)重B、偏置C、神經(jīng)網(wǎng)絡(luò)的層數(shù)D、激活值答案:C173.下列哪個說法是正確的?A、神經(jīng)網(wǎng)絡(luò)的更深層通常比前面層計算更復雜的輸入特征。B、神經(jīng)網(wǎng)絡(luò)的前面層通常比更深層計算更復雜的輸入特性。C、神經(jīng)網(wǎng)絡(luò)由輸入和隱藏層構(gòu)成D、神經(jīng)網(wǎng)絡(luò)的隱藏層只能是一層答案:A174.在NLP中,不可以做以下選項中的那個任務(wù)A、聊天機器人B、車牌檢測C、推薦系統(tǒng)D、文本糾錯答案:B175.哪個技術(shù)可以用來解決過擬合問題?A、DorpoutB、正則化C、批規(guī)范化D、以上技術(shù)均可以答案:D176.在使用tf時,其中有很多的接口,例如multiply,這個接口實現(xiàn)的功能是?A、相與B、相乘C、相除D、相加答案:B177.使用了mini-batch后,可以得到怎樣的下降效果?A、損失函數(shù)值一直下降B、損失函數(shù)值總體趨勢下降C、比梯度下降速度快D、梯度下降不明顯答案:B178.人工智能起源于哪個年代?A、20世紀50年代B、20世紀60年代C、20世紀70年代D、20世紀80年代答案:A179.tf.Graph.get_operations()的作用是什么A、返回圖中的操作節(jié)點列表B、為節(jié)點創(chuàng)建層次化的名稱,并返回一個上下文管理器C、返回圖中的操作節(jié)點列表D、完成圖的構(gòu)建,即將其設(shè)置為只讀模式答案:C180.以下幾個選項中,哪個選項是超參數(shù)A、權(quán)重B、偏置C、網(wǎng)絡(luò)層數(shù)D、激活值答案:C181.對于超參數(shù)調(diào)試的方法的描述,其中描述正確的是哪個選項?A、隨機選擇點來試驗超參數(shù)效果B、當你給超參數(shù)取值時,另一個慣例是采用由精細到粗糙的策略。C、只調(diào)試容易的D、給定默認值即可答案:A182.哪個激活函數(shù)的用于表示LSTM的“門”的概念A、reluB、tanhC、LeakyReluD、sigmoid答案:D183.在tf中常用的reshape函數(shù)它的用途是做什么?A、維度轉(zhuǎn)化B、相加C、相乘D、相減答案:A184.以下幾個網(wǎng)絡(luò)在NLP中最為常用的是哪個?A、CNNB、NNC、RNND、SVM答案:C185.tf.to_int32的作用是什么A、字符串轉(zhuǎn)為數(shù)字B、轉(zhuǎn)為64位浮點類型–float64C、轉(zhuǎn)為32位整型–int32D、轉(zhuǎn)為64位整型–int64答案:C186.以下幾個函數(shù)中,上升速度最快的是哪個A、線性函數(shù)B、指數(shù)函數(shù)C、冪函數(shù)D、對數(shù)函數(shù)答案:D187.哪個激活函數(shù)用于表示GRU的“門”A、reluB、tanhC、LeakyReluD、sigmoid答案:D188.在實現(xiàn)前向傳播和反向傳播中使用的“cache”(緩存)指哪個?A、它用于跟蹤我們正在搜索的超參數(shù),以加速計算。B、用于在訓練期間緩存代價函數(shù)的中間值。C、使用它傳遞反向傳播中計算的變量到相應(yīng)的前向傳播步驟,它包含對于前向傳播計算導數(shù)有用的變量。D、使用它傳遞前向傳播中計算的變量到相應(yīng)的反向傳播步驟,它包含對于反向傳播計算導數(shù)有用的變量。答案:D解析:cache“緩存”記錄來自正向傳播單元的值,并將其發(fā)送到反向傳播單元,這是鏈式求導的需要。189.在以下四個選項中哪些屬于神經(jīng)網(wǎng)絡(luò)中的參數(shù)A、學習率B、權(quán)重C、迭代次數(shù)D、隱藏層的大小答案:B190.梯度消失是RNN模型中的常見問題,以下四個選項中,哪個不能緩解梯度消失A、調(diào)整激活函數(shù)類型B、使用batchnormC、訓練值預處理D、增大隱藏層數(shù)量答案:D191.以下描述正確的是哪個?A、欠擬合是指驗證集和測試集的準確率都無法保證正常業(yè)務(wù)使用B、欠擬合的現(xiàn)象是訓練集和測試集準確率相近C、盡量不要出現(xiàn)適度擬合,會造成新數(shù)據(jù)準確率低D、過擬合的現(xiàn)象是訓練集準確率低,而測試集準確率高答案:A192.下面哪個個關(guān)于softmax函數(shù)的說法是正確的?A、主要用于二分類B、算出來為概率值C、將最小的概率值所對應(yīng)的類別作為輸入樣本的輸出類別D、所有的概率相加大于1答案:B193.計算圖模型是哪個框架中存在的A、pytorchB、tensorflowC、caffeD、paddle答案:B194.tensorflow的split()函數(shù)有什么用A、沿著某一維度連結(jié)tensorB、沿著某一維度將tensor分離為num_splittensorsC、對tensor進行切片操作D、沿著某維度進行序列反轉(zhuǎn)答案:B195.下面哪個隊tf.reverse的解釋是正確的A、沿著某一維度連結(jié)tensorB、沿著某一維度將tensor分離為num_splittensorsC、對tensor進行切片操作D、沿著某維度進行序列反轉(zhuǎn)答案:D196.哪個激活函數(shù)運行效率最高?A、reluB、tanhC、sigmoidD、不能確定答案:A197.下列幾個選項中,關(guān)于RMSprop算法的特點描述正確的優(yōu)哪些?A、指數(shù)加權(quán)平均數(shù)求和B、指數(shù)加權(quán)平均數(shù)先平方再開方C、指數(shù)加權(quán)平均數(shù)求微分D、指數(shù)加權(quán)平均數(shù)求均方誤差答案:B198.在優(yōu)化算法的計算當中,使用到了以下哪種方式A、標準差加權(quán)平均B、方差加權(quán)平均C、對數(shù)加權(quán)平均D、指數(shù)加權(quán)平均答案:D199.以下說法當中,LDA是可以做什么的A、對圖像進行文本B、對圖像進行特征提取C、對文檔的主題進行分類或聚類D、以上都正確答案:C200.以下哪個激活函數(shù)常用于解決類似文本分類的多分類任務(wù)A、tanhB、sigmoidC、reluD、softmax答案:D201.數(shù)據(jù)歸一化通常和以下哪個選項中一起使用A、訓練集的mini-batchB、測試集的mini-batchC、整個訓練集D、整個測試集答案:A202.最早的自動駕駛汽車是在80年代,它是基于哪種形式制造出來的A、BP算法B、神經(jīng)網(wǎng)絡(luò)C、前向算法D、NFC答案:A203.以下幾個選項,哪一個常賦值給batch_sizeA、128B、127C、126D、125答案:A204.深度學習常用框架TensorFlow,在該框架下如何正確調(diào)用dropout函數(shù)A、tf.nn.dropoutB、tf.train.dropoutC、tf.dropoutD、tf.dropOut答案:A205.在模型訓練的階段,使用的優(yōu)化算法中,超參數(shù)學習率會怎么變化A、保持不變B、持續(xù)較小C、持續(xù)增大D、不變答案:B206.在動量梯度下降中,其中的參數(shù)β一般的默認值是多少,下列哪個選項是正確的A、0.7B、0.8C、0.9D、1答案:C207.下列哪個激活函數(shù),處理梯度消失問題效果最好?A、sigmoidB、LeakyreluC、reluD、tanh答案:B208.哪個激活函數(shù)修正了Relu激活函數(shù)的缺點A、tanhB、leaky-ReluC、softmaxD、sigmoid答案:B209.深度學習中最常使用的框架就是TensorFlow,該框架中的matmul方法的作用是什么A、相與B、乘積C、相除D、相加答案:B210.tensoflow中的圖函數(shù)Graph.finalize()有什么用處?A、返回圖中的操作節(jié)點列表B、為節(jié)點創(chuàng)建層次化的名稱,并返回一個上下文管理器C、返回圖中的操作節(jié)點列表D、完成圖的構(gòu)建,即將其設(shè)置為只讀模式答案:D211.神經(jīng)網(wǎng)絡(luò)的訓練過程,經(jīng)常要做數(shù)據(jù)劃分,以下說法正確的是?A、可以不設(shè)置訓練集B、可以不設(shè)置測試集C、可以不設(shè)置驗證集D、不確定答案:C212.tensorflow中的concat函數(shù)有什么用途?A、沿著某一維度連結(jié)tensorB、沿著某一維度將tensor分離為num_splittensorsC、對tensor進行切片操作D、沿著某維度進行序列反轉(zhuǎn)答案:A213.以下四個選項中,哪個激活函數(shù)的的輸出在0~1的范圍之間A、reluB、tanhC、LeakyReluD、sigmoid答案:D214.以下幾個選項中關(guān)于梯度消失的說法描述正確的是哪個選項?A、通過優(yōu)化算法,處理梯度,可以更快做梯度下降,獲取最優(yōu)解B、由于數(shù)據(jù)處理或者激活函數(shù)選擇不合理等原因,無法獲取梯度,從而不能獲得最優(yōu)解C、由于隱藏層數(shù)量過少,無法獲取梯度,從而不能獲得最優(yōu)解D、通過更多隱藏層,減少梯度迭代,從而更快的進行計算,獲取最優(yōu)解答案:B215.模型中可能會出現(xiàn)擬合的情況,下列選項中關(guān)于擬合說法正確的是?A、過擬合只發(fā)生在理論階段,實際不會發(fā)生這種情況B、欠擬合是數(shù)據(jù)量過多,造成無法全部計算的現(xiàn)象C、訓練準確率高,測試準確率低的情況,數(shù)據(jù)過擬合D、過擬合是指數(shù)據(jù)量大,計算復雜的情況答案:C216.以下哪個技術(shù)可以用于機器寫詩、機器閱讀A、深度學習B、GANC、自編碼D、遷移學習答案:A217.relu是常用的激活函數(shù),它可以將小于()的數(shù)輸出為0A、-1B、0C、1D、x答案:B218.tanh相比sigmoid的優(yōu)勢之處何以體現(xiàn)A、解決了sigmoid輸出為非0中心的問題B、tanh不易飽和C、tanh解決了sigmoid的指數(shù)運算D、tanh不會造成梯度消失答案:A219.修正線性函數(shù)指的是哪個函數(shù)A、sigmoidB、tanhC、reluD、Leakyrelu答案:C220.Relu函數(shù)存在一定的缺陷,以下哪個激活函數(shù)是對其進行的改進A、sigmoidB、LeakyreluC、reluD、tanh答案:B221.人工智能近幾年大火,它最早是在什么時候出現(xiàn)的?A、20世紀50年代B、20世紀60年代C、20世紀70年代D、20世紀80年代答案:A222.正常的將數(shù)據(jù)集進行切分為三個集合,其中不包括下列哪個集合?A、測試集B、確認集C、驗證集D、訓練集答案:B223.以下哪個與LSTM無關(guān)A、遺忘門B、輸入門C、輸出門D、更新門答案:D224.下面哪個不屬于超參數(shù)?A、學習率αB、動量梯度下降的參數(shù)βC、mini-Batch的大小D、輸入圖片大小答案:D225.為模型選擇超參數(shù),選擇了不同的取值,不可以_____?A、選擇對訓練集目標而言的最優(yōu)解B、對于開發(fā)集而言的最優(yōu)解C、超參搜索過程中最想優(yōu)化的東西D、簡化參數(shù)調(diào)試答案:D226.Batch歸一化操作用于網(wǎng)絡(luò)的什么層?A、輸出層B、輸入層C、無法在隱藏層起作用D、用于輸入層,甚至深度隱藏層的歸一化過程答案:D227.backpropagation算法,其中的backpropagation指的什么方向進行傳播?A、反向B、前后向C、全連接D、正向答案:A228.在神經(jīng)網(wǎng)絡(luò)中常使用到的非線性激活函數(shù)sigmoid,該函數(shù)的模型曲線是()?A、X型B、S型C、L型D、U型答案:B229.tensorflow的reshape方法可以對張量起什么用A、插入維度1進入一個tensor中B、改變tensor的形狀C、改變tensor的數(shù)據(jù)類型D、轉(zhuǎn)為32位整型–int32答案:B230.下列是對于Batch歸一化的描述,其中它的流程步驟不包括下列哪個選項?A、求每個訓練批次數(shù)據(jù)的均值B、求每個訓練批次數(shù)據(jù)的方差C、使用求得的均值和方差對該批次的訓練數(shù)據(jù)做歸一化,獲得0-1分布D、求每個訓練批次的和答案:D231.在TensorFlow中的conv2d(a,b,c,d)函數(shù)中有四個參數(shù),哪個參數(shù)是被卷積的數(shù)據(jù)?A、bB、aC、cD、d答案:B232.dropout作為常用的函數(shù),它能起到什么作用A、沒有激活函數(shù)功能B、一種正則化方式C、一種圖像特征處理算法D、一種語音處理算法答案:B233.現(xiàn)有一份大小為n的數(shù)據(jù)集,如果采用mini-batch的方式,那么它的大小應(yīng)該是多少A、1B、mC、0D、大于2,小于m答案:A234.tf.expand_dims是什么意思A、改變tensor的形狀B、返回tensor的rankC、插入維度1進入一個tensor中D、返回數(shù)據(jù)的元素數(shù)量答案:C235.實際的應(yīng)用中會有很多的數(shù)據(jù),下列關(guān)于數(shù)據(jù)劃分后的訓練,測試以及驗證說法錯誤的是哪個?A、可以直接使用訓練集來驗證算子的準確率B、訓練集用于算子的擬合C、驗證集和測試集用來評判算子的準確度D、可以不配置驗證集答案:A236.使用TensorFlow去定義常量的操作,以下正確得是?A、tensor=tf.constant(1)B、tensor=tf.constant([1,2])C、tensor=tf.constant(-1,shape=[2,3])D、a=tf.constant([1.0,2.0],name="a)答案:D237.以下幾個機器學習算法中,哪個算法是比較常用的無監(jiān)督學習算法A、聚類B、K-近鄰算法C、回歸算法D、決策樹答案:A238.什么情況下神經(jīng)網(wǎng)絡(luò)模型被稱為深度學習模型?A、加入更多層,使神經(jīng)網(wǎng)絡(luò)的深度增加B、有維度更高的數(shù)據(jù)C、當這是一個圖形識別的問題時D、以上都不正確答案:A239.Adam動態(tài)優(yōu)化器,下列關(guān)于它的說法正確的是?A、強化了RMSprop算法B、強化了動量梯度算法C、同時使用Momentum和RMSprop算法D、沒有核心答案:C240.tf如何定義常量?A、tensor=tf.constant([1,2])B、tensor=tf.constant(1)C、tensor=tf.constant(-1,shape=[2,3])D、a=tf.constant([1.0,2.0],name="a)答案:D241.以下哪個超參數(shù)的調(diào)試,對神經(jīng)網(wǎng)絡(luò)最重要?A、mini-Batch的大小B、動量梯度下降的參數(shù)βC、學習率αD、隱藏層數(shù)目答案:C242.tf.to_float的作用是什么A、將張量轉(zhuǎn)換為float32類型.B、轉(zhuǎn)為64位浮點類型–float64C、轉(zhuǎn)為32位整型–int32D、轉(zhuǎn)為64位整型–int64答案:A243.以下四個選項中,哪個操作不能解決梯度消失的問題A、調(diào)整激活函數(shù)類型B、使用batchnormC、增大隱藏層數(shù)量D、訓練值預處理答案:C244.tensorflow里的函數(shù)con1d是進行什么操作A、二維卷積B、一維卷積C、GRU操作D、lstm操作答案:B245.下面哪個函數(shù)的現(xiàn)狀是S曲線型的A、Sigmoid函數(shù)B、tanh函數(shù)C、ReLUD、cosh答案:C246.tf.slice的作用是什么A、沿著某一維度連結(jié)tensorB、沿著某一維度將tensor分離為num_splittensorsC、對tensor進行切片操作D、沿著某維度進行序列反轉(zhuǎn)答案:C247.以下哪個函數(shù)常用于解決二分類問題A、tanhB、sigmoidC、softmaxD、relu答案:B248.在人工智能領(lǐng)域中,提出的一個重要的什么框架A、機器學習B、深度學習C、開源算法D、tensorflow答案:B249.文本糾錯,機器翻譯屬于哪個領(lǐng)域的任務(wù)A、圖像識別B、自然語言C、數(shù)據(jù)挖掘D、不確定答案:B250.以下四個框架當中,在深度學習領(lǐng)域應(yīng)用最多的框架是哪個?A、caffeB、torchC、tensorflowD、mxnet答案:C251.遷移學習的英文表示是什么?A、RNNB、CNNC、NLPD、TransferLearning答案:D252.Batch歸一化,在神經(jīng)網(wǎng)絡(luò)中有很強的作用,系列描述中,哪個選項說的不是它的作用A、減少了隱藏值分布變化的數(shù)量B、減少了輸入值改變的問題C、有輕微的正則化效果D、增加了輸入值改變的問題答案:D253.GAN網(wǎng)絡(luò)的全稱是什么A、生成對抗網(wǎng)絡(luò)B、卷積神經(jīng)網(wǎng)絡(luò)C、循環(huán)神經(jīng)網(wǎng)絡(luò)D、全連接網(wǎng)絡(luò)答案:A254.相比con1d,conv2d的作用是什么A、lstm操作B、一維卷積C、GRU操作D、二維卷積答案:D255.下列哪一項在神經(jīng)網(wǎng)絡(luò)中引入了非線性?A、隨機梯度下降B、修正線性單元(ReLU)C、卷積函數(shù)D、以上都不正確答案:B256.下面哪個選項說的不是Batch歸一化的作用A、減少了隱藏值分布變化的數(shù)量B、減少了輸入值改變的問題C、有輕微的正則化效果D、增加了輸入值改變的問題答案:D257.對圖像特征經(jīng)過做幾個卷積操作后,特征信號會有什么變化:A、減弱B、不變C、增強D、都有可能答案:D258.在進行池化的時候,如果參數(shù)ksize=[1,4,4,1]那么圖像會發(fā)生什么樣的變化A、縮小到1/2B、縮小到1/16C、擴大兩倍D、擴大四倍答案:B259.LDA中的五個分布其中的二項分布,是一個什么分布A、離散的隨機分布B、連續(xù)的隨機分布C、連續(xù)的分布D、不確定答案:A260.卷積神經(jīng)網(wǎng)絡(luò)包含如下哪個概念A、視野域B、循環(huán)結(jié)構(gòu)C、梯度消失D、以上都不包含答案:A261.tf.conv2d(a,b,c,d)函數(shù)的四個參數(shù),哪個參數(shù)表示輸入數(shù)據(jù)?A、bB、aC、cD、d答案:B262.初始學習率一般設(shè)置為多大合適A、1000B、10C、100D、0.01答案:D263.知識圖譜用到了哪個領(lǐng)域的技術(shù)A、計算機視覺B、數(shù)據(jù)挖掘C、自然語言處理D、機器學習答案:C264.在圖像的人臉識別中,深度學習有哪些應(yīng)用,使用到的是哪個網(wǎng)絡(luò)結(jié)構(gòu)A、LeNET5B、(CNN:AlexNet)C、VGGD、ResNet答案:B265.以下哪個與卷積神經(jīng)網(wǎng)絡(luò)無關(guān)A、局部連接B、權(quán)值共享C、池化操作D、多層次結(jié)構(gòu)答案:D266.構(gòu)建神經(jīng)網(wǎng)絡(luò)模型,經(jīng)常會發(fā)生過擬合現(xiàn)象,下列選項中關(guān)于擬合說法正確的是?A、過擬合只發(fā)生在理論階段,實際不會發(fā)生這種情況B、欠擬合是數(shù)據(jù)量過多,造成無法全部計算的現(xiàn)象C、過擬合是指數(shù)據(jù)量大,計算復雜的情況D、訓練準確率高,測試準確率低的情況,數(shù)據(jù)過擬合答案:D267.反向傳播指的是哪個變量的傳遞?A、訓練輪次B、批處理數(shù)C、誤差D、網(wǎng)絡(luò)層數(shù)答案:C268.前項算法中,除了需要有聯(lián)合權(quán)重w,還需要有一個什么函數(shù),才能正常的進行計算A、激活函數(shù)B、正弦函數(shù)C、余弦函數(shù)D、都可以答案:A269.關(guān)于tf.conv2d函數(shù),該方法接收到的張量維度是多大?A、[batch,in_height,in_width,in_channels]B、[Size,in_height,in_width,in_channels]C、[batch,in_width,in_height,in_channels]D、[batch,in_channels,in_height,in_width]答案:A270.以下四個任務(wù)當中LDA可以很好的完成哪個任務(wù)?A、對圖像進行文本B、對圖像進行特征提取C、對文檔的主題進行分類或聚類D、以上都正確答案:C271.tf.Variable(tf.random_normal([20,10,3,16])),在該操作中,關(guān)于定義的卷積核的高度,下列選項中描述正確的是?A、10B、20C、16D、3答案:B272.下列選項中,關(guān)于激活函數(shù)的描述,說法正確的是哪個?A、神經(jīng)網(wǎng)絡(luò)中最好的激活函數(shù)是sigmoidB、激活函數(shù)有正則化作用C、dropout是CNN中的激活函數(shù)D、神經(jīng)元輸出后需要給定一個激活函數(shù)答案:D273.哪個激活函數(shù)用于類似文本分類的二分類任務(wù)A、tanhB、reluC、softmaxD、sigmoid答案:D274.如果從一個區(qū)間[a,b],從中隨機出一個值y,下列說法中不正確的是?A、取最小值的對數(shù)得到a的值B、取最小值的對數(shù)得到b的值C、取最大值的對數(shù)得到b的值D、取任意值r,則超參數(shù)設(shè)置為10的r次方答案:B275.下面哪一個說法更能解釋隨機梯度下降的原理A、隨機賦值,祈禱它們是正確的B、搜索所有權(quán)重和偏差的組合,直到得到最佳值C、賦予一個初始值,通過檢查跟最佳值的差值,然后迭代更新權(quán)重D、以上都不正確答案:C276.RNN是什么的簡稱A、全連接網(wǎng)絡(luò)B、卷積神經(jīng)網(wǎng)絡(luò)C、循環(huán)神經(jīng)網(wǎng)絡(luò)D、感知機網(wǎng)絡(luò)答案:C277.AutoEncoder是什么網(wǎng)絡(luò)和技術(shù)A、自編碼器B、強化學習C、遷移學習D、循環(huán)神經(jīng)網(wǎng)絡(luò)答案:A278.對于超參數(shù)隨機取值指的是?A、隨機選擇標尺取值B、隨機取值就是有效范圍內(nèi)隨機均勻取值C、選擇合適的標尺進行取值D、隨機的進行均勻的取值答案:C279.如果網(wǎng)絡(luò)中遇到了梯度爆炸問題,下列選項中哪個可以很好的解決?A、梯度剪切,正則B、增加擬合數(shù)據(jù)C、增加訓練數(shù)據(jù)維度D、增加隱藏層答案:A280.可以如何選擇神經(jīng)網(wǎng)絡(luò)的參數(shù)或超參A、通過常識選擇B、隨機選擇點來試驗超參數(shù)效果C、選擇輸入的參數(shù)即可D、取離散參數(shù)的平均值答案:B281.LDA中的一個函數(shù)指的是以下哪個?A、Gibbs采樣B、pLSAC、beta分布D、gamma函數(shù)答案:D282.以下幾個選項中,哪個用來處理多類別任務(wù)A、tanhB、softmaxC、sigmoidD、relu答案:B283.tf.cast函數(shù)的返回值數(shù)據(jù)類型是什么A、整數(shù)型B、布爾型C、浮點型D、字符串答案:C284.在預處理極端,關(guān)于數(shù)據(jù)歸一化的描述正確的哪個選項A、通過中值和均值進行確定B、通過方差和均值確定C、通過平均值和最小值確定D、通過標準差和均值確定答案:B285.關(guān)于梯度消失的解釋,下面哪個是準確的?A、通過優(yōu)化算法,處理梯度,可以更快做梯度下降,獲取最優(yōu)解B、由于數(shù)據(jù)處理或者激活函數(shù)選擇不合理等原因,無法獲取梯度,從而不能獲得最優(yōu)解C、由于隱藏層數(shù)量過少,無法獲取梯度,從而不能獲得最優(yōu)解D、通過更多隱藏層,減少梯度迭代,從而更快的進行計算,獲取最優(yōu)解答案:B286.關(guān)于選擇超參數(shù)的范圍,下列選項中描述正確的是?A、隨機取值可以提升搜索效率B、隨機取值就是隨機均勻取值C、范圍就是[0,1]D、隨機取值對搜索無影響答案:A287.以下哪個激活函數(shù)經(jīng)常用來解決二分類問題A、tanhB、LeakyReluC、sigmoidD、relu答案:C288.文本分類,情感識別等等屬于以下哪個選項的子任務(wù)A、數(shù)據(jù)挖掘B、不確定C、圖像識別D、自然語言答案:D289.以下幾個選項中,哪個選項指的是“修正線性單元”A、tanhB、LeakyReluC、sigmoidD、relu答案:D290.以下哪個不屬于無監(jiān)督學習A、聚類B、降維C、回歸算法D、PCA答案:C291.以下哪個函數(shù)表示雙曲正切激活函數(shù)?A、ReluB、sigmoidC、tanhD、sin答案:C292.tf.reshape有什么作用A、插入維度1進入一個tensor中B、改變tensor的形狀C、改變tensor的數(shù)據(jù)類型D、轉(zhuǎn)為32位整型–int32答案:B293.在自然語言中,主要應(yīng)用到的是深度學習神經(jīng)網(wǎng)絡(luò)是以下哪個A、ANNB、CNNC、RNND、XNN答案:C294.以下哪個參數(shù)屬于超參數(shù)?A、學習率B、激活值C、損失值D、偏置答案:A295.在人工智能領(lǐng)域中,提出的一個重要的技術(shù)是什么A、機器學習B、深度學習C、開源算法D、tensorflow答案:B296.下面哪個不是常用的激活函數(shù)?A、dropoutB、reluC、sigmoidD、tanh答案:A297.在TensorFlow框架中,如何正確的調(diào)用Adam優(yōu)化器?A、tf.example.AdamOptimizerB、tf.train.AdamOptimizerC、tf.nn.AdamOptimizerD、tf.AdamOptimizer答案:B298.激活函數(shù)也在不斷的更新,以下哪個激活函數(shù)是在Relu的基礎(chǔ)上優(yōu)化的A、sigmoidB、tanhC、reluD、Leakyrelu答案:D299.tf.Variable(tf.random_normal([20,10,5,16])),在該操作中,關(guān)于定義的卷積核高度是多少?A、10B、6C、16D、20答案:D300.tf.to_double的作用?A、將張量轉(zhuǎn)換為float64類型B、轉(zhuǎn)為32位整型–int32C、轉(zhuǎn)為64位整型–int64D、字符串轉(zhuǎn)為數(shù)字答案:A301.指數(shù)分布的均值的倒數(shù)的共軛先驗分布是()A、貝塔分布B、泊松分布C、伽馬分布D、指數(shù)分布答案:B302.以下四個選項中,哪個說的是修正線性函數(shù)A、sigmoidB、tanhC、reluD、Leakyrelu答案:C303.以下四個選項中關(guān)于sigmoid的圖形曲線描述正確的是?A、U型B、M型C、X型D、S型答案:D304.tanh激活函數(shù)也有造成梯度消失等問題和sigmoid相比,()sigmoidA、優(yōu)于B、劣與C、等于D、小于等于答案:A305.自動駕駛是基于哪種技術(shù)提出的A、BP算法B、神經(jīng)網(wǎng)絡(luò)C、前向算法D、NFC答案:A306.以下選項中關(guān)于擬合的問題,說法描述正確的是?A、過擬合的現(xiàn)象是訓練集準確率低,而測試集準確率高B、欠擬合的現(xiàn)象是訓練集和測試集準確率相近C、盡量不要出現(xiàn)適度擬合,會造成新數(shù)據(jù)準確率低D、欠擬合是指驗證集和測試集的準確率都無法保證正常業(yè)務(wù)使用答案:D307.google開發(fā)的深度學習框架叫什么A、pytorchB、tensorflowC、caffeD、mxnet答案:B308.以下的四個選項中,哪個選項不是激活函數(shù)?A、reluB、sigmoidC、tanhD、dropout答案:D309.tanh激活函數(shù)的輸出值在什么區(qū)間A、[0,1]B、[-1,1]C、[-1,0]D、[-0.5,0.5]答案:B310.tf.reverse的正確說法是哪一項?A、沿著某一維度連結(jié)tensorB、沿著某一維度將tensor分離為num_splittensorsC、對tensor進行切片操作D、沿著某維度進行序列反轉(zhuǎn)答案:D311.tensorflow中的cast方法,返回值的數(shù)據(jù)類型是什么樣的A、整數(shù)型B、布爾型C、浮點型D、字符串答案:C312.CNN中,一般選擇有多個卷積核是為了什么A、同時提取多個圖像的特征B、提取某些圖像多個特征C、圖像有多個通道D、與多特征無關(guān)答案:B313.pytorch框架是哪個公司開發(fā)的A、MITB、facebookC、googleD、apple答案:B314.像sigmoid,relu,tanh等等這類做非線性映射的函數(shù)叫做什么A、非激活B、激活C、極值D、修正線答案:B315.實際的開發(fā)問題中,需要根據(jù)需求和實際問題,構(gòu)建相應(yīng)的__?A、架構(gòu)B、流程圖C、數(shù)學模型D、數(shù)據(jù)集答案:C316.網(wǎng)絡(luò)結(jié)構(gòu)中常用的dropout函數(shù),對其描述正確的是哪個?A、用于分割數(shù)據(jù)集B、一個激活函數(shù)C、屬于正則處理D、用于將數(shù)據(jù)樣本多樣化答案:C317.文本分類,會話機器人等等屬于以下哪個選項的子任務(wù)A、數(shù)據(jù)挖掘B、不確定C、圖像識別D、自然語言答案:D318.conv2d的作用是什么A、一維卷積B、lstm操作C、GRU操作D、二維卷積答案:D319.前向傳播過程中,除了需要有權(quán)重w,還需要有一個什么函數(shù)做非線性變換,才能較好的進行計算A、激活函數(shù)B、正弦函數(shù)C、余弦函數(shù)D、都可以答案:A320.關(guān)于對于數(shù)據(jù)切分的問題,以下說法正確的是?A、可以不設(shè)置訓練集B、可以不設(shè)置測試集C、可以不設(shè)置驗證集D、不確定答案:C321.CNN中設(shè)置多個卷積核是為了什么目的A、同時提取多個圖像的特征B、提取某些圖像多個特征C、圖像有多個通道D、與多特征無關(guān)答案:B322.交叉熵函數(shù)是常用的損失函數(shù),它是通過度量兩個什么分布的差異性A、概率B、矢量C、矩陣信息D、空間答案:A323.LDA屬于一個什么模型A、語言模型B、詞袋子模型C、預訓練模型D、不確定答案:B324.tf.split是什么意思A、沿著某一維度連結(jié)tensorB、沿著某一維度將tensor分離為num_splittensorsC、對tensor進行切片操作D、沿著某維度進行序列反轉(zhuǎn)答案:B325.以下幾個選項中,可以通過哪種方式來選擇參數(shù)或超參A、通過常識選擇B、隨機選擇點來試驗超參數(shù)效果C、選擇輸入的參數(shù)即可D、取離散參數(shù)的平均值答案:B326.如果一個[a,b]的區(qū)間,從中隨機出一個值x,那么下列說法中不正確的是?A、取最小值的對數(shù)得到a的值B、取最小值的對數(shù)得到b的值C、取最大值的對數(shù)得到b的值D、取任意值r,則超參數(shù)設(shè)置為10的r次方答案:B327.在框架TensorFlow下conv2d(),該方法接收到的張量維度是多大?A、[batch,in_height,in_width,in_channels]B、[Size,in_height,in_width,in_channels]C、[batch,in_width,in_height,in_channels]D、[batch,in_channels,in_height,in_width]答案:A328.以下四個選項中,哪個函數(shù)的取值范圍在[0~1]A、reluB、tanhC、LeakyReluD、sigmoid答案:D329.TensorFlow內(nèi)置的dropoutAPI是哪個A、tf.train.dropoutB、tf.dropoutC、tf.dropOutD、tf.nn.dropout答案:D330.TensorFlow作為深度學習常用的框架,其中的tf.nn.softmax_cross_entropy_with_logits的作用是做什么的?A、信息熵B、信息元C、logitsD、交叉熵答案:D331.以下哪個函數(shù)常用于解決多分類問題A、tanhB、sigmoidC、softmaxD、relu答案:C332.BP算法,其中的BP指的怎樣傳播?A、反向B、正向C、前后向D、全連接答案:A多選題1.CNN模型的核心包括下面哪些選項A、局部連接B、權(quán)值共享C、多層次結(jié)構(gòu)D、池化操作答案:ABD2.以下哪個任務(wù)是NLP中的常見任務(wù)A、文本摘要B、機器翻譯C、閱讀理解D、以上都不正確答案:ABC3.LDA中包含一個理念和一個概念A、共軛先驗B、貝葉斯框架C、二項分布D、gamma函數(shù)答案:AB4.關(guān)于神經(jīng)網(wǎng)絡(luò)的層數(shù)說法,正確的分為哪幾層A、輸入層B、輸出層C、隱藏層D、以上都正確答案:ABCD5.關(guān)于神經(jīng)網(wǎng)絡(luò),由哪幾部分組成A、輸入層B、輸出層C、隱藏層D、以上都正確答案:ABCD6.下列選項中,哪些是比較常用的梯度下降優(yōu)化器?A、dropoutB、動量梯度下降法C、RMSpropD、Adam答案:BCD7.BP算法中最重要的兩個環(huán)節(jié),分別是什么?A、激勵傳播B、權(quán)重更新C、信息傳播D、激活函數(shù)答案:AB8.在神經(jīng)網(wǎng)絡(luò)中,單個神經(jīng)元能解決什么問題A、與B、或C、非D、異或答案:ABC9.以下哪些是CNN的內(nèi)容A、卷積B、池化C、循環(huán)神經(jīng)結(jié)構(gòu)D、以上都不對答案:AB10.以下哪些屬于GRUA、更新門B、重置門C、輸入門D、輸出門答案:AB11.經(jīng)過Batch歸一化的操作會產(chǎn)生相應(yīng)的良性效果,那么為什么會該操作會產(chǎn)生作用A、通過歸一化所有的輸入特征值,以獲得類似范圍的值,加速學習B、將參數(shù)歸一化可以減緩學習速率C、可以使權(quán)重比你的網(wǎng)絡(luò)更滯后或更深D、可以使權(quán)重比你的網(wǎng)絡(luò)更超前或更深答案:AC12.LightGBM的優(yōu)化方向有哪些A、帶深度限制的Leaf-wise的葉子生長策略B、直方圖做差加速直接C、支持類別特征(CategoricalFeature)D、以上不都是答案:ABC13.pytorch框架可用于解決以下哪些問題A、NLPB、CVC、DMD、都不能答案:ABC14.以下哪些網(wǎng)絡(luò)結(jié)構(gòu)可用于做語料情感分析A、fastTextB、textRNNC、textCNND、以上都不可以答案:ABC15.在tensorflow中reshape函數(shù)其中的參數(shù)有(tensor,shape,name)等等,以下選項中描述正確的是A、函數(shù)的作用是將tensor變換為參數(shù)shape形式B、其中的shape為一個列表形式C、name可省略D、1所代表的含義是我們不用親自去指定這一維的大小,函數(shù)會自動進行計算答案:ABCD16.下面哪些損失函數(shù)可以作為分類任務(wù)的損失函數(shù)A、信息熵B、概率模型C、最小二乘平方損失D、距離模型答案:ABCD17.從區(qū)間[a,b]中隨機獲取一個x值,對于該操作,下列選項中描述正確的有哪些?A、取最小值的對數(shù)得到a的值B、取最小值的對數(shù)得到b的值C、取最大值的對數(shù)得到a的值D、取最大值的對數(shù)得到b的值答案:AD18.下面哪些描述與AI的符號主義有關(guān)?A、又稱邏輯主義B、又稱心理學派C、基礎(chǔ)理論是數(shù)理邏輯D、是研究生物的答案:ABC19.以下哪些網(wǎng)絡(luò)是NLP中常用的網(wǎng)絡(luò)結(jié)構(gòu)A、RNNB、LSTMC、GRUD、以上都是的答案:ABCD20.LightGBM有什么樣的優(yōu)點A、速度快B、支持分布式C、占用內(nèi)存小D、代碼清晰易懂答案:ABCD21.下列關(guān)于LightGBM有什么優(yōu)點,說法正確的是A、更快的訓練速度B、更低的內(nèi)存消耗C、更好的準確率D、分布式支持,可以快速處理海量數(shù)據(jù)答案:ABCD22.下面哪些關(guān)于特征工程正則化的描述是正確的?A、正則化可以防止欠擬合B、relu函數(shù)具有正則化效果C、正則化可以防止過擬合D、dropout具有正則化效果答案:CD23.LightGBM選擇的優(yōu)化方向有哪些A、帶深度限制的Leaf-wise的葉子生長策略B、直方圖做差加速直接C、支持類別特征(CategoricalFeature)D、以上不都是答案:ABC24.深度學習在自然語言中的應(yīng)用有哪些A、機器創(chuàng)作B、個性化推薦C、文本分類D、情感分析答案:ABCD25.在預處理階段,我們一般將數(shù)據(jù)集分為哪幾個類別A、訓練集B、驗證集C、測試集D、批處理集答案:ABC26.人工智能機器人AlphaGo戰(zhàn)勝了圍棋大師,它程序中使用到的技術(shù)有哪些?A、決策神經(jīng)網(wǎng)絡(luò)B、評估神經(jīng)網(wǎng)絡(luò)C、歷史經(jīng)驗D、線性代數(shù)答案:AB27.Batch歸一化操作的具體流程是怎樣的?A、求每個訓練批次數(shù)據(jù)的均值B、求每個訓練批次數(shù)據(jù)的方差C、使用求得的均值和方差對該批次的訓練數(shù)據(jù)做歸一化,獲得0-1分布D、尺度變換和偏移答案:ABCD28.LDA當中的Topic個數(shù)怎么確定A、基于經(jīng)驗主觀判斷、不斷調(diào)試、操作性強、最為常用。B、基于困惑度C、使用Log-邊際似然函數(shù)的方法,這種方法也挺常用的。D、基于主題之間的相似度:計算主題向量之間的余弦距離,KL距離等。答案:ABCD29.以下四個選項中,哪些說的是LightGBM的優(yōu)點A、更快的訓練速度B、更低的內(nèi)存消耗C、更好的準確率D、分布式支持,可以快速處理海量數(shù)據(jù)答案:ABCD30.關(guān)于如下運算:a=tf.Variable([3,4,5])和b=tf.Variable(a),以下描述正確的是A、合法B、非法C、合法但a需要提前初始化D、合法但不夠安全答案:ACD31.關(guān)于LightGBM的優(yōu)點,說法正確的是A、更快的訓練速度B、更低的內(nèi)存消耗C、更好的準確率D、分布式支持,可以快速處理海量數(shù)據(jù)答案:ABCD32.下列幾個優(yōu)化器中,可以跳出局部最優(yōu)的分別有哪些?A、AdamB、MomentumC、RMSpropD、Lasso答案:ABC33.關(guān)于集合外一個點,到該集合的距離,描述正確的是哪些選項A、是該點到集合邊界點的最短距離B、是該點到集合內(nèi)所有點的最短距離C、是該點到集合內(nèi)任意一點的距離D、是該點到集合內(nèi)非邊界點的某點的距離答案:AB34.CNN的池化層包括哪幾種A、卷積B、最大池化C、最小池化D、平均池化答案:BD35.以下四個選項中,哪些對LightGBM的優(yōu)點說法是準確的A、更好的準確率B、分布式支持,可以快速處理海量數(shù)據(jù)C、更快的訓練速度D、更低的內(nèi)存消耗答案:ABCD36.LightGBM在哪些地方進行了優(yōu)化(區(qū)別XGBoost)?A、基于Histogram的決策樹算法B、帶深度限制的Leaf-wise的葉子生長策略C、直方圖做差加速直接D、支持類別特征(CategoricalFeature)答案:ABCD37.下列幾個選項當中,有哪些是屬于梯度下降的A、BGDB、SGDC、mini-batchD、dropout答案:ABC38.在人工智能中包括三大領(lǐng)域,分別是以下哪些?A、符號主義B、連接主義C、行為主義D、深度學習答案:ABC39.常用的池化包含哪兩種A、最小池化B、最大池化C、平均池化D、方差池化答案:BC40.關(guān)于TensorFlow中的語句,tf.variables_initializer以下描述正確的是A、初始化一個變量B、初始化多個變量C、初始化全部變量D、初始化常量答案:ABC41.LDA中有四個分布分別是哪四個分布A、二項分布B、多項分布C、beta分布D、Dirichlet分布答案:ABCD42.下列選項中,關(guān)于數(shù)據(jù)歸一化描述正確的有哪些?A、更容易收斂得到最優(yōu)解B、權(quán)重值較小C、權(quán)重值大D、無特點答案:AB43.CNN中的pooling手段一般包含哪兩種A、最小池化B、最大池化C、平均池化D、方差池化答案:BC44.在Histogram算法之上,LightGBM還做了哪些優(yōu)化A、帶深度限制的Leaf-wise的葉子生長策略B、直方圖做差加速直接C、支持類別特征(CategoricalFeature)D、不確定答案:ABC45.tf.train.AdamOptimizer(1e-4).minimize(cross_entropy),以下四個選項中,關(guān)于上述代碼描述正確的是哪些選項A、定義學習步長B、優(yōu)化器C、交叉熵損失函數(shù)D、開始訓練答案:ABC46.自然語言的落地成品有哪些A、知識圖譜B、機器人C、人臉檢測D、推薦系統(tǒng)答案:ABD47.下列選項中關(guān)于tf.nn.SoftMax函數(shù)的描述以下正確的是哪些選項?A、用于多類別分類B、映射到概率空間C、壓縮數(shù)據(jù)D、用于卷積層答案:ABC48.數(shù)據(jù)切分階段中,下列關(guān)于數(shù)據(jù)的訓練集和驗證集的劃分,描述正確的有哪些?A、不一定需要驗證集B、數(shù)據(jù)集數(shù)量較少時,訓練集和測試集比例可以是7:3C、任何數(shù)量的數(shù)據(jù)集,都應(yīng)遵守訓練集和測試集比例7:3的原則D、大數(shù)據(jù)量的驗證集,可以不遵循訓練集和測試集比例7:3的原則答案:ABD49.下列損失函數(shù)中,哪些損失函數(shù)可以作為分類任務(wù)的損失函數(shù)A、信息熵B、最小二乘平方損失C、距離模

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論