人工智能核心算法試題庫含參考答案_第1頁
人工智能核心算法試題庫含參考答案_第2頁
人工智能核心算法試題庫含參考答案_第3頁
人工智能核心算法試題庫含參考答案_第4頁
人工智能核心算法試題庫含參考答案_第5頁
已閱讀5頁,還剩10頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

人工智能核心算法試題庫含參考答案一、單選題(共44題,每題1分,共44分)1.如果我們希望預(yù)測n個類(p1,p2...pk)的概率使得所有n的p的和等于1,那么下列哪個函數(shù)可以用作輸出層中的激活函數(shù)?A、ReLuB、TanhC、SigmoidD、Softmax正確答案:D2.DBSCAN在最壞情況下的時(shí)間復(fù)雜度是()。A、O(m)B、O(m2)C、O(logm)D、O(m*logm)正確答案:B3.我們在訓(xùn)練神經(jīng)網(wǎng)絡(luò)過程中,使用梯度下降法不斷更新哪種數(shù)值,進(jìn)而使得損失函數(shù)最小化?A、特征值B、超參數(shù)C、樣本數(shù)目D、參數(shù)正確答案:D4.xgboost在代價(jià)函數(shù)里加入了(),用于控制模型的復(fù)雜度A、激活函數(shù)B、正則項(xiàng)C、非線性D、特征變換正確答案:B5.使用一組槽來描述事件的發(fā)生序列,這種知識表示法叫做()A、語義網(wǎng)絡(luò)法B、過程表示法C、劇本表示法D、框架表示法正確答案:C6.Scikit-learn中數(shù)據(jù)和標(biāo)簽用什么數(shù)據(jù)結(jié)構(gòu)來存儲?A、列表B、字典C、數(shù)組正確答案:C7.Softmax算法中溫度趨近于0時(shí)Softmax將趨于(___)A、全利用B、全探索C、僅探索D、僅利用正確答案:D8.類別不平衡指分類任務(wù)中不同類別的訓(xùn)練樣例數(shù)目(___)的情況。A、沒有差別B、差別很大C、差別很小D、以上都不正確正確答案:B9.一條規(guī)則形如:,其中“←"左邊的部分稱為(___)A、布爾表達(dá)式B、規(guī)則頭C、規(guī)則體D、規(guī)則長度正確答案:B10.以下激活函數(shù)中,不具有“正向無邊界”特征的是?A、ReLUB、MishC、softplusD、Sigmoid正確答案:D11.循環(huán)神經(jīng)網(wǎng)絡(luò)中,假設(shè)輸入是一個32*32*3的圖像,3表示RGB三通道,卷積核的結(jié)構(gòu)是5*5*3,共6個不同的卷積核,一個卷積核產(chǎn)生一個featuremap,則輸出的featuremap矩陣的結(jié)構(gòu)是()。A、27*27*3B、28*28*3C、27*27*6D、28*28*6正確答案:D12.對不具備泛化能力的規(guī)則轉(zhuǎn)變?yōu)楦话愕囊?guī)則的最基礎(chǔ)的技術(shù)為(___)A、最小一般泛化B、最大一般特化C、最小一般特化D、最大一般泛化正確答案:A13.以下關(guān)于特征工程的說法不正確的是A、特征工程在機(jī)器學(xué)習(xí)中占有非常重要的作用,一般認(rèn)為括特征構(gòu)建、特征提取、特征選擇三個部分。B、特征工程指的是把原始數(shù)據(jù)轉(zhuǎn)變?yōu)槟P偷挠?xùn)練數(shù)據(jù)的過程C、它的目的就是獲取更好的訓(xùn)練數(shù)據(jù)特征,使得機(jī)器學(xué)習(xí)模型逼近這個上限D(zhuǎn)、特征提取是從特征集合中挑選一組具有明顯物理或統(tǒng)計(jì)意義的特征子集。正確答案:D14.以下機(jī)器學(xué)習(xí)中,在數(shù)據(jù)預(yù)處理時(shí),不需要考慮歸一化處理的是:()A、logistic回歸B、神經(jīng)網(wǎng)絡(luò)C、SVMD、樹形模型正確答案:D15.關(guān)于循環(huán)神經(jīng)網(wǎng)絡(luò)以下說法錯誤的是?A、循環(huán)神經(jīng)網(wǎng)絡(luò)可以根據(jù)時(shí)間軸展開B、LSTM也是一種循環(huán)神經(jīng)網(wǎng)絡(luò)C、循環(huán)神經(jīng)網(wǎng)絡(luò)可以簡寫為RNND、LSTM無法解決梯度消失的問題正確答案:D16.當(dāng)采用K-距離的方法選擇DBSCAN的Eps和MinPts參數(shù)時(shí),如果設(shè)置的K的值太大,則小簇(尺寸小于K的簇)可能會被標(biāo)記為A、噪聲B、核心簇C、邊界簇D、以上都不對正確答案:A17.感知機(jī)描述錯誤的是:(___)A、感知機(jī)根據(jù)正確的程度進(jìn)行權(quán)重調(diào)整;B、輸出層是M-P神經(jīng)元;C、感知機(jī)能容易實(shí)現(xiàn)邏輯與、或、非運(yùn)算;D、輸入層接收外界輸入信號傳遞給輸出層;正確答案:A18.回歸算法預(yù)測的標(biāo)簽是?A、自變型B、應(yīng)變型C、連續(xù)型D、離散型正確答案:C19.在統(tǒng)計(jì)語言模型中,通常以概率的形式描述任意語句的可能性,利用最大相似度估計(jì)進(jìn)行度量,對于一些低頻詞,無論如何擴(kuò)大訓(xùn)練數(shù)據(jù),出現(xiàn)的頻度仍然很低,下列哪種方法可以解決這一問題A、一元切分B、數(shù)據(jù)平滑C、一元文法D、N元文法正確答案:B20.fasterRCNN用于生成候選框proposal的模塊名稱()A、RPNB、CNNC、ResNetD、RoIpooling正確答案:A21.DBSCAN算法將“簇”定義為:由()導(dǎo)出的最大的密度相連樣本集合。A、密度直達(dá)關(guān)系B、密度可達(dá)關(guān)系C、密度相連關(guān)系正確答案:B22.梯度下降算法的正確步驟是什么?1.計(jì)算預(yù)測值和真實(shí)值之間的誤差2.重復(fù)迭代,直至得到網(wǎng)絡(luò)權(quán)重的最佳值3.把輸入傳入網(wǎng)絡(luò),得到輸出值4.用隨機(jī)值初始化權(quán)重和偏差5.對每一個產(chǎn)生誤差的神經(jīng)元,調(diào)整相應(yīng)的(權(quán)重)值以減小誤差A(yù)、4,3,1,5,2B、3,2,1,5,4C、5,4,3,2,1D、1,2,3,4,5正確答案:A23.下列關(guān)于冗余特征的說法錯誤的是(___)A、冗余特征是可以通過其他特征推演出來的特征B、冗余特征是無用的特征C、冗余特征有時(shí)候可以降低學(xué)習(xí)任務(wù)的難度D、去除冗余特征可以減輕學(xué)習(xí)過程的負(fù)擔(dān)正確答案:B24.算法性能顯著不同時(shí),需要進(jìn)行(___)來進(jìn)一步區(qū)分各算法。A、交叉驗(yàn)證t檢驗(yàn)B、后續(xù)檢驗(yàn)C、McNemar檢驗(yàn)D、Friedman檢驗(yàn)正確答案:B25.關(guān)于學(xué)習(xí)率的描述正確的是:A、學(xué)習(xí)率越大系統(tǒng)運(yùn)行速度越快B、學(xué)習(xí)率越小系統(tǒng)一定精度越高C、學(xué)習(xí)率的大小是根據(jù)不同場景程序員自己設(shè)定的,不宜太大或者太小D、學(xué)習(xí)率和w、b一樣是參數(shù),是系統(tǒng)自己學(xué)習(xí)得到的正確答案:C26.機(jī)器學(xué)習(xí)訓(xùn)練時(shí),Mini-Batch的大小優(yōu)選為2的冪,如256或512。它背后的原因是什么?()A、Mini-Batch為偶數(shù)的時(shí)候,梯度下降算法訓(xùn)練的更快B、Mini-Batch設(shè)為2的冪,是為了符合CPU、GPU的內(nèi)存要求,利于并行化處理C、不使用偶數(shù)時(shí),損失函數(shù)是不穩(wěn)定的D、以上說法都不對正確答案:B27.在主成分分析中,將幾個主分量經(jīng)過線性組合構(gòu)造為一個綜合評價(jià)函數(shù)時(shí),每個主分量的權(quán)數(shù)為()。A、每個主分量的方差貢獻(xiàn)率B、每個主分量的方差C、每個主分量的貢獻(xiàn)率D、每個主分量的標(biāo)準(zhǔn)差正確答案:A28.標(biāo)準(zhǔn)循環(huán)神經(jīng)網(wǎng)絡(luò)隱含層的輸入對于網(wǎng)絡(luò)輸出的影響隨時(shí)間A、先增強(qiáng)后減弱B、先減弱后增強(qiáng)C、不斷遞歸而增強(qiáng)D、不斷遞歸而衰退正確答案:D29.使用似然函數(shù)的目的是什么()A、改變目標(biāo)函數(shù)分布B、求解目標(biāo)函數(shù)C、得到最優(yōu)數(shù)據(jù)樣本D、找到最合適數(shù)據(jù)的參數(shù)正確答案:D30.下面有關(guān)分類算法的準(zhǔn)確率,召回率,F(xiàn)1值的描述,錯誤的是?()A、準(zhǔn)確率是檢索出相關(guān)文檔數(shù)與檢索出的文檔總數(shù)的比率,衡量的是檢索系統(tǒng)的查準(zhǔn)率B、召回率是指檢索出的相關(guān)文檔數(shù)和文檔庫中所有的相關(guān)文檔數(shù)的比率,衡量的是檢索系統(tǒng)的查全率C、正確率、召回率和F值取值都在0和1之間,數(shù)值越接近0,查準(zhǔn)率或查全率就越高D、為了解決準(zhǔn)確率和召回率沖突問題,引入了F1值正確答案:C31.CRF(條件隨機(jī)場)和HMM(隱馬爾可夫模型)之間的主要區(qū)別是什么?A、CRF是生成式的,而HMM是判別式模型B、CRF是判別式模型,HMM是生成式模型。C、CRF和HMM都是生成式模型D、CRF和HMM都是判別式模型。正確答案:B32.DSSM模型的結(jié)構(gòu)是什么?A、線性B、雙塔C、三塔D、非線性正確答案:B33.交叉驗(yàn)證法將數(shù)據(jù)集劃分為k個大小相似的互斥子集,進(jìn)行(___)次訓(xùn)練和測試。A、k+1B、k-1C、k-2D、k正確答案:D34.圖像分類任務(wù)是一個計(jì)算量較大的任務(wù),下面描述正確的是:①.不要使用深度學(xué)習(xí)技術(shù)②.盡量使用GPU加速運(yùn)算③.盡量使用前人探索的有成功經(jīng)驗(yàn)的經(jīng)典的網(wǎng)絡(luò)結(jié)構(gòu)④.盡量自己重新設(shè)計(jì)編寫網(wǎng)絡(luò),不要照搬別人的網(wǎng)絡(luò)A、①②B、①③C、②③D、①②③正確答案:C35.邏輯回歸的損失函數(shù)是下列哪一種?()A、對數(shù)損失函數(shù)B、絕對值損失函數(shù)C、平方損失函數(shù)D、HingeLoss0-1損失函數(shù)正確答案:A36.在CNN構(gòu)建中,指定每次訓(xùn)練或驗(yàn)證數(shù)據(jù)集圖片多少的變量為()。A、reluB、batchC、stepD、padding正確答案:B37.梯度下降算法的正確步驟是什么?a.計(jì)算預(yù)測值和真實(shí)值之間的誤差b.重復(fù)迭代,直至得到網(wǎng)絡(luò)權(quán)重的最佳值c.把輸入傳入網(wǎng)絡(luò),得到輸出值d.用隨機(jī)值初始化權(quán)重和偏差e.對每一個產(chǎn)生誤差的神經(jīng)元,調(diào)整相應(yīng)的(權(quán)重)值以減小誤差()A、abcdeB、cbaedC、edcbaD、dcaeb正確答案:D38.ID3在分類過程中使用的()A、條件熵B、基尼指數(shù)GiniC、信息增益D、聯(lián)合熵正確答案:C39.線性回歸在3維以上的維度中擬合面是?A、平面B、曲面C、超曲面D、超平面正確答案:D40.以下不是貝葉斯回歸的優(yōu)點(diǎn)的是哪一項(xiàng)A、它能在估計(jì)過程中引入正則項(xiàng)B、貝葉斯回歸的推斷速度快C、它能根據(jù)已有的數(shù)據(jù)進(jìn)行改變正確答案:B41.""維數(shù)災(zāi)難"指的是:()"A、因在低維情形下出現(xiàn)的數(shù)據(jù)樣本密集、距離計(jì)算困難等問題,給機(jī)器學(xué)習(xí)方法造成的障礙。B、因在高維情形下出現(xiàn)的數(shù)據(jù)樣本稀疏、距離計(jì)算困難等問題,給機(jī)器學(xué)習(xí)方法造成的障礙。C、因在高維情形下出現(xiàn)的數(shù)據(jù)樣本密集、距離計(jì)算困難等問題,給機(jī)器學(xué)習(xí)方法造成的障礙。D、因在低維情形下出現(xiàn)的數(shù)據(jù)樣本稀疏、距離計(jì)算困難等問題,給機(jī)器學(xué)習(xí)方法造成的障礙。正確答案:B42.scikit-learn用于訓(xùn)練模型的函數(shù)接口為()A、train()B、Train()C、fit()D、Fit()正確答案:C43.在廢棄階段,廢棄銷毀使用目的不復(fù)存在或者有更好解決方法替換的人工智能系統(tǒng),主要包括數(shù)據(jù)、()以及系統(tǒng)整體的廢棄銷毀過程。A、算法B、算法模型C、模型D、程序正確答案:B44.SVM的基本思想是間隔最大化來得到最優(yōu)分離()A、分離平面B、分離曲線C、分離間隔D、超平面正確答案:D二、多選題(共24題,每題1分,共24分)1.EM算法每次迭代包括哪些步驟?A、求方差B、求期望C、求標(biāo)準(zhǔn)差D、求極大值正確答案:BD2.常用的損失函數(shù)有哪些()。A、均方差B、Sigmoid交叉熵C、Sofmax交叉熵D、Sparse交叉熵正確答案:ABCD3.機(jī)器學(xué)習(xí)的一般流程包括()A、模型驗(yàn)證B、模型訓(xùn)練C、數(shù)據(jù)獲取D、分析案例正確答案:ABCD4.vgg19中的19代表了網(wǎng)絡(luò)中哪些層的數(shù)目總和()A、輸入層B、池化層C、卷積層D、全連接層正確答案:BCD5.英語重視哪兩個問題的區(qū)分?()A、冠詞與數(shù)詞B、謂語與非謂語C、單復(fù)數(shù)D、可數(shù)名詞與不可數(shù)名詞正確答案:CD6.VGG從()角度改進(jìn)了之前的圖像分類網(wǎng)絡(luò)?GoogLeNet從()角度改進(jìn)了之前的圖像分類網(wǎng)絡(luò)?ResNet從()角度改進(jìn)了之前的圖像分類網(wǎng)絡(luò)?A、增加網(wǎng)絡(luò)寬度B、改善網(wǎng)絡(luò)退化現(xiàn)象C、輕量化網(wǎng)絡(luò)模型D、增加網(wǎng)絡(luò)深度正確答案:ABD7.下列哪些是卷積操作的優(yōu)點(diǎn)?()A、具有局部感受野B、操作復(fù)雜度與輸入尺寸無關(guān)C、可有效捕捉序列化數(shù)據(jù)的特征D、對事物不同部分的觀察之間能實(shí)現(xiàn)參數(shù)共享正確答案:AD8.分布式表示:wordembedding指的是將詞轉(zhuǎn)化成一種分布式表示,又稱()。分布式表示將詞表示成一個()的連續(xù)的稠密向量。A、定長B、變長C、詞向量D、詞相量正確答案:AC9.認(rèn)知語言學(xué)更多地是考慮()A、語用B、句法C、語義D、音韻正確答案:AC10.關(guān)于學(xué)習(xí)率初始值設(shè)定描述正確的是()?以下()數(shù)值適合作為學(xué)習(xí)率的初始值?A、學(xué)習(xí)率是網(wǎng)絡(luò)自己學(xué)習(xí)得到的B、5e-08C、學(xué)習(xí)率是根據(jù)不同場景,人為設(shè)定的D、0.005正確答案:CD11.機(jī)器學(xué)習(xí)一般分為()和()。A、深度學(xué)習(xí)B、強(qiáng)化學(xué)習(xí)C、非監(jiān)督學(xué)習(xí)D、監(jiān)督學(xué)習(xí)正確答案:CD12.深度學(xué)習(xí)中常用的損失函數(shù)有?A、L1損失函數(shù)B、均方誤差損失函數(shù)C、交叉熵誤差損失函數(shù)D、自下降損失函數(shù)正確答案:BC13.下列哪些技術(shù)能被用于計(jì)算兩個詞向量之間的距離?A、詞形還原(Lemmatization)B、歐氏距離(EuclideanDistance)C、余弦相似度(CosineSimilarity)D、N-grams正確答案:BC14.常見的聚類性能度量內(nèi)部指標(biāo)有()A、Rand系數(shù)B、DB指數(shù)C、Dunn指數(shù)D、以上都是正確答案:BC15.哪些項(xiàng)屬于集成學(xué)習(xí)A、KnnB、AdaboostC、隨機(jī)森林D、XGBoost正確答案:BCD16.文本語料庫的可能特征是什么?A、文本中詞計(jì)數(shù)B、詞的向量標(biāo)注C、基本依存語法D、詞性標(biāo)注(PartofSpeechTag)正確答案:ABCD17.常見的循環(huán)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)包括()A、LeNet-5網(wǎng)絡(luò)B、長短期記憶網(wǎng)絡(luò)LSTMC、門控循環(huán)單元GRUD、循環(huán)神經(jīng)網(wǎng)絡(luò)RNN正確答案:BCD18.全連接神經(jīng)網(wǎng)絡(luò)存在的問題有()A、網(wǎng)絡(luò)結(jié)構(gòu)不夠靈活B、網(wǎng)絡(luò)較淺,特征提取不充分C、信息傳遞缺失D、模型參數(shù)太多正確答案:AD19.線性回歸的基本假設(shè)包括哪個?A、隨機(jī)誤差項(xiàng)是一個期望值為0的隨機(jī)變量B、對于解釋變量的所有觀測值,隨機(jī)誤差項(xiàng)有相同的方差C、隨機(jī)誤差項(xiàng)彼此相關(guān)D、解釋變量是確定性變量不是隨機(jī)變量,與隨機(jī)誤差項(xiàng)之間相互獨(dú)立正確答案:ABD20.KNN是一種()。A、懶惰學(xué)習(xí)模型B、勤奮學(xué)習(xí)模型C、非參數(shù)模型D、參數(shù)模型正確答案:AD21.Relu激活函數(shù)的缺點(diǎn)?A、由于負(fù)數(shù)部分恒為0,會導(dǎo)致一些神經(jīng)元無法激活B、輸出不是以0為中心C、解決了梯度消失、爆炸的問題D、計(jì)算方便,計(jì)算速度快,求導(dǎo)方便正確答案:ABCD22.以下關(guān)于機(jī)器學(xué)習(xí)算法與傳統(tǒng)基于規(guī)則方法的區(qū)別中正確的是?A、傳統(tǒng)的基于規(guī)則的方法,其中的規(guī)律可以人工顯性的明確出來B、傳統(tǒng)基于規(guī)則的方法使用顯性編程來解決問題C、機(jī)器學(xué)習(xí)中模型的映射關(guān)系是自動學(xué)習(xí)的D、機(jī)器學(xué)習(xí)所中模型的映射關(guān)系必須是隱性的正確答案:ABC23.防止過擬合的方法有A、減少特征值B、追求損失函數(shù)的最小C、增加訓(xùn)練數(shù)據(jù)D、正則化正確答案:ACD24.下列無監(jiān)督學(xué)習(xí)算法中可解決降維問題的算法有A、PCAB、LSAC、LDAD、k-means正確答案:ABC三、判斷題(共36題,每題1分,共36分)1.BP神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法的優(yōu)化目標(biāo)是使實(shí)際輸出與期望輸出之間的誤差平方和最小化。()A、正確B、錯誤正確答案:A2.()對抗搜索中的極大極小值算法使用的是一個寬度優(yōu)先搜索方法。A、正確B、錯誤正確答案:B3.經(jīng)過權(quán)值和閾值不斷迭代調(diào)整的過程,就是網(wǎng)絡(luò)的學(xué)習(xí)與訓(xùn)練過程。A、正確B、錯誤正確答案:A4.R-CNN的系列算法分成兩個階段,先在圖像上產(chǎn)生候選區(qū)域,再對候選區(qū)域進(jìn)行分類并預(yù)測目標(biāo)物體位置,它們通常被叫做兩階段檢測算法。A、正確B、錯誤正確答案:A5.經(jīng)典的全連接神經(jīng)網(wǎng)絡(luò)中,隱含層可以增加網(wǎng)絡(luò)深度和復(fù)雜度A、正確B、錯誤正確答案:A6.廣度優(yōu)先搜索方法的原理是:從樹的根節(jié)點(diǎn)開始,在樹中一層一層的查找,當(dāng)找到目標(biāo)節(jié)點(diǎn)時(shí),搜索結(jié)束()。A、正確B、錯誤正確答案:A7.常用的雙向循環(huán)神經(jīng)網(wǎng)絡(luò),不同方向的神經(jīng)元,彼此相連A、正確B、錯誤正確答案:B8.空洞卷積也叫擴(kuò)張卷積,在保持參數(shù)個數(shù)不變的情況下增大了卷積核的感受野。A、正確B、錯誤正確答案:A9.分類是預(yù)測數(shù)據(jù)對象的離散類別,預(yù)測是用于數(shù)據(jù)對象的連續(xù)取值A(chǔ)、正確B、錯誤正確答案:A10.np.empty不可以創(chuàng)建為空的數(shù)組A、正確B、錯誤正確答案:B11.LeNet是由YannLeCun等人于1998年提出的,是人們第一次將卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用到圖像分類任務(wù)上,在手寫數(shù)字識別任務(wù)上取得了巨大成功A、正確B、錯誤正確答案:A12.一個循環(huán)神經(jīng)網(wǎng)絡(luò)可以被展開成為一個完全連接的、具有無限長度的普通神經(jīng)網(wǎng)絡(luò)A、正確B、錯誤正確答案:A13.為了解決特定的計(jì)算程序,如分類器或?qū)<抑R等多種模式,進(jìn)行戰(zhàn)略性生產(chǎn)和組合。這個過程被稱為集成學(xué)習(xí)。A、正確B、錯誤正確答案:A14.在神經(jīng)網(wǎng)絡(luò)里,將經(jīng)過反向傳播之后,梯度值衰減到接近于零的現(xiàn)象稱作梯度消失現(xiàn)象A、正確B、錯誤正確答案:A15.設(shè)有機(jī)器人走迷宮問題,其入口坐標(biāo)為(x0,y0),出口坐標(biāo)為(xt,yt),當(dāng)前機(jī)器人位置為(x,y),若定義,當(dāng)從入口到出口存在通路時(shí),用A算法求解該問題,定能找到從入口到出口的最佳路徑。A、正確B、錯誤正確答案:A16.卷積層的功能是對輸入數(shù)據(jù)進(jìn)行特征提取A、正確B、錯誤正確答案:A17.當(dāng)網(wǎng)絡(luò)中含有全連接層時(shí),輸入尺寸必須事先固定A、正確B、錯誤正確答案:A18.StateSpace和And/OrGraph只是兩種不同的問題表示方法,但其解決問題的思路是一樣的。()A、正確B、錯誤正確答案:B19.mini-batch太小會導(dǎo)致收斂變慢,太大容易陷入sharpminima,泛化性不好。A、正確B、錯誤正確答案:A20.在遺傳算法中,選擇操作的簡單模式是將被選擇出的兩個個體P1和P2作為父母個體,將兩者的部分碼值進(jìn)行交換。A、正確B、錯誤正確答案:B21.對分類問題,若類別數(shù)目為N,則最后一個全連接層的神經(jīng)元數(shù)目必須為NA、正確B、錯誤正確答案:A22.當(dāng)輸入數(shù)據(jù)做出少量平移時(shí),經(jīng)過池化后的大多數(shù)輸出還能保持不變,池化對微小的位置變化具有魯棒性A

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論