版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)
文檔簡介
試卷科目:人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷27)PAGE"pagenumber"pagenumber/SECTIONPAGES"numberofpages"numberofpages人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)第1部分:單項選擇題,共58題,每題只有一個正確答案,多選或少選均不得分。[單選題]1.聚類屬于()A)監(jiān)督學(xué)習(xí)B)無監(jiān)督學(xué)習(xí)C)強(qiáng)化學(xué)習(xí)答案:B解析:[單選題]2.SVM中要尋找和計算的MMH是指()A)最大邊緣超平面B)超平面C)最小邊緣超平面答案:A解析:[單選題]3.假如使用邏輯回歸對樣本進(jìn)行分類,得到訓(xùn)練樣本的準(zhǔn)確率和測試樣本的準(zhǔn)確率?,F(xiàn)在,在數(shù)據(jù)中增加一個新的特征,其他特征保持不變。然后重新訓(xùn)練測試。則下列說法正確的是()。A)訓(xùn)練樣本準(zhǔn)確率一定會降低B)訓(xùn)練樣本準(zhǔn)確率一定增加或保持不變C)測試樣本準(zhǔn)確率一定會降低D)測試樣本準(zhǔn)確率一定增加或保持不變答案:B解析:在模型中增加更多特征一般會增加訓(xùn)練樣本的準(zhǔn)確率,減小偏差。但測試樣本準(zhǔn)確率不一定增加,除非增加的特征是有效特征。[單選題]4.以下說法中正確的是()。A)Python3.x完全兼容Python2.x。B)在Windows平臺上編寫的Python程序無法在Unix平臺運行。C)不可以在同一臺計算機(jī)上安裝多個Python版本。D)Python是跨平臺的答案:D解析:[單選題]5.建立一個模型,通過這個模型根據(jù)已知的變量值來預(yù)測其他某個變量值屬于數(shù)據(jù)挖掘的哪一類任務(wù)?A)根據(jù)內(nèi)容檢索B)建模描述C)預(yù)測建模D)尋找模式和規(guī)則答案:C解析:[單選題]6.有關(guān)機(jī)器學(xué)習(xí)分類算法的Precision和Recall,以下定義中正確的是(假定tp=truepositive,tn=truenegative,fp=falsepositive,fn=Falsenegative)()A)Precision=tp/(tp+fp),Recall=tp/(tp+fn)B)Precision=tp/(tn+fp),Recall=tp/(tp+fn)C)Precision=tp/(tn+fn),Recall=tp/(tp+fp)D)Precision=tp/(tp+fp),Recall=tp/(tn+fn)答案:A解析:[單選題]7.以下說法正確的是()A)在使用KNN算法時,k通常取奇數(shù)B)KNN是有監(jiān)督學(xué)習(xí)算法C)在使用KNN算法時,k取值越大,模型越容易過擬合D)KNN和K-means都是無監(jiān)督學(xué)習(xí)算法答案:B解析:在使用KNN算法時,k取值越大,模型越容易欠擬合,KNIN是有監(jiān)督的機(jī)器學(xué)習(xí)算法。[單選題]8.以下關(guān)于Sigmoid的特點說法錯誤的是()。A)Sigmoid函數(shù)計算量小B)趨向無窮的地方,函數(shù)變化很小,容易出現(xiàn)梯度消失的現(xiàn)象C)可以將函數(shù)值的范圍壓縮到[0,1]D)函數(shù)處處連續(xù)答案:A解析:[單選題]9.()聚類方法采用概率模型來表達(dá)聚類。A)K-meansB)LVQC)DBSCAND)高斯混合聚類答案:D解析:高斯混合聚類(MixtureofGaussian)采用概率模型來表達(dá)聚類。[單選題]10.交叉驗證如果設(shè)置K=5,會訓(xùn)練幾次?()A)1B)3C)5D)6答案:C解析:[單選題]11.下列是機(jī)器學(xué)習(xí)中降維任務(wù)的準(zhǔn)確描述的為A)依據(jù)某個準(zhǔn)則對項目進(jìn)行排序B)將其映射到低維空間來簡化輸入C)預(yù)測每個項目的實際值D)對數(shù)據(jù)對象進(jìn)行分組答案:B解析:[單選題]12.在LogisticRegression中,如果同時加入L1和L2范數(shù),會產(chǎn)生什么效果()A)可以做特征選擇,并在一定程度上防止過擬合B)能解決維度災(zāi)難問題C)能加快計算速度D)可以獲得更準(zhǔn)確的結(jié)果答案:A解析:[單選題]13.常用的圖像分割方法是把圖像(__)分成不同等級。A)顏色B)灰度C)大小D)亮度信息答案:B解析:[單選題]14.線性SVM和一般線性分類器的區(qū)別主要是()A)是否進(jìn)行了空間映射B)是否確保間隔最大化C)是否能處理線性不可分問題D)訓(xùn)練誤差通常較低答案:A解析:[單選題]15.聚類算法屬于(__)。A)半監(jiān)督學(xué)習(xí)B)有監(jiān)督學(xué)習(xí)C)無監(jiān)督學(xué)習(xí)D)一種分類方法答案:C解析:[單選題]16.在抽樣方法中,當(dāng)合適的樣本容量很難確定時,可以使用的抽樣方法是:A)有放回的簡單隨機(jī)抽樣B)無放回的簡單隨機(jī)抽樣C)分層抽樣D)漸進(jìn)抽樣答案:D解析:[單選題]17.一個包里有5個黑球,10個紅球和17個白球。每次可以從中取兩個球出來,放置在外面。那么至少取________次以后,一定出現(xiàn)過取出一對顏色一樣的球。A)16B)9C)4D)1答案:A解析:[單選題]18.借助對數(shù)形式的變換曲線可以達(dá)到壓縮圖像灰度動態(tài)范圍的目的,這是因為?A)變換前的灰度值范圍比變換后的灰度值范圍大;B)變換后僅取了一部分灰度值的范圍;C)變換前后灰度值的范圍不同;D)對數(shù)形式的變換曲線是單增的曲線;答案:B解析:[單選題]19.特征工程的目的是()。A)找到最合適的算法B)得到最好的輸入數(shù)據(jù)C)減低模型復(fù)雜度D)加快計算速度答案:B解析:特征工程的目的是篩選出更好的特征,獲取更好的訓(xùn)練數(shù)據(jù)。[單選題]20.圖像數(shù)據(jù)分析的常用方法不包括()A)圖像變換B)圖像編碼和壓縮C)圖像增強(qiáng)和復(fù)原D)圖像數(shù)據(jù)采集答案:D解析:[單選題]21.(__)是事先將訓(xùn)練樣本存儲下來,然后每當(dāng)遇到一個新增樣本,學(xué)習(xí)系統(tǒng)分析此樣本與以前存儲樣本之間的關(guān)系,并據(jù)此把一個目標(biāo)函數(shù)值賦給新增樣本。A)基于實例學(xué)習(xí)B)遺傳算法C)人工神經(jīng)網(wǎng)絡(luò)D)歸納學(xué)習(xí)答案:A解析:[單選題]22.感知機(jī)描述錯誤的是:-P99A)感知機(jī)根據(jù)正確的程度進(jìn)行權(quán)重調(diào)整;B)輸入層接收外界輸入信號傳遞給輸出層;C)輸出層是M-P神經(jīng)元;D)感知機(jī)能容易實現(xiàn)邏輯與、或、非運算;答案:A解析:[單選題]23.關(guān)于廣播變量,下面哪個是錯誤的()。A)任何函數(shù)調(diào)用B)是只讀的C)存儲在各個節(jié)點D)存儲在磁盤或HDFS答案:D解析:[單選題]24.下面關(guān)于?領(lǐng)域務(wù)實知識?相關(guān)描述不正確的有(__)。A)?領(lǐng)域務(wù)實知識?是對數(shù)據(jù)科學(xué)家的特殊要求B)領(lǐng)域務(wù)實知識具有顯著的面向領(lǐng)域性C)領(lǐng)域務(wù)實知識是數(shù)據(jù)科學(xué)的理論基礎(chǔ)D)在組建團(tuán)隊時,不需重視領(lǐng)域?qū)<业膮⑴c答案:D解析:[單選題]25.在一個神經(jīng)網(wǎng)絡(luò)中,確定每個神經(jīng)元的權(quán)重和偏差很重要。用()方法可以確定神經(jīng)元的權(quán)重和偏差,從而對函數(shù)進(jìn)行擬合。A)隨機(jī)賦值,祈禱它們是正確的B)搜索所有權(quán)重和偏差的組合,直到得到最佳值C)賦予一個初始值,通過檢杳與真值的誤差,逐步迭代更新權(quán)重D)以上都不正確答案:C解析:[單選題]26.IDF采用了IWF的幾次平方?()A)一次B)二次C)三次D)四次答案:A解析:[單選題]27.下列哪項具體任務(wù)不屬于情感分析?()A)情感分類B)觀點抽取C)觀點問答D)段落匹配答案:D解析:[單選題]28.(__)中基學(xué)習(xí)器的多樣性不僅來自樣本擾動,還來自屬性擾動。A)AdaBoostB)RFC)BaggingD)傳統(tǒng)決策樹答案:B解析:[單選題]29.如右圖所示有向圖,節(jié)點G的馬爾可夫毯為()A){D,E}B){I,J}C){D,E,I,J}D){D,E,F,H,I,J}答案:D解析:[單選題]30.若學(xué)習(xí)如何種瓜,在種瓜過程中不斷摸索,從而總結(jié)出好的種瓜策略。這個過程抽象出來,就是(__)。A)機(jī)器學(xué)習(xí)B)深度學(xué)習(xí)C)強(qiáng)化學(xué)習(xí)D)有監(jiān)督學(xué)習(xí)答案:C解析:[單選題]31.下列函數(shù)中,用于沿著軸方向堆疊Pandas對象的是()。A)concat()B)join()C)merge()D)combine_first()答案:A解析:[單選題]32.LSTM調(diào)整參數(shù)時信息的傳播方向是()。A)后向傳播B)前向傳播C)雙向傳播D)跳躍傳播答案:A解析:[單選題]33.下列有關(guān)神經(jīng)網(wǎng)絡(luò)的問題正確的有?1增加層數(shù)可能擴(kuò)大測試誤差2減少層數(shù)一定縮小測試誤差3增加層數(shù)一定減少訓(xùn)練誤差A(yù))1B)1and3C)1and2D)2答案:A解析:一般情況增加層數(shù)能讓模型在訓(xùn)練集和測試集中都表現(xiàn)出更好的效果,但有研究表明層數(shù)多的神經(jīng)網(wǎng)絡(luò)相對于層數(shù)較少的神經(jīng)網(wǎng)絡(luò)可能呈現(xiàn)更大的訓(xùn)練誤差,所以問題不能下定論,答案應(yīng)該選擇A。[單選題]34.KL散度是根據(jù)什么構(gòu)造的可分性判據(jù)()A)最小損失準(zhǔn)則B)后驗概率C)類概率密度D)幾何距離答案:C解析:[單選題]35.Stage的Task的數(shù)量由什么決定()。A)PartitionB)JobC)StageD)TaskScheduler答案:A解析:[單選題]36.ResNet-50有多少個卷積層?()A)48B)49C)50D)51答案:B解析:[單選題]37.當(dāng)訓(xùn)練樣本近似線性可分時,通過(),學(xué)習(xí)一個()。A)硬間隔,最大化非線性支持向量機(jī)B)軟間隔,最大化線性支持向量機(jī)C)硬間隔,最大化線性支持向量機(jī)D)軟間隔,最大化非線性支持向量機(jī)答案:B解析:[單選題]38.在DIKW金字塔中屬于未來的是()。A)信息B)數(shù)據(jù)C)知識D)智慧答案:D解析:[單選題]39.假負(fù)率是指(__)。A)正樣本預(yù)測結(jié)果數(shù)/正樣本實際數(shù)B)被預(yù)測為負(fù)的正樣本結(jié)果數(shù)/正樣本實際數(shù)C)被預(yù)測為正的負(fù)樣本結(jié)果數(shù)/負(fù)樣本實際數(shù)D)負(fù)樣本預(yù)測結(jié)果數(shù)/負(fù)樣本實際數(shù)答案:B解析:[單選題]40.下面關(guān)于奇異值分解(SVD)的描述中錯誤的是()。A)奇異值分解就是把一個線性變換分解成兩個線性變換B)奇異值往往對應(yīng)著矩陣中隱含的重要信息,且重要性和奇異值大小正相關(guān)C)SVD是對PCA的改進(jìn),其計算成本更低,相同之處是兩者的目標(biāo)都是為了降維D)奇異值不僅可以應(yīng)用在數(shù)據(jù)壓縮上,還可以對圖像去噪答案:A解析:[單選題]41.下列關(guān)于特征編碼的敘述中,不正確的是()A)特征編碼是將非數(shù)值型特征轉(zhuǎn)換成數(shù)值型特征的方法B)數(shù)字編碼與特征的排序無關(guān)C)One-Hot編碼中,原始特征有n種取值,轉(zhuǎn)換后就會產(chǎn)生n列新特征D)啞變量編碼解決了One-Hot編碼中存在線性關(guān)系的問題答案:B解析:[單選題]42.若A為假命題,B為真命題,以下命題中假命題有()A)?AB)AC)AD)B答案:B解析:[單選題]43.關(guān)于梯度下降算法,以下說法中不正確是:A)在訓(xùn)練集非常大時,批量梯度下降算法會運行得極慢;隨機(jī)梯度下降和小批量梯度下降可以解決該問題B)隨機(jī)梯度下降運行速度快,內(nèi)存開銷很小,可以支持使用海量數(shù)據(jù)集進(jìn)行訓(xùn)練C)當(dāng)損失函數(shù)很不規(guī)則時(存在多個局部最小值)時,相對批量梯度下降算法,隨機(jī)梯度下降算法更有可能跳過局部最小值,最終接近全局最小值D)梯度下降算法一定能收斂于全局最小值答案:D解析:[單選題]44.tf.nn.rnn_cell.BasicLSTMCell(n_hidden,forget_bias=1.0,state_is_tuple=True)函數(shù)中的參數(shù)forget_bias的含義是()。A)神經(jīng)元個數(shù)B)遺忘系數(shù)C)返回狀態(tài)D)神經(jīng)元類型答案:B解析:[單選題]45.以下哪一項在神經(jīng)網(wǎng)絡(luò)中引入了非線性()A)DropoutB)ReLUC)卷積函數(shù)D)隨機(jī)梯度下降答案:B解析:[單選題]46.n!后面有多少個0,6!=1*2*3*4*5*6=720.720后面有1個0,n=10000,求n!。A)2498B)2499C)2450D)2451答案:B解析:[單選題]47.如果線性回歸模型中的隨機(jī)誤差存在異方差性,那么參數(shù)的OLS估計量是()。A)無偏的,有效的B)無偏的,非有效的C)有偏的,有效的D)有偏的,非有效的答案:B解析:OLS即普通最小二乘法,由高斯-馬爾可夫定理可知,在給定經(jīng)典線性回歸的假定下,最小二乘估計量是具有最小方差的線性無偏估計量。根據(jù)證明過程可知,隨機(jī)誤差中存在異方差性不會影響其無偏性,而有效性證明中涉及同方差性,即異方差性會影響參數(shù)OLS估計量的有效性,得到的參數(shù)估計量不是有效估計量。[單選題]48.以下關(guān)于集成的描述,錯誤的是__。A)集成學(xué)習(xí)通過構(gòu)建并結(jié)合多個學(xué)習(xí)器來完成學(xué)習(xí)任務(wù),也稱為多分類器系統(tǒng)、基于委員會的學(xué)習(xí)等B)集成中只包含同種類型的個體學(xué)習(xí)器,如?決策樹集成?,?神經(jīng)網(wǎng)絡(luò)集成?等,這樣的集成是?同質(zhì)?的C)集成中同時包含多種類型的個體學(xué)習(xí)器,這樣的集成是?異質(zhì)?的,異質(zhì)集成的個體學(xué)習(xí)器一般稱為基學(xué)習(xí)器D)隨著集成中個體分類器(相互獨立)數(shù)目T的增大,集成的錯誤率將指數(shù)級下降,最終趨向于零答案:C解析:[單選題]49.()是利用不同模型的相加,構(gòu)成一個更好的模型,求取模型一般都采用序列化方法,后面的模型依據(jù)前面的模型A)baggingB)boostingC)弱學(xué)習(xí)算法D)以上都不對答案:B解析:[單選題]50.選擇Logistic回歸中的One-Vs-All方法中的哪個選項是真實的。A)我們需要在n類分類問題中適合n個模型B)我們需要適合n-1個模型來分類為n個類C)我們需要只適合1個模型來分類為n個類D)這些都沒有答案:A解析:如果存在n個類,那么n個單獨的邏輯回歸必須與之相適應(yīng),其中每個類的概率由剩余類的概率之和確定。[單選題]51.回歸模型中存在多重共線性,你如何解決這個問題?1/去除這兩個共線性變量2/我們可以先去除一個共線性變量3/計算VIF(方差膨脹因子),采取相應(yīng)措施4/為了避免損失信息,我們可以使用一些正則化方法,比如,嶺回歸和lasso回歸.以下哪些是對的:A)1B)2C)2和3D)2,3和4答案:D解析:解決多重公線性,可以使用相關(guān)矩陣去去除相關(guān)性高于75%的變量(有主觀成分).也可以VIF,如果VIF值<=4說明相關(guān)性不是很高,VIF值>=10說明相關(guān)性較高.我們也可以用嶺回歸和lasso回歸的帶有懲罰正則項的方法.我們也可以在一些變量上加隨機(jī)噪聲,使得變量之間變得不同,但是這個方法要小心使用,可能會影響預(yù)測效果.[單選題]52.正是由于BP神經(jīng)網(wǎng)絡(luò)的強(qiáng)大的表示能力,它經(jīng)常遭遇(__),其訓(xùn)練誤差持續(xù)降低,但測試誤差卻可能上升。A)欠擬合B)誤差過大C)誤差過小D)過擬合答案:D解析:[單選題]53.聚類分析是數(shù)據(jù)挖掘的一種重要技術(shù),以下哪個算法不屬于聚類算法?()A)K-MeansB)DBSCANC)SVMD)EM答案:C解析:[單選題]54.下列哪一種偏移,是我們在最小二乘直線擬合的情況下使用的?圖中橫坐標(biāo)是輸入X,縱坐標(biāo)是輸出Y。A)垂直偏移(verticaloffsets)B)垂向偏移(perpendicularoffsets)C)兩種偏移都可以D)以上說法都不對答案:A解析:線性回歸模型計算損失函數(shù),例如均方差損失函數(shù)時,使用的都是verticaloffsets。perpendicularoffsets一般用于主成分分析(PCA)中。[單選題]55.決策樹模型的規(guī)模應(yīng)當(dāng)是()。A)越復(fù)雜越好B)越簡單越好C)適當(dāng)限制其復(fù)雜程度D)盡可能利用所有特征答案:C解析:決策樹模型的規(guī)模復(fù)雜可能產(chǎn)生過擬合,因此并非越復(fù)雜做好,應(yīng)適當(dāng)限制其復(fù)雜程度。[單選題]56.請閱讀下面的程序:FrompandasimportSeriesImportpandasaspdFromnumpyimportNaNSeries_obj=Series([2,1,NaN])Print(pd.isnull(series_obj))執(zhí)行上述程序后,最終輸出的結(jié)果為()。A)0False1False2TrueB)0True1True2FalseC)0False1False2FalseD)0True1True2True答案:A解析:[單選題]57.以下關(guān)于降維的表述,錯誤的是()。A)降維過程中可以保留原始數(shù)據(jù)的所有信息B)多維縮放的目標(biāo)是要保證降維后樣本之間的距離不變C)線性降維方法目標(biāo)是要保證降維到的超平面能更好地表示原始數(shù)據(jù)D)核線性降維方法目標(biāo)是通過核函數(shù)和核方法來避免采樣空間投影到高維空間再降維之后的低維結(jié)構(gòu)丟失答案:A解析:降維過程中盡量保留原始數(shù)據(jù)的信息,但不能保留原始數(shù)據(jù)的全部信息。[單選題]58.我們想在大數(shù)據(jù)集上訓(xùn)練決策樹,為了使用較少時間,我們可以:A)增加樹的深度B)增加學(xué)習(xí)率(learningrate)C)減少樹的深度D)減少樹的數(shù)量答案:C解析:增加樹的深度,會導(dǎo)致所有節(jié)點不斷分裂,直到葉子節(jié)點是純的為止.所以,增加深度,會延長訓(xùn)練時間.決策樹沒有學(xué)習(xí)率參數(shù)可以調(diào).(不像集成學(xué)習(xí)和其它有步長的學(xué)習(xí)方法)決策樹只有一棵樹,不是隨機(jī)森林.第2部分:多項選擇題,共17題,每題至少兩個正確答案,多選或少選均不得分。[多選題]59.感知機(jī)描述正確的是:-P99A)感知機(jī)輸入層和輸出層都進(jìn)行激活函數(shù)處理;B)感知機(jī)可以用來解決非線性問題;C)感知機(jī)與、或、非問題都是線性可分的問題;D)感知機(jī)只有輸出層進(jìn)行激活函數(shù)處理;答案:CD解析:[多選題]60.下面屬于數(shù)據(jù)產(chǎn)品開發(fā)的特征有(__)。A)以數(shù)據(jù)為中心B)多樣性C)層次性D)增值性答案:ABCD解析:[多選題]61.下列哪項是關(guān)鍵詞歸一化技術(shù)?A)詞干提取(Stemming)B)詞性標(biāo)注(PartofSpeech)C)命名實體識別(NamedEntityRecognition)D)詞形還原(Lemmatization)答案:AD解析:[多選題]62.下面哪些用循環(huán)神經(jīng)網(wǎng)絡(luò)處理效果比較好()A)語音識別B)自然語言處理C)圖像識別D)人臉識別答案:AB解析:[多選題]63.用區(qū)域聚合法分割圖像,要求(__)。A)各個點在平面上相鄰接B)各個點是在平面上分散C)鄰接點的特征相似D)點與點之間無關(guān)答案:AC解析:[多選題]64.信息熵是信息論中重要的信息度量,以下不正確的是()A)可度量不確定程度B)是運算中的商C)可度量信息量D)是向量的模答案:BD解析:[多選題]65.下面關(guān)于L1范式正則化描述正確的是(__)。A)壓縮感知問題可以通過L1范數(shù)最小化問題求解B)L1范數(shù)正則化有助于降低過擬合風(fēng)險C)采用L1范數(shù)時平方誤差項等值線與正則化項等值線的交點常出現(xiàn)在坐標(biāo)軸上D)L1范數(shù)正則化比L2范數(shù)正則化更有易于獲得稀疏解答案:ABCD解析:[多選題]66.下面屬于非線性模型的機(jī)器學(xué)習(xí)的方法()A)決策樹B)PCAC)多層感知機(jī)D)單層感知機(jī)答案:AC解析:[多選題]67.專家系統(tǒng)的主要組成部分包括()A)知識庫B)推理引擎C)用戶接口D)自主學(xué)習(xí)系統(tǒng)答案:ABC解析:[多選題]68.決策樹遞歸返回的條件為()。A)訓(xùn)練數(shù)據(jù)集使用完B)所有的類標(biāo)簽完全相同C)特征用完D)遇到丟失值答案:BC解析:決策樹的生成是一個遞歸過程。在決策樹基本算法中,有三種情形會導(dǎo)致遞歸返回:①結(jié)點包含的樣本全屬于同一類別,無須劃分;②當(dāng)前屬性集為空,或是所有樣本在所有屬性上取值相同,無法劃分;③當(dāng)前結(jié)點包含的樣本集合為空,不能劃分。[多選題]69.下面哪些是基于核的機(jī)器學(xué)習(xí)算法?()A)ExpectationMaximizationB)RadialBasisFunctionC)LinearDiscrimimateAnalysisD)SupportVectorMachine答案:BCD解析:[多選題]70.貝葉斯網(wǎng)的推斷描述正確的為A)馬爾科夫鏈需很短的時間就能趨于平衡;B)馬爾科夫鏈需很長的時間才能趨于平衡;C)吉布斯采樣收斂速度慢;D)吉布斯采樣收斂速度快;答案:BC解析:[多選題]71.分類模型的誤差包括(___)。A)訓(xùn)練誤差B)泛化誤差C)再代入誤差D)表現(xiàn)誤差答案:ABC解析:[多選題]72.關(guān)于卷積神經(jīng)網(wǎng)絡(luò)以下說法正確的是()A)常見池化層有最大池化與平均池化B)卷積核不可以用來提取圖片全局特性C)處理圖片時,是以掃描窗口的方式對圖像做卷積D)卷積神經(jīng)網(wǎng)絡(luò)可以包含卷積層,池化層和全連接層答案:ACD解析:[多選題]73.在機(jī)器學(xué)習(xí)中,如果一味的去提高訓(xùn)練數(shù)據(jù)的預(yù)測能力,所選模型的復(fù)雜度往往會很高,這種現(xiàn)象稱為過擬合。所表現(xiàn)的就是模型訓(xùn)練時候的誤差很小,但在測試的時候誤差很大,對于產(chǎn)生這種現(xiàn)象以下說法正確的是:()A)樣本數(shù)量太少B)樣本數(shù)量過多C)模型太復(fù)雜D)模型太簡單答案:AC解析:[多選題]74.(__)不屬于集中趨勢分析。A)數(shù)值平均數(shù)B)位置平均數(shù)C)離散系數(shù)D)正相關(guān)答案:CD解析:[多選題]75.讓學(xué)習(xí)器不依賴外界交互、自動地利用未標(biāo)記樣本來提升學(xué)習(xí)性能的有哪些?A)監(jiān)督學(xué)習(xí)B)半監(jiān)督SVMC)半監(jiān)督聚類D)直推學(xué)習(xí)答案:BCD解析:第3部分:判斷題,共16題,請判斷題目是否正確。[判斷題]76.梯度下降算法是最常用也是最有效的神經(jīng)網(wǎng)絡(luò)的優(yōu)化辦法,完全可以滿足不同類型的需求A)正確B)錯誤答案:錯解析:[判斷題]77.在初始數(shù)據(jù)量足夠時,自助法比交叉驗證法更為常用。A)正確B)錯誤答案:錯解析:[判斷題]78.深度學(xué)習(xí)在人工智能領(lǐng)域表現(xiàn)并不突出A)正確B)錯誤答案:錯解析:[判斷題]79.Pandas只有Series和DataFrame兩種數(shù)據(jù)結(jié)構(gòu)。A)正確B)錯誤答案:錯解析:Pandas有Series、DataFrame、Panel三種數(shù)據(jù)結(jié)構(gòu)[判斷題]80.決策樹分類器的假設(shè)空間VC維可以為無窮大A)正確B)錯誤答案:對解析:[判斷題]81.邏輯回歸是一種解決回歸問題的算法A)正確B)錯誤答案:錯解析:[判斷題]82.單次使用留出法得到的結(jié)果往往穩(wěn)定可靠。__A)正確B)錯誤答案:錯解析:[判斷題]83.集合中的元素沒有特定順序但可以重復(fù)。A)正確B)錯誤答案:錯解析:[判斷題]84.在距離度量中,最常?的是?閔可夫斯基距離?。當(dāng)p=2時,閔可夫斯基距離就是歐式距離,當(dāng)p=1時,閔可夫斯基距離就是曼哈頓距離。A)正確B)錯誤答案:對解析:[判斷題]85.預(yù)剪枝決策樹其訓(xùn)練時間開銷比后剪枝決策樹要大得多。__A)正確B)錯誤答案:錯解析:[判斷題]86.使用ID3構(gòu)建的決策樹有兩點明顯不足:實例各特征的取值必須是離散值,而不能是連續(xù)實數(shù)值;預(yù)測目標(biāo)值只能為離散值
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 土壤微生物多樣性分析-洞察分析
- 圍絕經(jīng)期女性保健-洞察分析
- 信用服務(wù)技術(shù)前沿研究-洞察分析
- 飼料產(chǎn)業(yè)鏈協(xié)同效應(yīng)-洞察分析
- 云安全風(fēng)險評估技術(shù)-第3篇-洞察分析
- 鴨產(chǎn)業(yè)鏈國際化拓展策略-洞察分析
- 2024年枝江市人民醫(yī)院高層次衛(wèi)技人才招聘筆試歷年參考題庫頻考點附帶答案
- 《電工及電子基礎(chǔ)》課件
- 2025年外研版三年級起點八年級歷史上冊階段測試試卷
- 2024年滬教版選修4歷史下冊階段測試試卷含答案
- 中國珠寶市場發(fā)展報告(2019-2024)(中英)-中國珠寶玉石首飾行業(yè)協(xié)會
- 安徽省蕪湖市2023-2024學(xué)年高一上學(xué)期期末考試 數(shù)學(xué) 含解析
- 富士施樂VC2265打印機(jī)使用說明SPO
- 服務(wù)態(tài)度決定客戶滿意度試題含答案
- 中學(xué)歷史教育中的德育狀況調(diào)查問卷
- 教科版四年級科學(xué)上冊全冊復(fù)習(xí)教學(xué)設(shè)計及知識點整理
- 重慶萬科渠道制度管理辦法2022
- 上海黃金交易所貴金屬交易員題庫
- 蒸汽管道設(shè)計表(1)
- 提撈采油安全操作規(guī)程
- in、ing對比辨音練習(xí).doc
評論
0/150
提交評論