人工智能機器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷16)_第1頁
人工智能機器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷16)_第2頁
人工智能機器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷16)_第3頁
人工智能機器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷16)_第4頁
人工智能機器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷16)_第5頁
已閱讀5頁,還剩19頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

試卷科目:人工智能機器學(xué)習(xí)技術(shù)練習(xí)人工智能機器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷16)PAGE"pagenumber"pagenumber/SECTIONPAGES"numberofpages"numberofpages人工智能機器學(xué)習(xí)技術(shù)練習(xí)第1部分:單項選擇題,共58題,每題只有一個正確答案,多選或少選均不得分。[單選題]1.以下哪個操作可能會產(chǎn)生大量小文件A)mapper數(shù)較多的map-only任務(wù)B)reduer數(shù)較多的任務(wù)C)從海量數(shù)據(jù)中過濾出符合條件的少量數(shù)據(jù)答案:C解析:[單選題]2.線性回歸和邏輯回歸中,關(guān)于損失函數(shù)對權(quán)重系數(shù)的偏導(dǎo)數(shù),下列說法正確的是?A)兩者不一樣B)兩者一樣C)無法確定答案:B解析:[單選題]3.正常建立一條TCP連接需要()個步驟,正常關(guān)閉一個TCP連接需要()個步驟A)3,3B)3,4C)4,4D)4,3答案:B解析:[單選題]4.讓學(xué)習(xí)器不依賴外界交互、自動地利用未標(biāo)記樣本來提升學(xué)習(xí)性能,就是(__)。A)有監(jiān)督學(xué)習(xí)B)全監(jiān)督學(xué)習(xí)C)無監(jiān)督學(xué)習(xí)D)半監(jiān)督學(xué)習(xí)答案:D解析:[單選題]5.關(guān)于OLAP和OLTP的說法,下列不正確的是:A)OLAP事務(wù)量大,但事務(wù)內(nèi)容比較簡單且重復(fù)率高.B)OLAP的最終數(shù)據(jù)來源與OLTP不一樣.C)OLTP面對的是決策人員和高層管理人員.D)OLTP以應(yīng)用為核心,是應(yīng)用驅(qū)動的.答案:A解析:[單選題]6.關(guān)于基本數(shù)據(jù)的元數(shù)據(jù)是指:A)基本元數(shù)據(jù)與數(shù)據(jù)源,數(shù)據(jù)倉庫,數(shù)據(jù)集市和應(yīng)用程序等結(jié)構(gòu)相關(guān)的信息;B)基本元數(shù)據(jù)包括與企業(yè)相關(guān)的管理方面的數(shù)據(jù)和信息;C)基本元數(shù)據(jù)包括日志文件和簡歷執(zhí)行處理的時序調(diào)度信息;D)基本元數(shù)據(jù)包括關(guān)于裝載和更新處理,分析處理以及管理方面的信息.答案:D解析:[單選題]7.Zookeeper-Stat結(jié)構(gòu)體中dataLength是()A)znode數(shù)據(jù)變化號B)znode訪問控制列表的變化號C)znode子節(jié)點數(shù)量D)znode的數(shù)據(jù)長度答案:D解析:[單選題]8.關(guān)于k折交叉驗證,下列說法正確的是?A)k值并不是越大越好,k值過大,會降低運算速度B)選擇更大的k值,會讓偏差更小,因為k值越大,訓(xùn)練集越接近整個訓(xùn)練樣本C)選擇合適的k值,能減小驗方差D)以上說法都正確答案:D解析:機器學(xué)習(xí)中,在樣本量不充足的情況下,為了充分利用數(shù)據(jù)集對算法效果進(jìn)行測試,將數(shù)據(jù)集隨機分為k個包,每次將其中一個包作為測試集,剩下k-1個包作為訓(xùn)練集進(jìn)行訓(xùn)練。K折交叉驗證的的k值不能太大,也不能太小。k值過大,會降低運算速度。若k與樣本數(shù)量N相同,則是留一法(Leave-One-Out)。k值較大,訓(xùn)練集越接近整個訓(xùn)練樣本,有利于減小模型偏差(bias)。一般可以將k作為超參數(shù)調(diào)試,根據(jù)表現(xiàn)選擇合適的k值。K折交叉驗證能夠有效提高模型的學(xué)習(xí)能力,類似于增加了訓(xùn)練樣本數(shù)量,使得學(xué)習(xí)的模型更加穩(wěn)健,魯棒性更強。選擇合適的k值能夠有效避免過擬合。[單選題]9.()不可以直接來對文本分類。A)K-meansB)決策樹C)支持向量機D)KNN答案:A解析:K-means是聚類方法,屬于無監(jiān)督學(xué)習(xí)。BCD都是常見的分類方法。[單選題]10.以下描述不正確的是()。A)文本是半結(jié)構(gòu)化數(shù)據(jù)B)非結(jié)構(gòu)化數(shù)據(jù)是數(shù)據(jù)科學(xué)與傳統(tǒng)數(shù)據(jù)管理的主要區(qū)別C)視頻是非結(jié)構(gòu)化數(shù)據(jù)D)目前,非結(jié)構(gòu)化數(shù)據(jù)占比最大答案:A解析:[單選題]11.Keras主要用于哪一方面A)神經(jīng)網(wǎng)絡(luò)B)非結(jié)構(gòu)化數(shù)據(jù)存儲C)數(shù)據(jù)可視化D)數(shù)據(jù)管理答案:A解析:[單選題]12.主成分分析的優(yōu)化目標(biāo)是一個(__)。A)不含約束條件的二次規(guī)劃問題B)含有約束條件的二次規(guī)劃問題C)不含約束條件的線性規(guī)劃問題D)含有約束條件的線性規(guī)劃問題答案:B解析:[單選題]13.已知數(shù)組trans_cnt[1,2,3,4],trans_cnt[2]代表的是哪一個元素:A)1B)2C)3D)4答案:C解析:[單選題]14.多項式分布的共軛分布是()A)正態(tài)分布B)Dirichlet分布C)Beta分布D)指數(shù)分布答案:B解析:[單選題]15.(__)假設(shè)聚類結(jié)構(gòu)能通過一組原型刻畫,在顯示聚類任務(wù)中極為常用。A)原型聚類B)密度聚類C)層次聚類D)AGNES答案:A解析:[單選題]16.標(biāo)準(zhǔn)AdaBoost只適用于____任務(wù)A)多分類B)二分類C)回歸D)分類答案:A解析:[單選題]17.以下哪一項給出了邏輯回歸與LDA之間的差異?A)1B)2C)1和2D)都不是答案:C解析:[單選題]18.可用信息增益來進(jìn)行決策樹的()。A)樹高B)葉子結(jié)點數(shù)C)總結(jié)點數(shù)D)劃分屬性選擇答案:D解析:[單選題]19.GRU和LSTM的說法正確的是()A)GRU通過outputgate控制memory;B)LSTM對memory不做控制,直接傳遞給下一個unitC)GRU不對上一時刻的信息做任何控制;D)GRU的參數(shù)比LSTM的參數(shù)少;答案:D解析:[單選題]20.以下有關(guān)機器學(xué)習(xí)理解不正確的是()。A)查詢大量的操作數(shù)據(jù)去發(fā)現(xiàn)新的信息B)從大量的業(yè)務(wù)數(shù)據(jù)中分析有興趣的新穎知識輔助決策的過程C)機器學(xué)習(xí)的結(jié)果不一定能輔助決策D)需要借助統(tǒng)計學(xué)或機器學(xué)習(xí)的一些算法答案:A解析:[單選題]21.以下表達(dá)式書寫錯誤的是A)year('2015-12-3112:21')B)month(2015-10-31)C)day('2015-12-11')D)date_sub('2015-12-01',3)答案:B解析:[單選題]22.如果我們現(xiàn)有一個安裝2.6.5版本的hadoop集群,在不修改默認(rèn)配置的情況下存儲200個每個200M的文本文件,請問最終會在集群中產(chǎn)生多少個數(shù)據(jù)塊(包括副本)?A)200B)40000C)400D)1200答案:D解析:[單選題]23.決策樹中不包含以下哪種結(jié)點A)根節(jié)點B)內(nèi)部結(jié)點C)葉節(jié)點D)外部結(jié)點答案:D解析:[單選題]24.未來房價的預(yù)測,這種屬于數(shù)據(jù)挖掘的哪類問題?()A)分類B)聚類C)關(guān)聯(lián)規(guī)則D)回歸分析答案:D解析:[單選題]25.對于任意值?x?,考慮到Logistic(x):是任意值?x?的邏輯(Logistic)函數(shù)Logit(x):是任意值?x?的logit函數(shù)Logit_inv(x):是任意值?x?的逆邏輯函數(shù)以下哪一項是正確的?A)Logistic(x)=Logit(x)B)Logistic(x)=Logit_inv(x)C)Logit_inv(x)=Logit(x)D)都不是答案:B解析:[單選題]26.屬于無監(jiān)督學(xué)習(xí)的機器學(xué)習(xí)算法是()A)支持向量機B)Logistic回歸C)層次聚類D)決策樹答案:C解析:[單選題]27.線性回歸是一種(),它分為簡單線性回歸和多元線性回歸A)無監(jiān)督學(xué)習(xí)算法B)有監(jiān)督學(xué)習(xí)算法C)強化學(xué)習(xí)D)聚類算法答案:B解析:[單選題]28.如果需要訓(xùn)練的特征維度成千上萬,在高維情形下出現(xiàn)的數(shù)據(jù)樣本稀疏、距離計算困難。我們通過()可以緩解這個問題。A)K均值算法B)支持向量機C)降維D)以上答案都不正確答案:C解析:[單選題]29.?哪些機器學(xué)習(xí)模型經(jīng)過訓(xùn)練,能夠根據(jù)其行為獲得的獎勵和反饋做出一系列決策?A)無監(jiān)督學(xué)習(xí)B)監(jiān)督學(xué)習(xí)C)強化學(xué)習(xí)D)以上全部答案:C解析:[單選題]30.假設(shè)你有以下數(shù)據(jù):輸入和輸出都只有一個變量。使用線性回歸模型(y=wx+b)來擬合數(shù)據(jù)。那么使用留一法(Leave-OneOut)交叉驗證得到的均方誤差是多少?X(independentvariable)023Y(dependentvariable)221A)10/27B)39/27C)49/27D)55/27答案:C解析:[單選題]31.假設(shè)使用邏輯回歸進(jìn)行n多類別分類,使用One-vs-rest分類法。下列說法正確的是?A)對于n類別,需要訓(xùn)練n個模型B)對于n類別,需要訓(xùn)練n-1個模型C)對于n類別,只需要訓(xùn)練1個模型D)以上說法都不對答案:A解析:One-vs-rest分類法中,假設(shè)有n個類別,那么就會建立n個二項分類器,每個分類器針對其中一個類別和剩余類別進(jìn)行分類。進(jìn)行預(yù)測時,利用這n個二項分類器進(jìn)行分類,得到數(shù)據(jù)屬于當(dāng)前類的概率,選擇其中概率最大的一個類別作為最終的預(yù)測結(jié)果。舉個簡單的例子,3分類,類別分別是{-1,0,1}。構(gòu)建3個二分類器:-1與0,1與-1,11與-1,0若第1個二分類器得到-1的概率是0.7,第2個二分類器得到0的概率是0.2,第3個二分類器得到1的概率是0.4,則最終預(yù)測的類別是-1。[單選題]32.以下描述中,屬于決策樹策略的是()A)最優(yōu)投影方向B)梯度下降方法C)最大特征值D)最大信息增益答案:D解析:[單選題]33.關(guān)于數(shù)據(jù)規(guī)范化,下列說法中錯誤的是()。A)標(biāo)準(zhǔn)化實際上是將數(shù)據(jù)在樣本的標(biāo)準(zhǔn)差上做了等比例的縮放操作B)歸一化利用了樣本中的最大值和最小值C)包含標(biāo)準(zhǔn)化和歸一化D)標(biāo)準(zhǔn)化在任何場景下受異常值的影響都很小答案:D解析:[單選題]34.下面哪些可能是一個文本語料庫的特征()1一個文檔中的詞頻統(tǒng)計2文檔中單詞的布爾特征3詞向量4詞性標(biāo)記5基本語法依賴6整個文檔A)123B)1234C)12345D)123456答案:C解析:[單選題]35.圖像降噪的作用(__)。A)改變圖像大小B)將圖像分成多個小單位C)去除干擾信號D)使圖像變得更加豐富答案:C解析:[單選題]36.已知一組數(shù)據(jù)的協(xié)方差矩陣P,下面關(guān)于主分量說法錯誤的是()。A)主分量分析的最佳準(zhǔn)則是對一組數(shù)據(jù)進(jìn)行按一組正交基分解,在只取相同數(shù)量分量的條件下,以均方誤差計算截尾誤差最小B)在經(jīng)主分量分解后,協(xié)方差矩陣成為對角矩陣C)主分量分析就是K-L變換D)主分量是通過求協(xié)方差矩陣的特征值得到答案:C解析:主分量分析的變換矩陣是協(xié)方差矩陣,K-L變換的變換矩陣可以有很多種(二階矩陣、協(xié)方差矩陣、總類內(nèi)離散度矩陣等)。當(dāng)K-L變換矩陣為協(xié)方差矩陣時,等同于PCA。[單選題]37.Fisher線性判別函數(shù)的求解過程是將N維特征矢量投影在()中進(jìn)行求解?A)一維空間B)N-1維空間C)三維空間D)二維空間答案:A解析:[單選題]38.關(guān)于OLAP和OLTP的區(qū)別描述,不正確的是:A)OLAP主要是關(guān)于如何理解聚集的大量不同的數(shù)據(jù).它與OTAP應(yīng)用程序不同.B)與OLAP應(yīng)用程序不同,OLTP應(yīng)用程序包含大量相對簡單的事務(wù).C)OLAP的特點在于事務(wù)量大,但事務(wù)內(nèi)容比較簡單且重復(fù)率高.D)OLAP是以數(shù)據(jù)倉庫為基礎(chǔ)的,但其最終數(shù)據(jù)來源與OLTP一樣均來自底層的數(shù)據(jù)庫系統(tǒng),兩者面對的用戶是相同的.答案:D解析:[單選題]39.下列代碼實現(xiàn)的功能是:>>>fromsklearn.naive_bayesimportGaussianNB>>>gnb=GaussianNB()>>>y_pred=gnb.fit(iris.data,iris.target).predict(iris.data)A)創(chuàng)建高斯樸素貝葉斯模型并對模型進(jìn)行訓(xùn)練B)創(chuàng)建高斯樸素貝葉斯模型并對模型進(jìn)行預(yù)測C)創(chuàng)建高斯樸素貝葉斯模型并對模型進(jìn)行訓(xùn)練和預(yù)測D)創(chuàng)建高斯樸素貝葉斯模型并對模型進(jìn)行訓(xùn)練和評測答案:C解析:[單選題]40.下面不屬于云計算技術(shù)的有(__)。A)HadoopB)SparkC)YARND)集中式計算答案:D解析:[單選題]41.下圖顯示的機器學(xué)習(xí)使用的激活函數(shù)(Activationfunction)的圖形,是下列哪一個函數(shù)的圖形?()A)B)C)D)答案:C解析:[單選題]42.()是二維隨機變量的分布。A)正態(tài)分布B)二項分布C)邊緣分布D)指數(shù)分布答案:C解析:二維隨機變量的分布有邊緣分布和條件分布。[單選題]43.下列中為判別模型的是()A)高斯混合模型B)隱含馬爾科夫模型C)GAN模型D)邏輯回歸模型答案:D解析:[單選題]44.()在劃分屬性時是在當(dāng)前結(jié)點的屬性集合中選擇一個最優(yōu)屬性。A)AdaBoostB)RFC)BaggingD)傳統(tǒng)決策樹答案:D解析:[單選題]45.在支持向量機中,?間隔?是指(__)。A)非支持向量到劃分超平面間的距離之和B)支持向量之間的距離C)支持向量和非支持向量之間的距離D)支持向量到超平面的距離之和答案:D解析:[單選題]46.以下兩種描述分別對應(yīng)哪兩種對分類算法的評價標(biāo)準(zhǔn)?(a)警察抓小偷,描述警察抓的人中有多少個是小偷的標(biāo)準(zhǔn)。(b)描述有多少比例的小偷給警察抓了的標(biāo)準(zhǔn)。A)Precision,RecallB)Recall,PrecisionC)Precision,ROCD)Recall,ROC答案:A解析:[單選題]47.FOIL是()的學(xué)習(xí)算法A)命題規(guī)則B)剪枝優(yōu)化C)一階規(guī)則D)序貫覆蓋答案:C解析:[單選題]48.以下哪項不屬于知識發(fā)現(xiàn)的過程?()A)數(shù)據(jù)清理B)數(shù)據(jù)挖掘C)知識可視化表達(dá)D)數(shù)據(jù)測試答案:D解析:[單選題]49.下列激活函數(shù)中,能夠?qū)崿F(xiàn)將特征限制到區(qū)間[-1,1]的是哪一個A)TanhB)LogisticC)ReLUD)Sigmoid答案:A解析:[單選題]50.變量之間的關(guān)系可以分為()兩大類。A)函數(shù)關(guān)系與相關(guān)關(guān)系B)線性相關(guān)關(guān)系和非線性相關(guān)關(guān)系C)正相關(guān)關(guān)系和負(fù)相關(guān)關(guān)系D)簡單相關(guān)關(guān)系和復(fù)雜相關(guān)關(guān)系答案:A解析:[單選題]51.(__)是一門以可視化交互為基礎(chǔ),綜合運用圖形學(xué)、數(shù)據(jù)挖掘和人機交互等多個領(lǐng)域的知識,以實現(xiàn)人機協(xié)同完成可視化任務(wù)為主要目的的分析推理性學(xué)科。A)信息可視化B)科學(xué)可視化C)可視分析學(xué)D)數(shù)據(jù)可視化答案:C解析:[單選題]52.圖像在opencv中的數(shù)據(jù)存儲結(jié)構(gòu)是()。A)tensorB)numpyC)linkD)Mat答案:D解析:[單選題]53.在測試一假設(shè)h時,發(fā)現(xiàn)在一包含n=1000個隨機抽取樣例的樣本s上,它出現(xiàn)r=300個錯誤,計算Errors(h)的標(biāo)準(zhǔn)差()A)0.0145B)0.145C)1.45D)14.5答案:A解析:[單選題]54.下列表示Pandas類別統(tǒng)計函數(shù)的是()。A)value_Counts()B)Value_Counts()C)values_counts()D)value_counts()答案:D解析:[單選題]55.對于分類任務(wù)來說,在所有相關(guān)概率都已知的理想情形下,(__)考慮如何基于這些概率和誤判損失來選擇最優(yōu)的類別標(biāo)記。A)支持向量機B)間隔最大化C)線性分類器D)貝葉斯決策論答案:D解析:[單選題]56.下面的代碼中,不是用來用來評價所訓(xùn)練模型的預(yù)測準(zhǔn)確性的是:A)fromsklearn.metricsimportaccuracy_scoreB)fromsklearn.model_selectionimporttrain_test_splitC)fromsklearn.metricsimportmean_squared_errorD)fromsklearn.metricsimportmean_absolute_error答案:B解析:[單選題]57.以下描述正確的是()。A)非結(jié)構(gòu)化數(shù)據(jù)是先有結(jié)構(gòu),后有數(shù)據(jù)B)XML是非結(jié)構(gòu)化數(shù)據(jù)C)結(jié)構(gòu)化數(shù)據(jù)是先有數(shù)據(jù),后有結(jié)構(gòu)D)非結(jié)構(gòu)化數(shù)據(jù)是數(shù)據(jù)科學(xué)與傳統(tǒng)數(shù)據(jù)管理的主要區(qū)別答案:D解析:[單選題]58.k-NN最近鄰方法在什么情況下效果較好?A)樣本較多但典型性不好B)樣本較少但典型性好C)樣本呈團狀分布D)樣本呈鏈狀分布答案:B解析:K近鄰算法主要依靠的是周圍的點,因此如果樣本過多,則難以區(qū)分,典型性好的容易區(qū)分。樣本呈團狀或鏈狀都具有迷惑性,這樣kNN就發(fā)揮不出其求近鄰的優(yōu)勢了,整體樣本應(yīng)該具有典型性好,樣本較少,比較適宜。第2部分:多項選擇題,共21題,每題至少兩個正確答案,多選或少選均不得分。[多選題]59.在決策樹基本算法中,有三種情形會導(dǎo)致遞歸返回,這三種情形分別是(__)。A)當(dāng)前結(jié)點包含的樣本全屬于同一類別,無需劃分B)當(dāng)前屬性集為空,或是所有樣本在所有屬性上取值相同,無法劃分C)當(dāng)前結(jié)點包含的樣本集合為空,不能劃分D)當(dāng)前結(jié)點包含的樣本不屬于同一類別,不可劃分答案:ABC解析:[多選題]60.可用于貝葉斯決策的函數(shù)()A)AB)BC)CD)D答案:ABC解析:[多選題]61.下面不屬于探索性統(tǒng)計中常用數(shù)據(jù)分布統(tǒng)計量的是(__)。A)殘差B)偏態(tài)C)峰態(tài)D)眾數(shù)答案:AD解析:[多選題]62.KNN的主要優(yōu)點是()A)理論成熟,思想簡單,既可以用來做分類也可以用來做回歸B)訓(xùn)練時間復(fù)雜度比支持向量機之類的算法低,僅為O(n)C)與樸素貝葉斯之類的算法比,對數(shù)據(jù)沒有假設(shè),準(zhǔn)確度高,對異常點不敏感D)可用于非線性分類答案:ABCD解析:[多選題]63.()是卷積神經(jīng)網(wǎng)絡(luò)的池化層。A)convolutionB)maxpoolingC)averagepoolingD)fullconnection答案:BC解析:[多選題]64.在hive中下列哪些命令可以實現(xiàn)去重()A)distinctB)groupbyC)row_numberD)Having答案:ABC解析:[多選題]65.支持向量機中定義的間隔值為w的二范式的-2次方,這樣看間隔貌似僅與權(quán)重w有關(guān),這意味著偏置項b(__)。A)沒有任何意義B)對間隔不會產(chǎn)生影響C)通過約束隱式地影響著w的取值D)對間隔會產(chǎn)生影響答案:CD解析:[多選題]66.Spark可以采用幾種不同的部署方式A)SparkonYARNB)SparkonMesosC)onyarn模式D)Standalone答案:ABD解析:[多選題]67.機器學(xué)習(xí)算法按學(xué)習(xí)任務(wù)分類可分為A)分類B)回歸C)聚類D)強化學(xué)習(xí)答案:ABC解析:[多選題]68.(__)是數(shù)據(jù)科學(xué)的主要理論基礎(chǔ)之一。A)機器學(xué)習(xí)B)統(tǒng)計學(xué)C)數(shù)據(jù)D)黑客精神與技能答案:AB解析:[多選題]69.對單層感知機判別分類,描述正確的是()A)線性分類B)監(jiān)督學(xué)習(xí)C)錯誤誤差最小D)錯誤誤差最大答案:ABC解析:[多選題]70.下列關(guān)于支持向量回歸機說法正確的是(__)。A)支持向量回歸機希望學(xué)得一個回歸模型,使得預(yù)測值f(x)與真實值x盡可能接近B)在傳統(tǒng)回歸模型中,當(dāng)且僅當(dāng)預(yù)測值f(x)與真實值x完全相同時,損失才為0C)支持向量回歸假設(shè)我們能夠容忍預(yù)測值f(x)與真實值x之間最多有特定值的誤差D)支持向量回歸以決策函數(shù)為中心,構(gòu)建了一個特定寬度的間隔帶,若訓(xùn)練樣本落入此間隔帶,則認(rèn)為是被預(yù)測正確的答案:ABCD解析:[多選題]71.假設(shè)你有一個非常大的訓(xùn)練集合,如下機器學(xué)習(xí)算法中,你覺著有哪些是能夠使用map-reduce框架并能將訓(xùn)練集劃分到多臺機器上進(jìn)行并行訓(xùn)練()A)邏輯斯特回歸(LR),以及隨機梯度下降(SGD)B)線性回歸及批量梯度下降(BGD)C)神經(jīng)網(wǎng)絡(luò)及批量梯度下降(BGD)D)針對單條樣本進(jìn)行訓(xùn)練的在線學(xué)習(xí)答案:BC解析:LR,SVM,NN,KNN,KMeans,DT,NB都可以用mapreduce并行。[多選題]72.聚類性能度量大致有兩類,一類是(__),另一類是(__)。A)外部指標(biāo)B)內(nèi)部指標(biāo)C)簇內(nèi)相似度D)簇間相似度答案:AB解析:[多選題]73.以下關(guān)于Zookeeper的Leader選舉說法正確的是?()A)當(dāng)實例n為奇數(shù)時,假定n=2x+1,則成為leader節(jié)點需要x+1票B)Zookeeper選舉leader時,需要半數(shù)以上的票數(shù)C)當(dāng)實例數(shù)為8時,則成為leader節(jié)點需要5票,容災(zāi)能力為4D)當(dāng)實例數(shù)n為奇數(shù)時,假定n=2x+1,則成為leader節(jié)點需要x票答案:AB解析:[多選題]74.數(shù)據(jù)科學(xué)的基本流程包含(__)。A)數(shù)據(jù)化B)探索性分析C)數(shù)據(jù)分析D)數(shù)據(jù)存儲答案:ABC解析:[多選題]75.哪些項不屬于使用池化層相比于相同步長的卷積層的優(yōu)勢?()A)參數(shù)更少B)可以獲得更大下采樣C)速度更快D)有助于提升精度答案:BCD解析:第3部分:判斷題,共12題,請判斷題目是否正確。[判斷題]76.硬投票計算出每個類別的平均估算概率,然后選出概率最高的類別。A)正確B)錯誤答案:錯解析:[判斷題]77.決策樹通過預(yù)剪枝和后剪枝提升模型的泛化能力。()A)正確B)錯誤答案:對解析:[判斷題]78.Bagging是一個低效的集成學(xué)習(xí)算法A)正確B)錯誤答案:錯解析:[判斷題]79.準(zhǔn)確率是所有正確識別的樣本占樣本總量的比例。當(dāng)所有類別都同等重要時,采用準(zhǔn)確率最為簡單直觀。A)正確B)錯誤答案:對解析:[判斷題]80.機器學(xué)習(xí)的核心是?使用算法解析數(shù)據(jù),從中學(xué)習(xí),然后對世界上的某件事情做出決定或預(yù)測A)正確B)錯誤答案:對解析:[判斷題]81.極大似然法估計參數(shù)的核心思想是:選擇參數(shù),使得當(dāng)前已經(jīng)觀測到的數(shù)據(jù)(訓(xùn)練集中的m個樣本)最有可能出現(xiàn)(概率最大)。A)正確B)錯誤答案:對解析:[判斷題]82.Boosting的訓(xùn)練過程是有序的。A)正確B)錯誤答案:對解析:[判斷題]83.卷積操作的本質(zhì)特性包括稀疏交互和參數(shù)共享。()A)正確B)錯誤答案:對解析:[判斷題]84.決策樹是基于樹結(jié)構(gòu)來進(jìn)行決策的,決策樹學(xué)習(xí)的目的是為了產(chǎn)生一棵泛化能力強的決策樹。A)正確B)錯誤答案:對解析:[判斷題]85.兩個變量相關(guān),它們的相關(guān)系數(shù)r可能為0。這句話是否正確?A)正確B)錯誤答案:對解析:一般來說,相關(guān)系數(shù)r=0是兩變量相互獨立的必要不充分條件。也就是說,如果兩個變量相互獨立,那么相關(guān)系數(shù)r一定為0,如果相關(guān)系數(shù)r=0,則不一定相互獨立。相關(guān)系數(shù)r=0只能說明兩個變量之間不存在線性關(guān)系,仍然可能存在非線性關(guān)系。那么,若兩個變量相關(guān),存在非線性關(guān)系,那么它們的相關(guān)系數(shù)r就為0。[判斷題]86.逆歸結(jié)的一大特點是能自動發(fā)明新謂詞,這些謂詞可能對應(yīng)于樣例屬性和背景知識中不存在的新知識A)正確B)錯誤答案:對解析:[判斷題]87.LabelEncoder是將原為0或1的布爾值轉(zhuǎn)換為字符串(str)A)正確B)錯誤答案:錯解析:第4部分:問答題,共9題,請在空白處填寫正確答案。[問答題]88.如果訓(xùn)練集有100萬個實例,訓(xùn)練決策樹(無約束)大致的深度是多少?答案:答:一個包含m個葉節(jié)點的均衡二叉樹的深度等于log2(m)的四舍五入。通常來說,二

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論