人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷24)_第1頁
人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷24)_第2頁
人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷24)_第3頁
人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷24)_第4頁
人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷24)_第5頁
已閱讀5頁,還剩19頁未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

試卷科目:人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷24)PAGE"pagenumber"pagenumber/SECTIONPAGES"numberofpages"numberofpages人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)第1部分:單項(xiàng)選擇題,共58題,每題只有一個(gè)正確答案,多選或少選均不得分。[單選題]1.屬于常見問題解答模塊的主要技術(shù)的是()。[]*A問句相似度計(jì)算A)語料庫的構(gòu)建B)查詢擴(kuò)展C)模式匹配答案:A解析:[單選題]2.最佳分類是曲線下區(qū)域面積最大者,而黃線在曲線下面積最大.2、假設(shè)你在測試邏輯回歸分類器,設(shè)函數(shù)H為style="width:211px;"class="fr-ficfr-filfr-dibcursor-hover">下圖中的哪一個(gè)代表上述分類器給出的決策邊界?A)style="width:auto;"class="fr-ficfr-filfr-dib">B)style="width:auto;"class="fr-ficfr-filfr-dib">C)style="width:auto;"class="fr-ficfr-filfr-dib">答案:B解析:選項(xiàng)B正確。雖然我們的式子由選項(xiàng)A和選項(xiàng)B所示的y=g(-6+x2)表示,但是選項(xiàng)B才是正確的答案,因?yàn)楫?dāng)將x2=6的值放在等式中時(shí),要使y=g(0)就意味著y=0.5將在線上,如果你將x2的值增加到大于6,你會(huì)得到負(fù)值,所以輸出將是區(qū)域y=0。[單選題]3.下圖是哪一種算法表示()A)K-近鄰算法B)貝葉斯C)一元線性回歸D)多項(xiàng)式回歸答案:C解析:[單選題]4.概率密度函數(shù)服從正態(tài)分布的噪聲,叫做(__)。A)泊松噪聲B)高斯噪聲C)乘性噪聲D)椒鹽噪聲答案:B解析:[單選題]5.決策樹所形成的分類邊界有一個(gè)明顯特點(diǎn),它的分類邊界由若干個(gè)__分段組成。A)與坐標(biāo)軸平行B)與坐標(biāo)軸垂直C)與坐標(biāo)軸重合D)過坐標(biāo)原點(diǎn)答案:A解析:[單選題]6.PCA和LDA的以下比較哪些是正確的?A)1和2B)1和3C)只有3D)1、2和3答案:D解析:[單選題]7.SVM的原理的簡單描述,可概括為()A)最小均方誤差分類B)最小距離分類C)最大間隔分類D)最近鄰分類答案:C解析:[單選題]8.下列哪項(xiàng)方法不屬于圖像分割方法()。A)邊緣檢測法B)閾值分割法C)區(qū)域分割法D)特征提取法答案:D解析:[單選題]9.下列選項(xiàng)中,()不是Python合法標(biāo)識(shí)符。A)int32B)40XLC)selfD)name答案:B解析:[單選題]10.下列選擇Logistic回歸中的One-Vs-All方法中,()是真實(shí)的。A)我們需要在n類分類問題中適合n個(gè)模型B)我們需要適合n-1個(gè)模型來分類為n個(gè)類C)我們需要只適合1個(gè)模型來分類為n個(gè)類D)以上答案都不正確答案:A解析:如果存在n個(gè)類,那么n個(gè)單獨(dú)的邏輯回歸必須與之相適應(yīng),其中每個(gè)類的概率由剩余類的概率之和確定。[單選題]11.下面能實(shí)現(xiàn)人工智能算法的開發(fā)環(huán)境有A)C語言B)Java語言C)Python語言D)以上都可以答案:D解析:[單選題]12.一監(jiān)獄人臉識(shí)別準(zhǔn)入系統(tǒng)用來識(shí)別待進(jìn)入人員的身份,此系統(tǒng)識(shí)別獄警、小偷、送餐員、其他人員4種不同人員。下列學(xué)習(xí)方法最適合此種應(yīng)用需求的是()。A)二分類問題B)層次聚類問題C)多分類問題D)回歸問題答案:C解析:涉及4種人員類別屬于多分類問題。[單選題]13.()一般采用圖表或數(shù)學(xué)方法描述數(shù)據(jù)的統(tǒng)計(jì)特征,如分布狀態(tài)、數(shù)值特征等。A)推斷統(tǒng)計(jì)B)預(yù)測分析C)描述統(tǒng)計(jì)D)診斷分析答案:C解析:[單選題]14.以下哪種NLP模型的準(zhǔn)確性最高?A)BERTB)XLNETC)GPT-2D)ELMo答案:B解析:[單選題]15.SVM算法的性能取決于:A)以上所有B)軟間隔參數(shù)C)核函數(shù)的參數(shù)D)核函數(shù)的選擇答案:A解析:[單選題]16.下面不屬于探索性統(tǒng)計(jì)中常用離散程度統(tǒng)計(jì)量的是(__)。A)平均數(shù)B)方差C)標(biāo)準(zhǔn)差D)極大值答案:A解析:[單選題]17.混淆矩陣中的TP=16,F(xiàn)P=12,F(xiàn)N=8,TN=4,準(zhǔn)確率是A)四分之一B)二分之一C)七分之四D)三分之二答案:B解析:[單選題]18.下列哪個(gè)語句在Python中是非法的是()。A)x=y=z=1B)x,y=y,xC)x=(y=z+1)D)x+=y答案:C解析:[單選題]19.(__)是一種著名的密度聚類算法,它基于一組?鄰域?參數(shù)來刻畫樣本的緊密程度。A)DBSCANB)原型聚類C)密度聚類D)層次聚類答案:A解析:[單選題]20.當(dāng)訓(xùn)練樣本數(shù)量趨向于無窮大時(shí),在該數(shù)據(jù)集上訓(xùn)練的模型變化趨勢,對(duì)于其描述正確的是()A)偏差(bias)變小B)偏差變大C)偏差不變D)不變答案:C解析:偏差大是欠擬合,方差大是過擬合。增大樣本數(shù)量會(huì)降低方差,和偏差沒關(guān)系。[單選題]21.解決線性不可分情況下的支持向量分類機(jī)的最優(yōu)化模型問題時(shí),以下可以保證結(jié)果模型線性可分的是A)C=1B)C=0C)C無限制D)以上均不正確答案:C解析:[單選題]22.某公司有這么一個(gè)規(guī)定:只要有一個(gè)員工過生日,當(dāng)天所有員工全部放假一天。但在其余時(shí)候,所有員工都沒有假期,必須正常上班。假設(shè)一年有365天,每個(gè)員工的生日都概率均等地分布在這365天里。那么,這個(gè)公司需要雇用多少員工,才能讓公司一年內(nèi)所有員工的總工作時(shí)間期望值最大?A)1B)122C)183D)365答案:D解析:[單選題]23.以下不屬于數(shù)據(jù)治理工作的主要內(nèi)容的有(__)。A)理解自己的數(shù)據(jù)B)數(shù)據(jù)部門的建立C)有效監(jiān)督與動(dòng)態(tài)優(yōu)化D)崗位工資的定義答案:D解析:[單選題]24.Boosting算法要求基學(xué)習(xí)器能對(duì)特定的數(shù)據(jù)分布進(jìn)行學(xué)習(xí),可通過?____?實(shí)施,對(duì)無法接受帶權(quán)樣本的基學(xué)習(xí)算法,則可通過?____?來處理。A)重賦權(quán)法,B)重采樣法,重賦權(quán)法C)賦權(quán)法,D)采樣法,答案:A解析:[單選題]25.下列算法中屬于圖像平滑處理的是()。A)梯度銳化B)直方圖均衡化C)中值濾波D)Laplacian增強(qiáng)答案:C解析:[單選題]26.Spark可以處理的數(shù)據(jù)任務(wù)包括()A)數(shù)據(jù)批處理任務(wù)B)準(zhǔn)實(shí)時(shí)處理任務(wù)C)圖數(shù)據(jù)處理任務(wù)D)A,B和C答案:D解析:[單選題]27.下面有關(guān)線性判別分析錯(cuò)誤的說法是哪個(gè)()。A)通過對(duì)原始的數(shù)據(jù)進(jìn)行線性變換,使得不同類的樣本盡量分開B)線性判別分析中線性變換可以使同類樣本的方差變大C)線性變換可以使不同類別樣本的距離加大D)提高不同類樣本的可分性答案:B解析:[單選題]28.下列算法中,()更適合做時(shí)間序列建模。A)CNNB)決策樹C)LSTMD)貝葉斯算法答案:C解析:LSTM為長短時(shí)記憶網(wǎng)絡(luò),是一種時(shí)間遞歸神經(jīng)網(wǎng)絡(luò)。[單選題]29.下列圖像邊緣檢測算子中抗噪性能最好的是()。A)梯度算子B)Prewitt算子C)Roberts算子D)Laplacian算子答案:B解析:[單選題]30.下面不屬于數(shù)據(jù)加工的有(__)。A)數(shù)據(jù)脫敏B)數(shù)據(jù)脫質(zhì)C)數(shù)據(jù)規(guī)約D)數(shù)據(jù)標(biāo)注答案:B解析:[單選題]31.用戶有一種感興趣的模式并且希望在數(shù)據(jù)集中找到相似的模式,屬于數(shù)據(jù)挖掘哪一類任務(wù)?A)根據(jù)內(nèi)容檢索B)建模描述C)預(yù)測建模D)尋找模式和規(guī)則答案:A解析:[單選題]32.以下哪些方法不可以直接來對(duì)文本分類?A)K-MeansB)決策樹C)支持向量機(jī)D)kNN答案:A解析:K-Means是無監(jiān)督算法,它之所以不能稱為分類是因?yàn)樗安]有類別標(biāo)簽,因此只能聚類。[單選題]33.可分解為偏差、方差與噪聲之和的是()。A)訓(xùn)練誤差(trainingerror)B)經(jīng)驗(yàn)誤差(empiricalerror)C)均方誤差(meansquarederror)D)泛化誤差(generalizationerror)答案:D解析:泛化誤差可分解為偏差、方差與噪聲之和。[單選題]34.在機(jī)器學(xué)習(xí)中,學(xué)得的模型適用于新樣本的能力稱為()A)分析能力B)泛化能力C)訓(xùn)練能力D)驗(yàn)證能力答案:B解析:[單選題]35.根據(jù)邊的性質(zhì)不同,概率圖模型可大致分為兩類:第一類是使用有向無環(huán)圖表示變量間的依賴關(guān)系,稱為();第二類是使用無向圖表示變量間的相關(guān)關(guān)系,稱為無向圖模型或馬爾可夫網(wǎng)(Markovnetwork)。A)貝葉斯網(wǎng)B)拉普拉斯網(wǎng)C)帕斯卡網(wǎng)D)塞繆爾網(wǎng)答案:A解析:[單選題]36.下列關(guān)于數(shù)據(jù)的說法,不正確的是()A)數(shù)據(jù)的類別有多種多樣B)數(shù)據(jù)庫中的一列代表一個(gè)特征C)一組數(shù)據(jù)平均值不會(huì)受異常值影響D)數(shù)據(jù)點(diǎn)之間的距離滿足d_ij+d_jk≥d_ik答案:C解析:[單選題]37.關(guān)于列表數(shù)據(jù)結(jié)構(gòu),下面描述正確的是()。A)可以不按順序查找元素B)必須按順序插入元素C)不支持in運(yùn)算符D)所有元素類型必須相同答案:A解析:[單選題]38.BP神經(jīng)網(wǎng)絡(luò)模型拓?fù)浣Y(jié)構(gòu)不包括()A)輸入層B)隱層C)翰出層D)顯層答案:D解析:[單選題]39.假設(shè)NumPy數(shù)組A的原來的內(nèi)容是[[0,1,2],[3,4,5]],則命令print(A.max())的執(zhí)行結(jié)果是()。A)3B)5C)7D)9答案:B解析:[單選題]40.兩位同事從上海出發(fā)前往深圳出差,他們在不同時(shí)間出發(fā),搭乘的交通工具也不同,能準(zhǔn)確描述兩者?上海到深圳?距離差別的是()A)歐式距離B)余弦距離C)曼哈頓距離D)切比雪夫距離答案:D解析:①歐幾里得距離計(jì)算公式(n維空間下)二維:dis=sqrt((x1-x2)^2+(y1-y2)^2)三維:dis=sqrt((x1-x2)^2+(y1-y2)^2+(z1-z2)^2)②余弦距離:余弦相似度用向量空間中兩個(gè)向量夾角的余弦值作為衡量兩個(gè)個(gè)體間差異的大小。相比距離度量,余弦相似度更加注重兩個(gè)向量在方向上的差異,而非距離或長度上。公式如下:style="width:auto;"class="fr-ficfr-filfr-dib">③曼哈頓距離:兩個(gè)點(diǎn)在標(biāo)準(zhǔn)坐標(biāo)系上的絕對(duì)軸距總和Dis=abs(x1-x2)+abs(y1-y2)④切比雪夫距離:各坐標(biāo)數(shù)值差的最大值Dis=max(abs(x1-x2),abs(y1-y2))[單選題]41.()不屬于聚類性能度量外部指標(biāo)。A)Jaccard系數(shù)B)FM系數(shù)C)Rand指數(shù)D)DB指數(shù)答案:D解析:聚類常用的外部指標(biāo)包括Jaccard系數(shù)、FM指數(shù)、Rand指數(shù);聚類常用的內(nèi)部指標(biāo)包括DB指數(shù)、Dunn指數(shù)。[單選題]42.(__)是一類用圖來表達(dá)變量相關(guān)關(guān)系的概率模型。A)神經(jīng)元模型B)感知機(jī)模型C)概率圖模型D)SVM答案:C解析:[單選題]43.當(dāng)學(xué)習(xí)器將訓(xùn)練樣本自身的特點(diǎn)作為所有潛在樣本都具有的一般性質(zhì),這樣會(huì)導(dǎo)致泛化性能下降,這種現(xiàn)象稱為()。A)欠擬合B)過擬合C)擬合D)以上答案都不正確答案:B解析:當(dāng)學(xué)習(xí)器把訓(xùn)練樣本學(xué)得太好了的時(shí)候,很可能已經(jīng)把訓(xùn)練樣本自身的一些特點(diǎn)當(dāng)作了所有潛在樣本都會(huì)具有的一般性質(zhì),這樣就會(huì)導(dǎo)致泛化性能下降,這種現(xiàn)象在機(jī)器學(xué)習(xí)中稱為過擬合。[單選題]44.一個(gè)分布式應(yīng)用程序協(xié)調(diào)服務(wù),分布式應(yīng)用程序可以基于它實(shí)現(xiàn)同步服務(wù),配置維護(hù)和命名服務(wù)等的工具有()A)FlumeB)ZookeeperC)StormD)Sparkstreaming答案:B解析:[單選題]45.(__)是根據(jù)數(shù)據(jù)采樣來估計(jì)概率分布參數(shù)的經(jīng)典方法。A)貝葉斯判定準(zhǔn)則B)貝葉斯決策論C)貝葉斯分類器D)極大似然估計(jì)答案:D解析:[單選題]46.Python不支持的數(shù)據(jù)類型有()。A)charB)intC)floatD)list答案:A解析:[單選題]47.(__)訓(xùn)練好之后可以通過一些屬性變量的觀測值來推測其他屬性變量的取值。A)貝葉斯決策B)貝葉斯分類器C)貝葉斯網(wǎng)D)結(jié)構(gòu)答案:C解析:[單選題]48.使用交互式的和可視化的技術(shù),對(duì)數(shù)據(jù)進(jìn)行探索屬于數(shù)據(jù)挖掘的哪一類任務(wù)?A)探索性數(shù)據(jù)分析B)建模描述C)預(yù)測建模D)尋找模式和規(guī)則答案:A解析:[單選題]49.在n維空間中(n>1),下列哪種方法最適合用來檢測異常值?A)正態(tài)概率圖B)箱形圖C)馬氏距離D)散點(diǎn)圖答案:C解析:正態(tài)概率圖(NormalProbabilityPlot)一般用來檢查一組數(shù)據(jù)是否服從正態(tài)分布。是實(shí)數(shù)與正態(tài)分布數(shù)據(jù)之間函數(shù)關(guān)系的散點(diǎn)圖。如果這組實(shí)數(shù)服從正態(tài)分布,正態(tài)概率圖將是一條直線。[單選題]50.因?yàn)槲谋緮?shù)據(jù)在可用的數(shù)據(jù)中是非常無結(jié)構(gòu)的,它內(nèi)部會(huì)包含很多不同類型的噪點(diǎn),所以要做數(shù)據(jù)預(yù)處理。以下不是自然語言數(shù)據(jù)預(yù)處理過程的是:A)詞匯規(guī)范化B)詞匯關(guān)系統(tǒng)一化C)對(duì)象標(biāo)準(zhǔn)化D)噪聲移除答案:B解析:[單選題]51.將兩個(gè)簇的鄰近度定義為不同簇中任意兩點(diǎn)的最短距離,它是哪一種凝聚層次聚類技術(shù)?()A)MIN(單鏈)B)MAX(全鏈)C)組平均D)Ward方法答案:A解析:[單選題]52.假定你使用了一個(gè)很大γ值的RBF核,這意味著:A)模型將考慮使用遠(yuǎn)離超平面的點(diǎn)建模B)模型僅使用接近超平面的點(diǎn)來建模C)模型不會(huì)被點(diǎn)到超平面的距離所影響D)以上都不正確答案:B解析:SVM調(diào)參中的γ衡量距離超平面遠(yuǎn)近的點(diǎn)的影響。對(duì)于較小的γ,模型受到嚴(yán)格約束,會(huì)考慮訓(xùn)練集中的所有點(diǎn),而沒有真正獲取到數(shù)據(jù)的模式、對(duì)于較大的γ,模型能很好地學(xué)習(xí)到模型。[單選題]53.SparkJob默認(rèn)的調(diào)度模式()。A)FIFOB)FAIRC)無D)運(yùn)行時(shí)指定答案:A解析:[單選題]54.關(guān)于數(shù)據(jù)重塑的說法中,下列選項(xiàng)描述錯(cuò)誤的是()。A)數(shù)據(jù)重塑可以將DataFrame轉(zhuǎn)換為SeriesB)stack()方法可以將列索引轉(zhuǎn)換為行索引C)對(duì)一個(gè)DataFrame使用stack()方法后返回的一定是一個(gè)SeriesD)unstack()方法可以將行索引轉(zhuǎn)換為列索引答案:C解析:當(dāng)一個(gè)DataFrame具有層次索引時(shí),使用stack()方法會(huì)返回一個(gè)DataFrame對(duì)象。[單選題]55.以下表的設(shè)計(jì),最合理的是A)學(xué)生{id,name,age},學(xué)科{id,name}分?jǐn)?shù){學(xué)生id,學(xué)科id,分?jǐn)?shù)}B)學(xué)生{id,name,age},分?jǐn)?shù){學(xué)生id,學(xué)科id,學(xué)科name,分?jǐn)?shù)}C)分?jǐn)?shù){學(xué)生id,學(xué)生name,學(xué)生age,學(xué)科id,學(xué)科名稱,分?jǐn)?shù),}D)學(xué)科{id,name},分?jǐn)?shù){學(xué)生id,學(xué)生姓名,學(xué)生age,學(xué)科id,分?jǐn)?shù)}答案:A解析:[單選題]56.以下機(jī)器學(xué)習(xí)中,在數(shù)據(jù)預(yù)處理時(shí),不需要考慮歸一化處理的是:A)logistic回歸B)SVMC)樹形模型D)神經(jīng)網(wǎng)絡(luò)答案:C解析:[單選題]57.下面關(guān)于非監(jiān)督學(xué)習(xí)算法的說法正確的是A)數(shù)據(jù)要是成對(duì)的B)算法準(zhǔn)確率非常高C)沒有經(jīng)驗(yàn)數(shù)據(jù)可供學(xué)習(xí)D)需要一定的經(jīng)驗(yàn)數(shù)據(jù)答案:C解析:[單選題]58.()和假設(shè)檢驗(yàn)又可歸結(jié)為統(tǒng)計(jì)推斷的范疇,即對(duì)總體的數(shù)量特征做出具有一定可靠程度的估計(jì)和判斷。A)參數(shù)估計(jì)B)邏輯分析C)方差分析D)回歸分析答案:A解析:推斷統(tǒng)計(jì)包括參數(shù)估計(jì)和假設(shè)檢驗(yàn)兩方面的內(nèi)容。第2部分:多項(xiàng)選擇題,共21題,每題至少兩個(gè)正確答案,多選或少選均不得分。[多選題]59.大數(shù)據(jù)的主要特征()。A)容量大B)類型多C)存取速度快D)應(yīng)用價(jià)值高答案:ABCD解析:[多選題]60.M-P神經(jīng)元模型描述正確的是A)神經(jīng)元接收多個(gè)其他神經(jīng)元傳遞過來的輸入信號(hào);B)這些輸入信號(hào)通過帶權(quán)重的連接傳遞;C)神經(jīng)元接收到的總輸入值將與神經(jīng)元的閾值進(jìn)行比較;D)通過激活函數(shù)處理產(chǎn)生神經(jīng)元的輸出;答案:ABCD解析:[多選題]61.下列屬于聚類性能度量外部指標(biāo)的是(__)。A)Jaccard系數(shù)B)FM系數(shù)C)Rand指數(shù)D)DB指數(shù)答案:ABC解析:[多選題]62.關(guān)于Zookeeper可用性的說法,正確的有()A)Follower宕機(jī):還有2臺(tái)服務(wù)器提供訪問,因?yàn)閆ookeeper上的數(shù)據(jù)是有多個(gè)副本的,數(shù)據(jù)并不會(huì)丟失B)Leader宕機(jī):Zookeeper會(huì)選舉出新的LeaderC)ZK集群的機(jī)制是只要超過半數(shù)的節(jié)點(diǎn)正常,集群就能正常提供服務(wù)D)Leader宕機(jī):Zookeeper無法使用答案:ABC解析:[多選題]63.關(guān)于k-means聚類,說法正確的是()A)可以在簇完全不發(fā)生任何更新時(shí)停止B)可以設(shè)定簇的最大更新次數(shù)C)k值設(shè)定一般來源于經(jīng)驗(yàn)值和場景設(shè)定D)最佳k值設(shè)定需要多次重復(fù)試驗(yàn)進(jìn)行優(yōu)化。答案:ABCD解析:[多選題]64.關(guān)于ART神經(jīng)網(wǎng)絡(luò)描述的是:-P109A)由比較層、識(shí)別層、識(shí)別閾值和重置模塊構(gòu)成;B)比較層接收輸入樣本并傳輸至識(shí)別層,識(shí)別層每個(gè)神經(jīng)元對(duì)應(yīng)一個(gè)模式類,可在訓(xùn)練過程中動(dòng)態(tài)增長神經(jīng)元數(shù)目以增加新的模式類;C)識(shí)別閾值對(duì)于ART神經(jīng)網(wǎng)絡(luò)性能有重要影響;D)可進(jìn)行增量學(xué)習(xí)或在線學(xué)習(xí);答案:ABCD解析:[多選題]65.常見的決策樹節(jié)點(diǎn)測試的類型有()A)離散值,分裂所有可能B)連續(xù)值,分裂兩種可能C)離散值,分裂兩種可能D)連續(xù)值,分裂兩種以上可能答案:ABC解析:[多選題]66.數(shù)據(jù)科學(xué)項(xiàng)目的基本流程涉及發(fā)活動(dòng)包括(__)和數(shù)據(jù)的管理與獲取、結(jié)果的可視化與文檔化、模式/模型的驗(yàn)證和優(yōu)化。A)模式/模型的應(yīng)用和維護(hù)B)項(xiàng)目目標(biāo)定義C)項(xiàng)目成本控制D)模式/模型的洞見答案:ABD解析:[多選題]67.以下關(guān)于機(jī)器學(xué)習(xí)的發(fā)展歷程描述正確的是(___)。A)機(jī)器學(xué)習(xí)是人工智能研究發(fā)展到一定階段的必然產(chǎn)物B)二十世紀(jì)五十年代到七十年代出,人工智能研究處于?推理期?C)圖靈在1950年關(guān)于圖靈測試的文章中,就曾提到了機(jī)器學(xué)習(xí)的可能D)人工智能在二十世紀(jì)五十到八十年代經(jīng)歷了?推理期?和?知識(shí)期?答案:ABCD解析:[多選題]68.下列關(guān)于PCA的說法,正確的是()。A)在使用PCA之前,我們必須標(biāo)準(zhǔn)化數(shù)據(jù)B)應(yīng)該選擇具有最大方差的主成分C)應(yīng)該選擇具有最小方差的主成分D)可以使用PCA在低維空間中可視化數(shù)據(jù)答案:ABD解析:PCA對(duì)數(shù)據(jù)中變量的尺度非常敏感,因此需要對(duì)各個(gè)變量進(jìn)行標(biāo)準(zhǔn)化。方差越大,說明在該特征上分布越廣泛,說明該特征越有用,影響越大。PCA有時(shí)在較低維度上繪制數(shù)據(jù)是非常有用,可以提取前2個(gè)主要組成部分,在二維平面上使用散點(diǎn)圖可視化數(shù)據(jù)。[多選題]69.在監(jiān)督式學(xué)習(xí)中使用聚類算法的方法有()。A)首先,可以創(chuàng)建聚類,然后分別在不同的集群上應(yīng)用監(jiān)督式學(xué)習(xí)算法B)在應(yīng)用監(jiān)督式學(xué)習(xí)算法之前,可以將其類別ID作為特征空間中的一個(gè)額外的特征C)在應(yīng)用監(jiān)督式學(xué)習(xí)之前,不能創(chuàng)建聚類D)在應(yīng)用監(jiān)督式學(xué)習(xí)算法之前,不能將其類別ID作為特征空間中的一個(gè)額外的特征答案:AB解析:我們可以為不同的集群構(gòu)建獨(dú)立的機(jī)器學(xué)習(xí)模型,并且可以提高預(yù)測精度。將每個(gè)類別的ID作為特征空間中的一個(gè)額外的特征可能會(huì)提高的精度結(jié)果。[多選題]70.深度學(xué)習(xí)中的激活函數(shù)需要具有哪些屬性?()A)計(jì)算簡單B)非線性C)具有飽和區(qū)D)幾乎處處可微答案:ABD解析:[多選題]71.關(guān)聯(lián)規(guī)則的強(qiáng)度可以用它的(__)和(__)來度量。A)準(zhǔn)確率B)支持度C)置信度D)誤差答案:BC解析:[多選題]72.zookeeper常用的命令有哪些A)deleteB)getC)setD)Create答案:ABCD解析:[多選題]73.在正則化公式中,λ為正則化參數(shù),關(guān)于λ的描述正確的是()。A)若正則化參數(shù)λ過大,可能會(huì)導(dǎo)致出現(xiàn)欠擬合現(xiàn)象B)若λ的值太大,則梯度下降可能不收斂C)取一個(gè)合理的λ值,可以更好地應(yīng)用正則化D)如果令λ的值很大的話,為了使CostFunction盡可能的小,所有θ的值(不包括θ0)都會(huì)在一定程度上減小答案:ABCD解析:正則化參數(shù)太小容易產(chǎn)生過擬合,太大容易產(chǎn)生欠擬合。[多選題]74.支持向量機(jī)是一類模型的統(tǒng)稱,通常包括A)線性非可分向量機(jī)B)非線性支持向量機(jī)C)線性支持向量機(jī)D)線性可分支持向量機(jī)答案:BCD解析:[多選題]75.信息熵(InformationEntropy)來度量隨機(jī)變量的不確定性。在使用一個(gè)特征切分?jǐn)?shù)據(jù)集后,可用來量化分類不確定性降低的程度的具體指標(biāo)有?A)信息增益B)信息熵匯總值C)信息增益比D)信息熵累計(jì)值答案:AC解析:第3部分:判斷題,共12題,請判斷題目是否正確。[判斷題]76.CART算法處理回歸問題時(shí),要求算法輸出的是布爾值A(chǔ))正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]77.小批量梯度下降同時(shí)具備批量梯度下降和隨機(jī)梯度下降二者的優(yōu)缺點(diǎn)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]78.在聚類算法中,使用歐氏距離作為距離度量,歐氏距離越小,兩個(gè)數(shù)據(jù)相似度越低A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]79.CART分類樹構(gòu)造算法在選擇切分特征時(shí),選擇使得每一個(gè)特征條件下基尼指數(shù)最大的特征來切分?jǐn)?shù)據(jù)形成子集A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]80.支持向量機(jī)是一種二元分類模型。其核心思想是,訓(xùn)練階段在特征空間中尋找一個(gè)超平面,它能(或盡量能)將訓(xùn)練樣本中的正例和負(fù)例分離在它的兩側(cè),預(yù)測時(shí)以該超平面作為決策邊界判斷輸入實(shí)例的類別。尋找超平面的原則是,在可分離的情況下使超平面與數(shù)據(jù)集間隔最大化。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]81.預(yù)剪枝決策樹通常比后剪枝決策樹保留了更多的分支。A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]82.K-means算法中k個(gè)初始化的質(zhì)心的位置選擇對(duì)最后的聚類結(jié)果和運(yùn)行時(shí)間都有很大的影響,因此需要選擇合適的k個(gè)質(zhì)心A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]83.梯度下降法中梯度方向是函數(shù)值下降最快方向。A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]84.有時(shí)會(huì)由于包含少量特異點(diǎn)使得數(shù)據(jù)集變得線性不可分。如果將特異點(diǎn)去掉,剩余數(shù)據(jù)子集依然是線性可分的。對(duì)于這樣的數(shù)據(jù)集,適合采用軟間隔線性支持向量機(jī)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]85.決策樹的生成是一個(gè)遞歸過程,,在決策樹基本算法中,有三種情形會(huì)導(dǎo)致遞歸返回。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]86.機(jī)器學(xué)習(xí)的含義是指機(jī)器面對(duì)自行為的修正或性能的改善和機(jī)器對(duì)客觀規(guī)律和發(fā)展A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]87.Series和DataFrame都支持切片操作。A)正確B)錯(cuò)誤答案:對(duì)解析:第4部分:問答題,共9題,請?jiān)诳瞻滋幪顚懻_答案。[問答題]88.()就是按照某個(gè)特定標(biāo)準(zhǔn)(如距離準(zhǔn)則)把一個(gè)數(shù)據(jù)集分割成不同的類或簇,使得同一個(gè)簇內(nèi)的數(shù)據(jù)對(duì)象的相似性盡可能大,同時(shí)不在同一個(gè)簇中的數(shù)據(jù)對(duì)象的差異性也盡可能地大答案:聚類解析:[問答題]89.ID3算法,在決策樹生成過程中,以______為特征選擇的準(zhǔn)則。答案:信息增益解析:[問答題]90.AGNES采用了()的聚合策略來產(chǎn)生層次聚類結(jié)構(gòu),DIANA則采用()的分拆策略。答案:自底向上解析:[問答題]91.假設(shè)數(shù)據(jù)挖掘的任務(wù)是將8個(gè)點(diǎn)聚類成3,A1(2,10),A2(2,5),A3(8,4),B1(5,8),B2(7,5),B3(6,4),C1(1,2),C3(4,9),距離函數(shù)是歐幾里得距離。假設(shè)初始選擇A1,B1,C1分別作為每個(gè)聚類的中心,用k-平均算法來給出:1.第一次循環(huán)執(zhí)行后的三個(gè)聚類中心;2.最后的三個(gè)簇答案:1.第一輪A1(2,10);B1(5,8),A3(8,4),

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論