【MOOC期末】《數(shù)據(jù)倉庫與數(shù)據(jù)挖掘》(北京理工大學(xué))期末測試中國大學(xué)慕課答案_第1頁
【MOOC期末】《數(shù)據(jù)倉庫與數(shù)據(jù)挖掘》(北京理工大學(xué))期末測試中國大學(xué)慕課答案_第2頁
【MOOC期末】《數(shù)據(jù)倉庫與數(shù)據(jù)挖掘》(北京理工大學(xué))期末測試中國大學(xué)慕課答案_第3頁
【MOOC期末】《數(shù)據(jù)倉庫與數(shù)據(jù)挖掘》(北京理工大學(xué))期末測試中國大學(xué)慕課答案_第4頁
【MOOC期末】《數(shù)據(jù)倉庫與數(shù)據(jù)挖掘》(北京理工大學(xué))期末測試中國大學(xué)慕課答案_第5頁
免費(fèi)預(yù)覽已結(jié)束,剩余4頁可下載查看

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

【MOOC期末】《數(shù)據(jù)倉庫與數(shù)據(jù)挖掘》(北京理工大學(xué))期末測試中國大學(xué)慕課答案

有些題目順序不一致,下載后按鍵盤ctrl+F進(jìn)行搜索數(shù)據(jù)倉庫與數(shù)據(jù)挖掘期末1.單選題:關(guān)于K均值和DBSCAN的比較,以下說法不正確的是()。

選項(xiàng):

A、K均值丟棄被它識別為噪聲的對象,而DBSCAN一般聚類所有對象。

B、K均值使用簇的基于原型的概念,而DBSCAN使用基于密度的概念。

C、K均值很難處理非球形的簇和不同大小的簇,DBSCAN可以處理不同大小和不同形狀的簇。

D、K均值可以發(fā)現(xiàn)不是明顯分離的簇,即便簇有重疊也可以發(fā)現(xiàn),但是DBSCAN會合并有重疊的簇。

答案:【K均值丟棄被它識別為噪聲的對象,而DBSCAN一般聚類所有對象?!?.單選題:以下哪些算法是分類算法

選項(xiàng):

A、DBSCAN

B、C4.5

C、K-Mean

D、EM

答案:【C4.5】3.單選題:下面購物籃能夠提取的3-項(xiàng)集的最大數(shù)量是多少()ID購買項(xiàng)1牛奶,啤酒,尿布2面包,黃油,牛奶3牛奶,尿布,餅干4面包,黃油,餅干5啤酒,餅干,尿布6牛奶,尿布,面包,黃油7面包,黃油,尿布8啤酒,尿布9牛奶,尿布,面包,黃油10啤酒,餅干

選項(xiàng):

A、1

B、2

C、3

D、4

答案:【3】4.單選題:檢測一元正態(tài)分布中的離群點(diǎn),屬于異常檢測中的基于()的離群點(diǎn)檢測。

選項(xiàng):

A、統(tǒng)計(jì)方法

B、鄰近度

C、密度

D、聚類技術(shù)

答案:【統(tǒng)計(jì)方法】5.單選題:以下不屬于異常的是()

選項(xiàng):

A、噪聲

B、全局離群點(diǎn)

C、情境離群點(diǎn)

D、群體異常

答案:【噪聲】6.單選題:通過聚集多個(gè)分類器的預(yù)測來提高分類準(zhǔn)確率的技術(shù)稱為()

選項(xiàng):

A、集成(ensemble)

B、聚集(aggregate)

C、合并(combination)

D、投票(voting)

答案:【集成(ensemble)】7.單選題:以下哪項(xiàng)關(guān)于決策樹的說法是錯(cuò)誤的()

選項(xiàng):

A、冗余屬性不會對決策樹的準(zhǔn)確率造成不利的影響

B、子樹可能在決策樹中重復(fù)多次

C、決策樹算法對于噪聲的干擾非常敏感

D、尋找最佳決策樹是NP完全問題

答案:【決策樹算法對于噪聲的干擾非常敏感】8.單選題:假定你現(xiàn)在訓(xùn)練了一個(gè)線性SVM并推斷出這個(gè)模型出現(xiàn)了欠擬合現(xiàn)象。在下一次訓(xùn)練時(shí),應(yīng)該采取下列什么措施?()

選項(xiàng):

A、增加數(shù)據(jù)點(diǎn)

B、減少數(shù)據(jù)點(diǎn)

C、增加特征

D、減少特征

答案:【增加特征】9.單選題:下面哪一項(xiàng)關(guān)于CART的說法是錯(cuò)誤的()

選項(xiàng):

A、分類回歸樹CART是一種典型的二叉決策樹。

B、CART輸出變量只能是離散型。

C、CART用“成本復(fù)雜性”標(biāo)準(zhǔn)(cost-complexitypruning)來剪枝。

D、CART使用的分裂準(zhǔn)則是Gini系數(shù)。

答案:【CART輸出變量只能是離散型?!?0.單選題:()將兩個(gè)簇的鄰近度定義為兩個(gè)簇合并時(shí)導(dǎo)致的平方誤差的增量,它是一種凝聚層次聚類技術(shù)。

選項(xiàng):

A、MIN(單鏈)

B、MAX(全鏈)

C、組平均

D、Ward方法

答案:【W(wǎng)ard方法】11.單選題:()將兩個(gè)簇的鄰近度定義為不同簇的所有點(diǎn)對的平均逐對鄰近度,它是一種凝聚層次聚類技術(shù)。

選項(xiàng):

A、MIN(單鏈)

B、MAX(全鏈)

C、組平均

D、Ward方法

答案:【組平均】12.單選題:()是一個(gè)觀測值,它與其他觀測值的差別如此之大,以至于懷疑它是由不同的機(jī)制產(chǎn)生的。

選項(xiàng):

A、邊界點(diǎn)

B、質(zhì)心

C、離群點(diǎn)

D、核心點(diǎn)

答案:【離群點(diǎn)】13.單選題:在基本K均值算法里,當(dāng)鄰近度函數(shù)采用()的時(shí)候,合適的質(zhì)心是簇中各點(diǎn)的中位數(shù)。

選項(xiàng):

A、曼哈頓距離

B、平方歐幾里德距離

C、余弦距離

D、Bregman散度

答案:【曼哈頓距離】14.單選題:在訓(xùn)練分類器時(shí)出現(xiàn)了欠擬合現(xiàn)象。在下一次訓(xùn)練時(shí),應(yīng)該采取什么措施?()

選項(xiàng):

A、增加數(shù)據(jù)點(diǎn)

B、減少數(shù)據(jù)點(diǎn)

C、增加特征

D、減少特征

答案:【增加特征】15.單選題:以下哪些算法是基于規(guī)則的分類器()

選項(xiàng):

A、C4.5

B、KNN

C、NaiveBayes

D、ANN

答案:【C4.5】16.單選題:以下()屬于無參數(shù)的異常檢測方法

選項(xiàng):

A、卡方檢驗(yàn)

B、最大標(biāo)準(zhǔn)殘差檢驗(yàn)Grubb’sTest

C、直方圖

D、3σ原則

答案:【直方圖】17.單選題:以下哪項(xiàng)關(guān)于決策樹的說法是錯(cuò)誤的()

選項(xiàng):

A、冗余屬性不會對決策樹的準(zhǔn)確率造成不利的影響

B、子樹可能在決策樹中重復(fù)多次

C、決策樹算法對于噪聲的干擾非常敏感

D、尋找最佳決策樹是NP完全問題

答案:【決策樹算法對于噪聲的干擾非常敏感】18.單選題:下面不屬于數(shù)據(jù)集特征的是:()

選項(xiàng):

A、連續(xù)性

B、維度

C、稀疏性

D、分辨率

答案:【連續(xù)性】19.單選題:屬性Hair_color={auburn,black,blond,brown,grey,red,white},該屬性屬于()類型

選項(xiàng):

A、標(biāo)稱

B、二分

C、序數(shù)

D、數(shù)值

答案:【標(biāo)稱】20.單選題:將原始數(shù)據(jù)進(jìn)行集成、變換、維度規(guī)約、數(shù)值規(guī)約是在以下哪個(gè)步驟的任務(wù)?

選項(xiàng):

A、頻繁模式挖掘

B、分類和預(yù)測

C、數(shù)據(jù)預(yù)處理

D、數(shù)據(jù)流挖掘

答案:【數(shù)據(jù)預(yù)處理】21.單選題:以下兩種描述分別對應(yīng)哪兩種對分類算法的評價(jià)標(biāo)準(zhǔn)?(a)警察抓小偷,描述警察抓的人中有多少個(gè)是小偷的標(biāo)準(zhǔn)。(b)描述有多少比例的小偷給警察抓了的標(biāo)準(zhǔn)。

選項(xiàng):

A、Precision,Recall

B、Recall,Precision

C、Precision,ROC

D、Recall,ROC

答案:【Precision,Recall】22.單選題:某超市研究銷售紀(jì)錄數(shù)據(jù)后發(fā)現(xiàn),買啤酒的人很大概率也會購買尿布,這種屬于數(shù)據(jù)挖掘的哪類問題?

選項(xiàng):

A、關(guān)聯(lián)規(guī)則發(fā)現(xiàn)

B、聚類

C、分類

D、自然語言處理

答案:【關(guān)聯(lián)規(guī)則發(fā)現(xiàn)】23.單選題:以下哪種方法不是常用的數(shù)據(jù)約減方法()

選項(xiàng):

A、抽樣

B、回歸

C、聚類

D、關(guān)聯(lián)規(guī)則挖掘

答案:【關(guān)聯(lián)規(guī)則挖掘】24.單選題:假設(shè)12個(gè)銷售價(jià)格記錄組已經(jīng)排序如下:5,10,11,13,15,35,50,55,72,92,204,215使用如下每種方法將它們劃分成四個(gè)箱。等頻(等深)劃分時(shí),15在第幾個(gè)箱子內(nèi)?()

選項(xiàng):

A、第一個(gè)

B、第二個(gè)

C、第三個(gè)

D、第四個(gè)

答案:【第二個(gè)】25.單選題:考慮下面的頻繁3-項(xiàng)集的集合:{1,2,3},{1,2,4},{1,2,5},{1,3,4},{1,3,5},{2,3,4},{2,3,5},{3,4,5}假定數(shù)據(jù)集中只有5個(gè)項(xiàng),采用合并策略,由候選產(chǎn)生過程得到4-項(xiàng)集不包含()

選項(xiàng):

A、1,2,3,4

B、1,2,3,5

C、1,2,4,5

D、1,3,4,5

答案:【1,2,4,5】26.單選題:設(shè)X={1,2,3}是頻繁項(xiàng)集,則可由X產(chǎn)生__()__個(gè)關(guān)聯(lián)規(guī)則。

選項(xiàng):

A、4

B、5

C、6

D、7

答案:【6】27.單選題:一所大學(xué)內(nèi)的各年紀(jì)人數(shù)分別為:一年級200人,二年級160人,三年級130人,四年級110人。則年級屬性的眾數(shù)是:()

選項(xiàng):

A、一年級

B、二年級

C、三年級

D、四年級

答案:【一年級】28.單選題:假設(shè)屬性income的最大最小值分別是12000元和98000元。利用最大最小規(guī)范化的方法將屬性的值映射到0至1的范圍內(nèi)。對屬性income的73600元將被轉(zhuǎn)化為:()

選項(xiàng):

A、0.821

B、1.224

C、1.458

D、0.716

答案:【0.716】29.單選題:只有非零值才重要的二元屬性被稱作:()

選項(xiàng):

A、計(jì)數(shù)屬性

B、離散屬性

C、非對稱的二元屬性

D、對稱屬性

答案:【非對稱的二元屬性】30.單選題:當(dāng)不知道數(shù)據(jù)所帶標(biāo)簽時(shí),可以使用哪種技術(shù)促使帶同類標(biāo)簽的數(shù)據(jù)與帶其他標(biāo)簽的數(shù)據(jù)相分離?()

選項(xiàng):

A、分類

B、聚類

C、關(guān)聯(lián)分析

D、隱馬爾可夫鏈

答案:【聚類】31.CART采用Gini指數(shù)來度量分裂時(shí)的不純度。_____越大,樣本集合的不確定性程度越高。

答案:【gini指數(shù)/Gini指數(shù)/GINI指數(shù)/基尼指數(shù)】32.C4.5算法采用基于_____作為選擇分裂屬性的度量標(biāo)準(zhǔn)。

答案:【信息增益率】33.考慮值集{12243324556826},其四分位數(shù)極差是:____

答案:【31】34.使用DBSCAN進(jìn)行異常點(diǎn)檢測時(shí),異常點(diǎn)被定義為________的數(shù)據(jù)對象。

答案:【不屬于任何簇】35.KNN算法是一種典型的______學(xué)習(xí)器

答案:【消極】36.數(shù)據(jù)挖掘任務(wù)主要包括描述性和_____任務(wù)。

答案:【預(yù)測性】37.從數(shù)據(jù)倉庫的角度可以將數(shù)據(jù)挖掘過程劃分為_______、數(shù)據(jù)集成、數(shù)據(jù)選擇與變換、數(shù)據(jù)挖掘及知識評估等階段。

答案:【數(shù)據(jù)清理/數(shù)據(jù)清洗】38.數(shù)據(jù)挖掘是從大量數(shù)據(jù)中挖掘重要、隱含的、以前未知、______的模式或知識。

答案:【潛在有用】39.局部異常因子計(jì)算中,樣本p的第k鄰域內(nèi)點(diǎn)到p的平均可達(dá)距離的倒數(shù)成為樣本p的____

答案:【局部可達(dá)密度】40.DBSCAN算法時(shí)間復(fù)雜性O(shè)(__)

答案:【n2】41.關(guān)聯(lián)規(guī)則挖掘問題可以劃分成兩個(gè)子問題:發(fā)現(xiàn)頻繁項(xiàng)目集和生成______。

答案:【關(guān)聯(lián)規(guī)則】42.大于或等于min-support的非空子集,稱為____。

答案:【頻繁項(xiàng)目集】43.異常點(diǎn)類型包括全局異常、上下文異常和______

答案:【群體異常】44.聚類中不屬于任何簇的數(shù)據(jù)對象可以被認(rèn)為是_____

答案:【異常點(diǎn)/離群點(diǎn)】45.通過數(shù)據(jù)集成可以維護(hù)數(shù)據(jù)源整體上的數(shù)據(jù)______

答案:【一致性】46.樣本p的局部異常因子值接近____,說明p與其鄰域點(diǎn)密度差不多,p可能和鄰域點(diǎn)屬于同一簇。

答案:【1】47.通過離散化操作可以將連續(xù)屬性轉(zhuǎn)化為____屬性

答案:【序數(shù)】48.數(shù)據(jù)集的屬性可以劃分為_

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論