智慧樹知道網(wǎng)課《數(shù)據(jù)挖掘》課后章節(jié)測試滿分答案_第1頁
智慧樹知道網(wǎng)課《數(shù)據(jù)挖掘》課后章節(jié)測試滿分答案_第2頁
智慧樹知道網(wǎng)課《數(shù)據(jù)挖掘》課后章節(jié)測試滿分答案_第3頁
智慧樹知道網(wǎng)課《數(shù)據(jù)挖掘》課后章節(jié)測試滿分答案_第4頁
智慧樹知道網(wǎng)課《數(shù)據(jù)挖掘》課后章節(jié)測試滿分答案_第5頁
已閱讀5頁,還剩12頁未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

第一章測試

1

【單選題】(20分)

什么是KDD?

「A.

C.文檔知識發(fā)現(xiàn)

1B.

A.數(shù)據(jù)挖掘與知識發(fā)現(xiàn)

「c.

D.動(dòng)態(tài)知識發(fā)現(xiàn)

,D.

B.領(lǐng)域知識發(fā)現(xiàn)

參考答案

B

2

【判斷題】(20分)

數(shù)據(jù)挖掘的主要任務(wù)是從數(shù)據(jù)中發(fā)現(xiàn)潛在的規(guī)則,從而能更好的完成描述數(shù)據(jù)、預(yù)測數(shù)

據(jù)等任務(wù)。

「A.

錯(cuò)

1B.

參考答案

B

3

【多選題】(20分)

數(shù)據(jù)挖掘的預(yù)測建模任務(wù)主要包括哪幾大類問題?

rA.

分類

rB.

模式匹配

廠c.

模式發(fā)現(xiàn)

rD.

回歸

參考答案

AD

4

【多選題】(20分)

以下哪些學(xué)科和數(shù)據(jù)挖掘有密切聯(lián)系?

rA.

人工智能

rB.

計(jì)算機(jī)組成原理

rc.

礦產(chǎn)挖掘

rD.

統(tǒng)計(jì)

參考答案

AD

5

【判斷題】(20分)

離群點(diǎn)可以是合法的數(shù)據(jù)對象或者值。

A.

錯(cuò)

B.

參考答案

B

第二章測試

1

【單選題】(20分)

下面哪個(gè)屬于定量的屬性類型:

'A.

區(qū)間

「B.

序數(shù)

「C.

標(biāo)稱

「D.

相異

參考答案

A

2

【單選題】(20分)

只有非零值才重要的二元屬性被稱作:

CA.

非對稱的:元屬性

'B.

離散屬性

rC.

對稱屬性

「D.

計(jì)數(shù)屬性

參考答案

A

3

【判斷題】(20分)

定量屬性可以是整數(shù)值或者是連續(xù)值。

「A.

「B.

錯(cuò)

參考答案

A

4

【單選題】(20分)

中心趨勢度量模(mode)是指

「A.

數(shù)據(jù)集中出現(xiàn)頻率展高的值

「B.

算術(shù)平均值

「C.

最大值

D.

最小值

參考答案

A

5

【多選題】(20分)

以下哪些是屬于中心趨勢的度量

廠A.

標(biāo)準(zhǔn)差

rB.

中位數(shù)

rc.

五數(shù)概括

rD.

平均值

參考答案

BD

第三章測試

1

【單選題】(20分)

數(shù)據(jù)清洗的方法不包括

「A.

一致性檢查

'B.

缺失值處理

rC.

噪聲數(shù)據(jù)清除

「D.

重復(fù)數(shù)據(jù)記錄處理

參考答案

D

2

【單選題】(20分)

對數(shù)據(jù)進(jìn)行數(shù)據(jù)清理、集成、變換、規(guī)約是數(shù)據(jù)挖掘哪個(gè)步驟的任務(wù)?

CA.

分類和預(yù)測

「B.

噪聲檢測

CC.

頻繁模式挖掘

「D.

數(shù)據(jù)預(yù)處理

參考答案

D

3

【單選題】(20分)

以下哪項(xiàng)不屬于數(shù)據(jù)規(guī)約的方法?

'A.

數(shù)據(jù)壓縮

CB.

維規(guī)約

「C.

數(shù)值規(guī)約

「D.

數(shù)據(jù)遷移

參考答案

D

4

【單選題】(20分)

大數(shù)據(jù)預(yù)處理的方法不包含以下哪個(gè)選項(xiàng)?

「A.

數(shù)據(jù)變換

CB.

數(shù)據(jù)清洗

rC.

數(shù)據(jù)采集

CD.

數(shù)據(jù)規(guī)約

參考答案

C

5

【判斷題】(20分)

在噪聲數(shù)據(jù)中,波動(dòng)數(shù)據(jù)比離群點(diǎn)數(shù)據(jù)偏離整體水平更大。

「A.

「B.

錯(cuò)

參考答案

B

第四章測試

1

【單選題】(20分)

某超市研究銷售紀(jì)錄數(shù)據(jù)后發(fā)現(xiàn),買啤酒的人很大概率也會(huì)購買尿布,這種屬于數(shù)據(jù)挖

掘的哪類問題?

CA.

關(guān)聯(lián)規(guī)則發(fā)現(xiàn)

「B.

自然語言處理

「C.

聚類

「D.

分類

參考答案

A

2

【判斷題】(20分)

關(guān)聯(lián)規(guī)則挖掘過程是發(fā)現(xiàn)滿足最小支持度的所有項(xiàng)集代表的規(guī)則。

A.

錯(cuò)

1B.

參考答案

A

3

【判斷題】(20分)

具有較高的支持度的項(xiàng)集具有較高的置信度。

「A.

錯(cuò)

「B.

參考答案

A

4

【判斷題】(20分)

給定關(guān)聯(lián)規(guī)則A>B,意味著;若人發(fā)生,B也會(huì)發(fā)生。

CA.

「B.

錯(cuò)

參考答案

B

【判斷題】(20分)

啤酒與尿布的故事是聚類分析的典型實(shí)例。

'A.

「B.

錯(cuò)

參考答案

B

第五章測試

1

【判斷題】(25分)

分類和回歸都可用于預(yù)測,分類的輸出是離散的類別值,而回歸的輸出是連續(xù)數(shù)值。

,A.

「B.

錯(cuò)

參考答案

A

2

【判斷題】(25分)

決策樹方法通常用于關(guān)聯(lián)規(guī)則挖掘。

「A.

B.

錯(cuò)

參考答案

B

3

【判斷題】(25分)

在決策樹中,隨著樹中結(jié)點(diǎn)數(shù)變得太大,即使模型的訓(xùn)練誤差還在繼續(xù)減低,但是檢驗(yàn)

誤差開始增大,這是出現(xiàn)了模型擬合不足的問題。

「A.

錯(cuò)

「B.

參考答案

A

4

【判斷題】(25分)

對于SVM分類算法,待分樣本集中的大部分樣本不是支持向量,移去或者減少這些樣本

對分類結(jié)果沒有影響。

「A.

「B.

錯(cuò)

參考答案

A

5

【單選題】(10分)

下面哪種分類方法是屬于統(tǒng)計(jì)學(xué)的分類方法?

「A.

貝葉斯分類

'B.

判定樹歸納

rC.

基于案例的推理

「D.

后向傳播分類

參考答案

A

第六章測試

1

【判斷題】(20分)

基于劃分方法的聚類都是基于距離來判斷數(shù)據(jù)對象相似度的

,A.

「B.

參考答案

A

2

【判斷題】(20分)

K-Means聚類過程中計(jì)算出的“質(zhì)心”點(diǎn)是虛擬的。

「A.

B.

參考答案

B

3

【判斷題】(20分)

DBSCAN聚類和K-Medians聚類都需要預(yù)先指定聚類的簇的數(shù)目

CA.

CB.

錯(cuò)

參考答案

B

4

【多選題】(20分)

下列屬于層次聚類方法的是

rA.

K-Means

rB.

DBSCAN

rc.

AGNES

rD.

DIANA

參考答案

CD

5

【單選題】(20分)

衡量離群點(diǎn)的離群因子,計(jì)算的是

「A.

簇間距離的加權(quán)平均值

「B.

平均絕對偏差

「C.

簇間距離

「D.

輪廓系數(shù)

參考答案

A

第七章測試

1

【單選題】(20分)

神經(jīng)元節(jié)點(diǎn)計(jì)算什么()

「A.

神經(jīng)元節(jié)點(diǎn)先計(jì)算線性函數(shù)(z=Wx+b),再計(jì)算激活

「B.

神經(jīng)元節(jié)點(diǎn)先計(jì)算激活函數(shù),再計(jì)算線性函數(shù)(z=Wx+b)

「C.

神經(jīng)元節(jié)點(diǎn)計(jì)算函數(shù)g,函數(shù)g計(jì)算(Wx+b)

CD.

在將輸出應(yīng)用于激活函數(shù)之前,神經(jīng)元節(jié)點(diǎn)計(jì)算所有特征的平均值

參考答案

A

2

【單選題】(20分)

在一個(gè)神經(jīng)網(wǎng)絡(luò)里,知道每一個(gè)神經(jīng)元的權(quán)重和偏差是最重要的一步。如果以某種方法

知道了神經(jīng)元準(zhǔn)確的權(quán)重和偏差,你就可以近似任何函數(shù)。實(shí)現(xiàn)這個(gè)最佳的辦法是什么?

CA.

賦予一個(gè)初始值,通過檢查跟最佳值的差值,然后迭代更新權(quán)重

「B.

隨機(jī)賦值,析禱它們是正確的

「C.

都不正確

「D.

搜索所有權(quán)重和偏差的組合,直到得到最佳值

參考答案

A

3

【單選題】(20分)

梯度下降算法的正確步驟是H么?

1.計(jì)算預(yù)測值和真實(shí)值之間的誤差

2.迭代跟新,直到找到最佳權(quán)重

3.把輸入傳入網(wǎng)絡(luò),得到輸出值

4.初始化隨機(jī)權(quán)重和偏差

5.對每一個(gè)產(chǎn)生誤差的神經(jīng)元,改變相應(yīng)的(權(quán)重)值以減小誤差

「A.

3,2,1,5,4

B.

1.2,3,4,5

4,3,1,5,2

「D.

5,4,3,2,1

參考答案

c

4

【單選題】(20分)

以下什么情況下神經(jīng)網(wǎng)絡(luò)模型被稱為深度學(xué)習(xí)模型?

「A.

當(dāng)這是一個(gè)圖形

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論