數(shù)據(jù)挖掘智慧樹知到期末考試答案章節(jié)答案2024年青島大學_第1頁
數(shù)據(jù)挖掘智慧樹知到期末考試答案章節(jié)答案2024年青島大學_第2頁
數(shù)據(jù)挖掘智慧樹知到期末考試答案章節(jié)答案2024年青島大學_第3頁
免費預覽已結(jié)束,剩余4頁可下載查看

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權,請進行舉報或認領

文檔簡介

數(shù)據(jù)挖掘智慧樹知到期末考試答案+章節(jié)答案2024年青島大學k-means算法對同一個數(shù)據(jù)集,如果初始中心選擇不同,其聚類結(jié)果也可能不一樣。()

答案:對一個頻繁閉合項目集的所有閉合子集一定是頻繁的。()

答案:對FP-Growth算法將提供頻繁項集的數(shù)據(jù)集壓縮到一棵頻繁模式樹上,但仍保留項集的關聯(lián)信息,通過不斷地迭代FP-tree的構(gòu)造和投影過程來發(fā)現(xiàn)頻繁模式。()

答案:對即使是同一個數(shù)據(jù)集,如果k選擇不同,k-means算法聚類結(jié)果可能完全不一樣。()

答案:對給定全局項集I和交易數(shù)據(jù)集D,對于I的非空項集I1,若其支持度小于或等于最小支持度閾值,則稱I1為頻繁項集。()

答案:錯密度聚類算法中,若Y為噪聲點,則只要讓ε足夠大,或適當減小MinPts,就可以使Y不再是噪聲點。()

答案:對聚類發(fā)現(xiàn)的離群點一定沒有用處。()

答案:錯聚類分析是有監(jiān)督的學習過程。()

答案:錯所謂閉項集,就是指一個項集X,它所有超集的支持度計數(shù)都小于它本身的支持度計數(shù)。()

答案:對噪聲和離群點給聚類過程帶來的影響之一,是會產(chǎn)生空簇。()

答案:對AprioriSome算法可以看作是AprioriAll算法的改進,具體過程分為兩個階段:()。

答案:前推階段###回溯階段數(shù)據(jù)不一致性的成因:()。

答案:不同的數(shù)據(jù)源###違反了函數(shù)依賴性CF樹存儲了層次聚類的簇的特征,有三個參數(shù):()。

答案:枝平衡因子β###葉平衡因子λ###空間閾值τ數(shù)據(jù)預處理(DataPreprocessing)是指:為達到挖掘算法進行知識獲取研究所要求的最低規(guī)范和標準,在對數(shù)據(jù)進行數(shù)據(jù)挖掘的主要處理以前,先對原始數(shù)據(jù)進行必要的一系列的處理工作,具體包括()。

答案:離散###集成###歸約###清理###轉(zhuǎn)換經(jīng)典的規(guī)則歸納算法有()。

答案:FOIL###AQ###CN2KDD是一個多步驟的處理過程,一般分為哪些階段()。

答案:數(shù)據(jù)抽取###數(shù)據(jù)預處理###模式評估###問題定義###數(shù)據(jù)挖掘PAM算法的優(yōu)點為()。

答案:消除了k-平均算法對于孤立點的敏感性,方法更加健壯。###對小的數(shù)據(jù)集非常有效GSP算法中產(chǎn)生候選序列模式主要分兩步()。

答案:連接階段###剪枝階段統(tǒng)計學中常用的預測方法是()。

答案:回歸聚類特征CF有個特性,即可以()。

答案:求和BIRCH算法的核心()。

答案:聚類特征k-means算法中,簇中心不再發(fā)生變化就等價于簇內(nèi)差異函數(shù)w(C)的值達到()。

答案:最小下列哪個算法屬于基于劃分的聚類算法?()。

答案:K-means大數(shù)據(jù)的特征有()。

答案:Variety###Volume###Value###Velocity數(shù)據(jù)挖掘是在沒有明確假設的前提下去挖掘信息、發(fā)現(xiàn)知識。()

答案:對同時滿足最小支持度閾值和最小置信度閾值的關聯(lián)規(guī)則稱為強關聯(lián)規(guī)則,是有意義有價值的。()

答案:對AGNES算法僅可用于規(guī)模相對較小的數(shù)據(jù)集。()

答案:對CF樹是一棵高度平衡樹,用來存儲層次聚類的聚類特征。()

答案:對凝聚的層次聚類算法是一種自底向上的策略,初始時先將每個對象作為一個簇,然后合并這些原子簇為越來越大的簇,直到某個終結(jié)條件被滿足。()

答案:對學習階段的任務是挖掘分類規(guī)則。()

答案:對k-prototype算法可以對離散與數(shù)值屬性兩種混合的數(shù)據(jù)進行聚類。()

答案:對可以把數(shù)據(jù)分析分為以下4個層次:數(shù)據(jù)統(tǒng)計,OLAP,數(shù)據(jù)挖掘,大數(shù)據(jù)。()

答案:對DBSCAN算法對噪聲和離群點非常敏感。()

答案:對數(shù)據(jù)挖掘?qū)崿F(xiàn)了用其他方法不可能實現(xiàn)的方法來發(fā)現(xiàn)信息,但它必須受到規(guī)范,應當在適當?shù)恼f明下使用。()

答案:對CF樹的構(gòu)造過程實際上是一個數(shù)據(jù)對象的插入過程。()

答案:對k-modes算法實現(xiàn)了對離散數(shù)據(jù)的快速聚類。()

答案:對DBSCAN算法是一種部分聚類算法,即聚類中所有簇的并集不一定能覆蓋數(shù)據(jù)集的全部。()

答案:對分裂的層次聚類算法采用自頂向下的策略,它首先將所有對象置于一個簇中,然后逐漸細分為越來越小的簇,直到達到了某個終結(jié)條件。()

答案:對分類屬于一種無指導的學習方法。()

答案:錯數(shù)據(jù)挖掘的對象可以是任何類型的數(shù)據(jù)源。()

答案:對數(shù)據(jù)挖掘是一種決策支持過程。()

答案:對OLAP就是數(shù)據(jù)挖掘。()

答案:錯數(shù)據(jù)挖掘技術可以應用于大數(shù)據(jù)分析。()

答案:對數(shù)據(jù)挖掘的任務有關聯(lián)分析、聚類分析、分類分析、異常分析、特異群組分析和演變分析等。()

答案:對基本的Apriori算法產(chǎn)生頻繁項集的過程主要分為()。

答案:連接步###剪枝步KNN算法的優(yōu)缺點()。

答案:KNN對于樣本不均衡的數(shù)據(jù)效果不好,需要進行改進###K值的選取非常重要###KNN算法是最簡單有效的分類算法,且容易實現(xiàn)###KNN對于隨機分布的數(shù)據(jù)集分類效果較差,對于類內(nèi)間距小,類間間距大的數(shù)據(jù)集分類效果好,而且對于邊界不規(guī)則的數(shù)據(jù)效果較好。數(shù)據(jù)歸約的策略有()。

答案:數(shù)據(jù)壓縮###數(shù)據(jù)立方體聚集###維歸約###數(shù)值歸約多維數(shù)據(jù)模型最典型的數(shù)據(jù)模式包括()。

答案:星型模式###事實星座模式###雪花模式從宏觀上看,數(shù)據(jù)挖掘過程主要由三個部分組成,即()。

答案:數(shù)據(jù)挖掘###數(shù)據(jù)整理###結(jié)果的解釋評估k-means的改進算法在使用時,還存在如下問題:()

答案:k-prototype中權重a的確立###k條初始記錄的選取###K值的確立壓縮算法分為()。

答案:有損壓縮###無損壓縮關聯(lián)規(guī)則挖掘算法有()。

答案:Close###FP-Growth###Apriori規(guī)范化常用的方法有()。

答案:z-score規(guī)范化###最小-最大規(guī)范化###小數(shù)定標規(guī)范化為了提高Apriori算法的效率,研究人員們提出了一系列的改進算法,這些算法中主要采用的改進方法有:()。

答案:采樣###使用分割技術###動態(tài)項集計數(shù)###基于Hash的項集計數(shù)###減少交易記錄存放數(shù)據(jù)歸約表示的無參方法包括()。

答案:聚類###直方圖###取樣決策樹分類模型的建立通常分為哪些步驟()。

答案:決策樹修剪###決策樹生成分類器的構(gòu)造方法有()。

答案:神經(jīng)網(wǎng)絡方法###機器學習方法###粗糙集###統(tǒng)計方法BIRCH算法的主要優(yōu)點有()。

答案:可以識別噪音數(shù)據(jù)###聚類速度快###節(jié)約內(nèi)存決策樹的剪枝策略有:()。

答案:后剪枝###預先剪枝BIRCH算法的主要缺點有()。

答案:BIRCH算法在整個過程中一旦中斷,一切必須從頭再來###聚類的結(jié)果可能和真實的類別分布不同###對高維特征的數(shù)據(jù)聚類效果不好貝葉斯分類方法都有:()。

答案:NBC###BAN###GBN###TAN時間序列合適的建模方法有:()。

答案:一元時間序列###序列的分布規(guī)律###離散型時間序列###連續(xù)型時間序列###多元時間序列下列哪個算法不屬于基于劃分的聚類算法?()。

答案:Agnes###BIRCH###CUREk-means算法中,每個簇由()

答案:簇的中心點來表示下列哪個算法屬于密度聚類算法?()。

答案:DBSCAN下列哪個算法屬于K中心點算法?()。

答案:PAMk-means算法在實際計算中可能會出現(xiàn)空簇的主要原因是()。

答案:存在離群點關聯(lián)規(guī)則挖掘算法最為著名的是Agrawal等人提出的:()

答案:Apriori人臉識別中的主要技術就是來自于數(shù)據(jù)挖掘中的()。

答案:分類算法如果某天共有1000個顧客到商場購買物品,其中有100個顧客同時購買了鐵錘和鐵釘,那么上述的關聯(lián)規(guī)則的支持度就是()

答案:10%如果購買鐵錘的顧客中有70%的人購買了鐵釘,那么置信度是()。

答案:70%FPGrowth的算法只進行幾次數(shù)據(jù)集掃描,就可以找出所有的頻繁項集。()。

答案:2BIRCH算法中使用什么結(jié)構(gòu)來幫助我們快速的聚類,()。

答案:樹型結(jié)構(gòu)數(shù)據(jù)挖掘是面向應用的。()

答案:對數(shù)據(jù)挖掘就是從數(shù)據(jù)集中識別出有效的、新穎的、潛在有用的,以及最終可理解的模式的非平凡過程。()

答案:對數(shù)據(jù)挖掘所得到的信息應具有先知,有效和實用三個特征。()

答案:對序列模式挖掘經(jīng)典算法有:()。

答案:PrefixSpan###AprioriSome###GSP###AprioriAllAprioriSome算法的優(yōu)缺點()。

答案:AprioriSome跳躍式計算候選,會在某種程度上減少遍歷數(shù)據(jù)集次數(shù)###對于較低的支持度,數(shù)據(jù)集中有較長的大序列的情況下,采用AprioriSome比較好。###AprioriSome會產(chǎn)生比較多的候選,可能在回溯階段前就占滿內(nèi)存。AprioriAll算法存在的問題()。

答案:在轉(zhuǎn)換階段產(chǎn)生巨大的開銷###很難找到長序列模式###需要對數(shù)據(jù)庫進行多次掃描###容易生成大量的候選項集GSP算法存在的問題()。

答案:需要對序列數(shù)據(jù)集進行多次掃描###當序列數(shù)據(jù)集比較大時,容易生成龐大的候選序列###對長序列模式的處理效率比較低()是對關聯(lián)規(guī)則重要性的衡量,反映關聯(lián)是否是普遍存在的規(guī)律。()

答案:支持度關聯(lián)規(guī)則挖掘最為著名的是Agrawal等人提出的()及其改進算法。()

答案:Apriori給定全局項集I和交易數(shù)據(jù)集D,對于I的非空項集I1,若其支持度()最小支持度閾值min_sup,則稱I1為頻繁項集。()

答案:大于或等于()是對關聯(lián)規(guī)則準確度的衡量,度量關聯(lián)規(guī)則的強度。()

答案:置信度樸素貝葉斯分類器對()數(shù)據(jù)具有較好的分類效果()。

答案:完全獨立的數(shù)據(jù)###函數(shù)依賴的數(shù)據(jù)下列哪些是決策樹分類算法?()。

答案:C4.5###CART###ID3下列哪些是分類算法?()。

答案:ID3###KNN###C4.5分類分析的兩個階段分別為:()。

答案:分類階段###學習階段下列哪個選項不是DBSCAN算法的缺點?()。

答案:能夠識別出噪聲點下列哪個算法屬于層次聚類算法?()。

答案:DIANA聚類分析中,通常使用()來衡量兩個對象之間的相異度。()。

答案:距離下列哪個算法不屬于層次聚類算法?()。

答案:K-means處理空缺值的主要方法有()。

答案:使用與給定元組屬同一類的所有樣本的平均值。###使用一個全局常量填補空缺值###使用屬性的平均值填補空缺值。###忽略元組常用的數(shù)據(jù)轉(zhuǎn)換方法有()。

答案:聚集###數(shù)據(jù)概化###屬性構(gòu)造###平滑不完整數(shù)據(jù)的成因有()。

答案:數(shù)據(jù)收集時和數(shù)據(jù)分析時的不同考慮因素###數(shù)據(jù)收集的時候就缺乏合適的值###人為/硬件/軟件問題數(shù)據(jù)集成時需解決的三個基本問題為()。

答案:冗余問題###模式集成的過程中涉及到的實體識別問題###數(shù)據(jù)集成過程中數(shù)值沖突的檢測與處理給定一個數(shù)值屬性,怎樣才能平滑數(shù)據(jù),去掉噪聲?()。

答案:分箱(binning)###計算機和人工檢查結(jié)合###聚類###回歸

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論