




版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
MOOC數(shù)據(jù)挖掘-國(guó)防科技大學(xué)中國(guó)大學(xué)慕課答案單元作業(yè)單元作業(yè)測(cè)驗(yàn)1、問題:什么是KDD?選項(xiàng):A、數(shù)據(jù)挖掘與知識(shí)發(fā)現(xiàn)B、領(lǐng)域知識(shí)發(fā)現(xiàn)C、文檔知識(shí)發(fā)現(xiàn)D、動(dòng)態(tài)知識(shí)發(fā)現(xiàn)正確答案:【數(shù)據(jù)挖掘與知識(shí)發(fā)現(xiàn)】2、問題:“8,000”和“10,000”表示:選項(xiàng):A、數(shù)據(jù)B、信息C、知識(shí)D、智慧正確答案:【數(shù)據(jù)】3、問題:人從出生到長(zhǎng)大的過(guò)程中,是如何認(rèn)識(shí)事物的?選項(xiàng):A、聚類過(guò)程B、分類過(guò)程C、先分類,后聚類D、先聚類,后分類正確答案:【先聚類,后分類】4、問題:“8,000米是飛機(jī)飛行最大高度”與“10,000米的高山”表示:選項(xiàng):A、數(shù)據(jù)B、信息C、知識(shí)D、智慧正確答案:【信息】5、問題:“飛機(jī)無(wú)法飛過(guò)高山”表示:選項(xiàng):A、數(shù)據(jù)B、信息C、知識(shí)D、智慧正確答案:【知識(shí)】單元作業(yè)測(cè)驗(yàn)1、問題:下面哪個(gè)不屬于數(shù)據(jù)的屬性類型:選項(xiàng):A、標(biāo)稱B、序數(shù)C、區(qū)間D、相異正確答案:【相異】2、問題:只有非零值才重要的二元屬性被稱作:選項(xiàng):A、計(jì)數(shù)屬性B、離散屬性C、非對(duì)稱的二元屬性D、對(duì)稱屬性正確答案:【非對(duì)稱的二元屬性】3、問題:一所大學(xué)內(nèi)的各年紀(jì)人數(shù)分別為:一年級(jí)200人,二年級(jí)160人,三年級(jí)130人,四年級(jí)110人。則年級(jí)屬性的眾數(shù)是:選項(xiàng):A、一年級(jí)B、二年級(jí)C、三年級(jí)D、四年級(jí)正確答案:【一年級(jí)】4、問題:杰卡德系數(shù)用來(lái)度量非對(duì)稱的二進(jìn)制屬性的相似性選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】5、問題:歐式距離用來(lái)度量連續(xù)數(shù)值屬性數(shù)據(jù)的相似性選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】單元作業(yè)測(cè)驗(yàn)1、問題:所謂高維數(shù)據(jù),指的是選項(xiàng):A、數(shù)據(jù)對(duì)象很多B、數(shù)據(jù)屬性很多C、以上都正確D、以上都錯(cuò)誤正確答案:【數(shù)據(jù)屬性很多】2、問題:假設(shè)屬性income的最大最小值分別是12000元和98000元。利用最大最小規(guī)范化的方法將屬性的值映射到0至1的范圍內(nèi)。對(duì)屬性income的73600元將被轉(zhuǎn)化為:選項(xiàng):A、0.821B、1.224C、1.458D、0.716正確答案:【0.716】3、問題:假設(shè)12個(gè)銷售價(jià)格記錄組已經(jīng)排序如下:5,10,11,13,15,35,50,55,72,92,204,215使用如下每種方法將它們劃分成四個(gè)箱。等頻(等深)劃分時(shí),15在第幾個(gè)箱子內(nèi)?選項(xiàng):A、第一個(gè)B、第二個(gè)C、第三個(gè)D、第四個(gè)正確答案:【第二個(gè)】4、問題:卡方測(cè)試用來(lái)度量離散標(biāo)稱屬性數(shù)據(jù)的相關(guān)性選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】5、問題:相關(guān)系數(shù)用來(lái)度量標(biāo)稱屬性數(shù)據(jù)的相關(guān)性選項(xiàng):A、正確B、錯(cuò)誤正確答案:【錯(cuò)誤】單元作業(yè)測(cè)驗(yàn)1、問題:考慮兩隊(duì)之間的足球比賽:隊(duì)0和隊(duì)1。假設(shè)65%的比賽隊(duì)0勝出,剩余的比賽隊(duì)1獲勝。隊(duì)0獲勝的比賽中只有30%是在隊(duì)1的主場(chǎng),而隊(duì)1取勝的比賽中75%是主場(chǎng)獲勝。如果下一場(chǎng)比賽在隊(duì)1的主場(chǎng)進(jìn)行隊(duì)1獲勝的概率為選項(xiàng):A、0.75B、0.35C、0.4678D、0.5738正確答案:【0.5738】2、問題:樸素貝葉斯分類器的樸素之處在于:選項(xiàng):A、只能處理低維屬性B、只能處理離散型屬性C、分類效果一般D、屬性之間的條件獨(dú)立性假設(shè)正確答案:【屬性之間的條件獨(dú)立性假設(shè)】3、問題:Bayes法是一種在已知后驗(yàn)概率與類條件概率的情況下的模式分類方法,待分樣本的分類結(jié)果取決于各類域中樣本的全體。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【錯(cuò)誤】4、問題:可以利用概率統(tǒng)計(jì)方法估計(jì)數(shù)據(jù)的分布參數(shù),再進(jìn)一步估計(jì)待測(cè)試數(shù)據(jù)的概率,以此來(lái)實(shí)現(xiàn)貝葉斯分類選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】5、問題:貝葉斯分類器對(duì)離群點(diǎn)敏感選項(xiàng):A、正確B、錯(cuò)誤正確答案:【錯(cuò)誤】單元作業(yè)測(cè)驗(yàn)1、問題:決策樹中不包含一下哪種結(jié)點(diǎn)選項(xiàng):A、根結(jié)點(diǎn)(rootnode)B、內(nèi)部結(jié)點(diǎn)(internalnode)C、外部結(jié)點(diǎn)(externalnode)D、葉結(jié)點(diǎn)(leafnode)正確答案:【外部結(jié)點(diǎn)(externalnode)】2、問題:以下哪些算法是分類算法選項(xiàng):A、DBSCANB、ID3C、K-MeansD、EM正確答案:【ID3】3、問題:決策樹的父節(jié)點(diǎn)和子節(jié)點(diǎn)的熵的大小關(guān)系是什么?選項(xiàng):A、決策樹的父節(jié)點(diǎn)更大B、子節(jié)點(diǎn)的熵更大C、兩者相等D、根據(jù)具體情況而定正確答案:【子節(jié)點(diǎn)的熵更大】4、問題:一個(gè)決策樹包括如下哪些要素選項(xiàng):A、測(cè)試節(jié)點(diǎn)B、分支C、葉子D、以上均錯(cuò)誤正確答案:【測(cè)試節(jié)點(diǎn)#分支#葉子】5、問題:采用決策樹分類算法,連續(xù)數(shù)據(jù)如何處理?選項(xiàng):A、連續(xù)數(shù)據(jù)離散化B、選擇最佳劃分點(diǎn)分裂C、連續(xù)數(shù)據(jù)每2個(gè)值之間形成分裂D、以上均錯(cuò)誤正確答案:【連續(xù)數(shù)據(jù)離散化#選擇最佳劃分點(diǎn)分裂】單元作業(yè)測(cè)驗(yàn)1、問題:當(dāng)不知道數(shù)據(jù)所帶標(biāo)簽時(shí),可以使用哪種技術(shù)促使帶同類標(biāo)簽的數(shù)據(jù)與帶其他標(biāo)簽的數(shù)據(jù)相分離?選項(xiàng):A、分類B、聚類C、關(guān)聯(lián)分析D、隱馬爾可夫鏈正確答案:【聚類】2、問題:簡(jiǎn)單地將數(shù)據(jù)對(duì)象集劃分成不重疊的子集,使得每個(gè)數(shù)據(jù)對(duì)象恰在一個(gè)子集中,這種聚類類型稱作選項(xiàng):A、層次聚類B、劃分聚類C、非互斥聚類D、模糊聚類正確答案:【劃分聚類】3、問題:關(guān)于k-means算法,正確的描述是:選項(xiàng):A、能找到任意形狀的聚類B、初始值不同,最終結(jié)果可能不同C、每次迭代的時(shí)間復(fù)雜度是O(n^2),其中n是樣本數(shù)量D、不能使用核函數(shù)(kernelfunction)正確答案:【初始值不同,最終結(jié)果可能不同】4、問題:K-Means算法中的初始中心點(diǎn):選項(xiàng):A、可隨意設(shè)置B、必須在每個(gè)簇的真實(shí)中心點(diǎn)的附近C、必須足夠分散D、直接影響算法的收斂結(jié)果正確答案:【直接影響算法的收斂結(jié)果】5、問題:下列說(shuō)法正確的是選項(xiàng):A、K-means算法能夠解決有離群點(diǎn)的聚類問題B、K-modes能夠解決離散數(shù)據(jù)的聚類問題C、K-means++能夠解決初始點(diǎn)影響聚類效果的問題D、K中心點(diǎn)能夠解決有離群點(diǎn)的聚類問題正確答案:【K-modes能夠解決離散數(shù)據(jù)的聚類問題#K-means++能夠解決初始點(diǎn)影響聚類效果的問題#K中心點(diǎn)能夠解決有離群點(diǎn)的聚類問題】單元作業(yè)測(cè)驗(yàn)1、問題:logistic回歸是否對(duì)噪聲敏感選項(xiàng):A、是B、否C、以上均錯(cuò)誤D、無(wú)法判斷正確答案:【是】2、問題:樸素的邏輯回歸可以解決非線性的分類問題選項(xiàng):A、正確B、錯(cuò)誤正確答案:【錯(cuò)誤】3、問題:分類和回歸都可用于預(yù)測(cè),分類的輸出是離散的類別值,而回歸的輸出是連續(xù)數(shù)值選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】4、問題:邏輯回歸正則化主要包括L1正則化和L2正則化選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】5、問題:數(shù)據(jù)規(guī)范化能夠提高邏輯回歸算法參數(shù)學(xué)習(xí)的效率選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】測(cè)驗(yàn)1、問題:某超市研究銷售紀(jì)錄數(shù)據(jù)后發(fā)現(xiàn),買啤酒的人很大概率也會(huì)購(gòu)買尿布,這種屬于數(shù)據(jù)挖掘的哪類問題?選項(xiàng):A、關(guān)聯(lián)規(guī)則發(fā)現(xiàn)B、聚類C、分類D、自然語(yǔ)言處理正確答案:【關(guān)聯(lián)規(guī)則發(fā)現(xiàn)】2、問題:數(shù)據(jù)挖掘的主要任務(wù)是從數(shù)據(jù)中發(fā)現(xiàn)潛在的規(guī)則,從而能更好的完成描述數(shù)據(jù)、預(yù)測(cè)數(shù)據(jù)等任務(wù)選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】3、問題:具有較高的支持度的項(xiàng)集具有較高的置信度。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【錯(cuò)誤】4、問題:先驗(yàn)原理可以表述為:如果一個(gè)項(xiàng)集是頻繁的,那包含它的所有項(xiàng)集也是頻繁的。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【錯(cuò)誤】5、問題:利用先驗(yàn)原理可以幫助減少頻繁項(xiàng)集產(chǎn)生時(shí)需要探查的候選項(xiàng)個(gè)數(shù)選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】單元作業(yè)測(cè)驗(yàn)1、問題:以下模型中,在數(shù)據(jù)預(yù)處理時(shí),不需要考慮歸一化處理的是:()選項(xiàng):A、logistic回歸B、SVMC、樹形模型D、神經(jīng)網(wǎng)絡(luò)正確答案:【樹形模型】2、問題:一組數(shù)據(jù),均值中位數(shù)眾數(shù),問這組數(shù)據(jù)?選項(xiàng):A、左偏B、右偏C、鐘型D、對(duì)稱正確答案:【右偏】3、問題:如果現(xiàn)在需要對(duì)一組數(shù)據(jù)進(jìn)行樣本個(gè)體或指標(biāo)變量按其具有的特性進(jìn)行分類,尋找合理的度量事物相似性的統(tǒng)計(jì)量,應(yīng)該采取()選項(xiàng):A、聚類分析B、回歸分析C、相關(guān)分析D、判別分析正確答案:【聚類分析】4、問題:時(shí)間序列數(shù)據(jù)更適合用()做數(shù)據(jù)規(guī)約。選項(xiàng):A、小波變換B、主成分分析C、決策樹D、直方圖正確答案:【小波變換】5、問題:下面哪些場(chǎng)景合適使用PCA?()選項(xiàng):A、降低數(shù)據(jù)的維度,節(jié)約內(nèi)存和存儲(chǔ)空間B、降低數(shù)據(jù)維度,并作為其它有監(jiān)督學(xué)習(xí)的輸入C、獲得更多的特征D、替代線性回歸正確答案:【降低數(shù)據(jù)的維度,節(jié)約內(nèi)存和存儲(chǔ)空間】6、問題:下列方面不可以防止過(guò)擬合的是選項(xiàng):A、加入正則項(xiàng)B、增加樣本C、建立更加復(fù)雜的模型D、Bootstrap重采樣正確答案:【建立更加復(fù)雜的模型】7、問題:對(duì)于地震的預(yù)測(cè),我們希望的是召回率recall非常高,也就是說(shuō)每次地震我們都希望預(yù)測(cè)出來(lái),這個(gè)時(shí)候我們可以犧牲精確率precision。情愿發(fā)出1000次警報(bào),把10次地震都預(yù)測(cè)正確了,那么請(qǐng)問此時(shí)地震預(yù)測(cè)的假陽(yáng)歷FP等于多少?()選項(xiàng):A、10B、0C、990D、1000正確答案:【990】8、問題:一般情況下,KNN最近鄰方法在()情況下效果最好選項(xiàng):A、樣本呈現(xiàn)團(tuán)狀分布B、樣本呈現(xiàn)鏈狀分布C、樣本較多但典型性不好D、樣本較少但典型性好正確答案:【樣本較少但典型性好】9、問題:假定某同學(xué)使用NaiveBayesian(NB)分類模型時(shí),不小心將訓(xùn)練數(shù)據(jù)的兩個(gè)維度搞重復(fù)了,那么關(guān)于NB的說(shuō)法中正確的是()選項(xiàng):A、這個(gè)被重復(fù)的特征在模型中的決定作用會(huì)被加強(qiáng)B、模型效果相比無(wú)重復(fù)特征的情況下精確度會(huì)降低C、NB可以用來(lái)做最小二乘回歸D、當(dāng)兩列特征高度相關(guān)時(shí),無(wú)法用兩列特征相同時(shí)所得到的結(jié)論來(lái)分析問題正確答案:【模型效果相比無(wú)重復(fù)特征的情況下精確度會(huì)降低#當(dāng)兩列特征高度相關(guān)時(shí),無(wú)法用兩列特征相同時(shí)所得到的結(jié)論來(lái)分析問題】10、問題:下列哪些數(shù)據(jù)挖掘算法不需要做數(shù)據(jù)歸一化處理:()選項(xiàng):A、K均值B、線性回歸C、決策樹D、樸素貝葉斯正確答案:【決策樹#樸素貝葉斯】11、問題:下列有關(guān)L1正則化和L2正則化說(shuō)法正確的是?()選項(xiàng):A、使用L1可以得到稀疏的權(quán)值B、使用L2可以得到稀疏的權(quán)值C、使用L1可以得到平滑的權(quán)值D、使用L2可以得到平滑的權(quán)值正確答案:【使用L1可以得到稀疏的權(quán)值#使用L2可以得到平滑的權(quán)值】12、問題:在分類問題中,我們經(jīng)常會(huì)遇到正負(fù)樣本數(shù)據(jù)量不等的情況,比如正樣本為10w條數(shù)據(jù),負(fù)樣本只有1w條數(shù)據(jù),以下最合適的處理方法是選項(xiàng):A、將負(fù)樣本重復(fù)10次,生成10w樣本量,打亂順序參與分類B、直接進(jìn)行分類,可以最大限度利用數(shù)據(jù)C、從10w正樣本中隨機(jī)抽取1w參與分類D、將負(fù)樣本每個(gè)權(quán)重設(shè)置為10,正樣本權(quán)重為1,參與訓(xùn)練過(guò)程正確答案:【將負(fù)樣本重復(fù)10次,生成10w樣本量,打亂順序參與分類#從10w正樣本中隨機(jī)抽取1w參與分類#將負(fù)樣本每個(gè)權(quán)重設(shè)置為10,正樣本權(quán)重為1,參與訓(xùn)練過(guò)程】13、問題:在數(shù)據(jù)挖掘中需要?jiǎng)澐謹(jǐn)?shù)據(jù)集,常用的劃分測(cè)試集和訓(xùn)練集的劃分方法有哪些()選項(xiàng):A、留出法B、交叉驗(yàn)證法C、自助法D、評(píng)分法正確答案:【留出法#交叉驗(yàn)證法#自助法】14、問題:邏輯回歸分析需要對(duì)離散值做預(yù)處理,決策樹則不需要。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】15、問題:分類模型的誤差大致分為兩種:訓(xùn)練誤差(trainingerror)和泛化誤差(generalizationerror).選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】單元作業(yè)測(cè)驗(yàn)1、問題:所謂Kerneltrick,指的是:()選項(xiàng):A、利用在高維空間定義的函數(shù)替代原始空間的向量?jī)?nèi)積操作B、利用在原始空間定義的函數(shù)替代高維空間的向量?jī)?nèi)積操作C、核函數(shù)的導(dǎo)數(shù)具有簡(jiǎn)單的解析解,簡(jiǎn)化了運(yùn)算D、核函數(shù)具有固定的上下界,可以輸出(-1,+1)區(qū)間中的連續(xù)值正確答案:【利用在原始空間定義的函數(shù)替代高維空間的向量?jī)?nèi)積操作】2、問題:SVM模型通過(guò)最大化邊界實(shí)現(xiàn)線性分類,以下哪個(gè)可以使得SVM實(shí)現(xiàn)非線性分類()選項(xiàng):A、松弛變量B、對(duì)偶空間求解C、kernelD、SMO算法正確答案:【kernel】3、問題:SVM(支持向量機(jī))與LR(邏輯回歸)的數(shù)學(xué)本質(zhì)上的區(qū)別是什么?()選項(xiàng):A、損失函數(shù)B、是否有核技巧C、是否支持多分類D、選項(xiàng)皆錯(cuò)正確答案:【損失函數(shù)】4、問題:在SVM當(dāng)中,主要的運(yùn)算形式是:()選項(xiàng):A、矩陣乘法B、矩陣轉(zhuǎn)置C、矩陣分解D、向量?jī)?nèi)積正確答案:【向量?jī)?nèi)積】5、問題:下面關(guān)于支持向量機(jī)的說(shuō)法正確的是?()選項(xiàng):A、支持向量機(jī)的最終模型僅僅與支持向量有關(guān)B、支持向量機(jī)的最終模型由所有的訓(xùn)練樣本共同決定C、支持向量機(jī)的最終模型由離決策邊界最近的幾個(gè)點(diǎn)決定D、訓(xùn)練集越大,支持向量機(jī)的模型就一定越準(zhǔn)確正確答案:【支持向量機(jī)的最終模型僅僅與支持向量有關(guān)#支持向量機(jī)的最終模型由離決策邊界最近的幾個(gè)點(diǎn)決定】單元作業(yè)測(cè)驗(yàn)1、問題:神經(jīng)網(wǎng)絡(luò)模型是受人腦的結(jié)構(gòu)啟發(fā)發(fā)明的。神經(jīng)網(wǎng)絡(luò)模型由很多的神經(jīng)元組成,每個(gè)神經(jīng)元都接受輸入,進(jìn)行計(jì)算并輸出結(jié)果,那么以下選項(xiàng)描述正確的是()選項(xiàng):A、每個(gè)神經(jīng)元只有一個(gè)單一的輸入和單一的輸出B、每個(gè)神經(jīng)元有多個(gè)輸入而只有一個(gè)單一的輸出C、每個(gè)神經(jīng)元只有一個(gè)單一的輸入而有多個(gè)輸出D、每個(gè)神經(jīng)元有多個(gè)輸入和多個(gè)輸出正確答案:【每個(gè)神經(jīng)元有多個(gè)輸入和多個(gè)輸出】2、問題:訓(xùn)練神經(jīng)網(wǎng)絡(luò)時(shí),以下哪種激活函數(shù)最容易造成梯度消失:()選項(xiàng):A、tanhB、sigmoidC、ReLUD、leakyReLU正確答案:【sigmoid】3、問題:考慮以下問題:假設(shè)我們有一個(gè)5層的神經(jīng)網(wǎng)絡(luò),這個(gè)神經(jīng)網(wǎng)絡(luò)在使用一個(gè)4GB顯存顯卡時(shí)需要花費(fèi)3個(gè)小時(shí)來(lái)完成訓(xùn)練。而在測(cè)試過(guò)程中,單個(gè)數(shù)據(jù)需要花費(fèi)2秒的時(shí)間。如果我們現(xiàn)在把架構(gòu)變換一下,當(dāng)評(píng)分是0.2和0.3時(shí),分別在第2層和第4層添加Dropout,那么新架構(gòu)的測(cè)試所用時(shí)間會(huì)變?yōu)槎嗌??()選項(xiàng):A、少于2sB、大于2sC、仍是2sD、說(shuō)不準(zhǔn)正確答案:【仍是2s】4、問題:在誤差逆?zhèn)鞑ニ惴ㄖ?,隱含層節(jié)點(diǎn)的誤差信息應(yīng)當(dāng):()選項(xiàng):A、根據(jù)自身的期望輸出和實(shí)際輸出的差值計(jì)算B、根據(jù)所有輸出層神經(jīng)元的誤差的均值計(jì)算C、根據(jù)自身下游神經(jīng)元的誤差進(jìn)行加權(quán)計(jì)算D、根據(jù)自身下游神經(jīng)元的誤差的均值計(jì)算正確答案:【根據(jù)自身下游神經(jīng)元的誤差進(jìn)行加權(quán)計(jì)算】5、問題:若神經(jīng)元的誤差對(duì)某輸入的權(quán)重的偏導(dǎo)大于零說(shuō)明:()選項(xiàng):A、該權(quán)重應(yīng)增加B、該權(quán)重應(yīng)減少C、應(yīng)增加神經(jīng)網(wǎng)絡(luò)層數(shù)D、應(yīng)調(diào)整激活函數(shù)正確答案:【該權(quán)重應(yīng)減少】6、問題:為節(jié)省神經(jīng)網(wǎng)絡(luò)模型的訓(xùn)練時(shí)間,神經(jīng)網(wǎng)絡(luò)模型的權(quán)重和偏移參數(shù)一般初始化為()選項(xiàng):A、0B、0.5C、1D、隨機(jī)值正確答案:【隨機(jī)值】7、問題:下列哪一項(xiàng)在神經(jīng)網(wǎng)絡(luò)中引入了非線性()選項(xiàng):A、SGDB、激活函數(shù)C、卷積函數(shù)D、都不正確正確答案:【激活函數(shù)】8、問題:下列哪些因素會(huì)對(duì)BP神經(jīng)網(wǎng)絡(luò)的訓(xùn)練效果產(chǎn)生影響()選項(xiàng):A、權(quán)值初始值B、閾值初始值C、學(xué)習(xí)率D、隱層神經(jīng)元個(gè)數(shù)正確答案:【權(quán)值初始值#閾值初始值#學(xué)習(xí)率#隱層神經(jīng)元個(gè)數(shù)】9、問題:采用Sigmod函數(shù)作為激勵(lì)函數(shù)的主要原因是()選項(xiàng):A、有固定的輸出上下界B、導(dǎo)數(shù)存在解析解C、計(jì)算復(fù)雜度較低D、處處可導(dǎo)正確答案:【有固定的輸出上下界#導(dǎo)數(shù)存在解析解#處處可導(dǎo)】單元作業(yè)測(cè)驗(yàn)1、問題:數(shù)據(jù)科學(xué)家可能會(huì)同時(shí)使用多個(gè)算法(模型)進(jìn)行預(yù)測(cè),并且最后把這些算法的結(jié)果集成起來(lái)進(jìn)行最后的預(yù)測(cè)(集成學(xué)習(xí)),以下對(duì)集成學(xué)習(xí)說(shuō)法正確的是()選項(xiàng):A、單個(gè)模型之間有高相關(guān)性B、單個(gè)模型之間有低相關(guān)性C、在集成學(xué)習(xí)中使用“平均權(quán)重”而不是“投票”會(huì)比較好D、單個(gè)模型都是用的一個(gè)算法正確答案:【單個(gè)模型之間有低相關(guān)性】2、問題:二分類任務(wù)中,有三個(gè)分類器h1,h2,h3,三個(gè)測(cè)試樣本x1,x2,x3。假設(shè)1表示分類結(jié)果正確,0表示錯(cuò)誤,h1在x1,x2,x3的結(jié)果分別(1,1,0),h2,h3分別為(0,1,1),(1,0,1),按投票法集成三個(gè)分類器,下列說(shuō)法正確的是:()選項(xiàng):A、集成提高了性能B、集成沒有效果C、集成降低了性能D、集成效果不能確定正確答案:【集成提高了性能】3、問題:下列關(guān)于隨機(jī)森林和Adaboost說(shuō)法正確的是()選項(xiàng):A、和Adaboost相比,隨機(jī)森林對(duì)錯(cuò)誤和離群點(diǎn)更魯棒B、隨機(jī)森林準(zhǔn)確率不依賴于個(gè)體分類器的實(shí)例和他們之間的依賴性C、隨機(jī)森林對(duì)每次劃分所考慮的屬性數(shù)很偏感D、Adaboost初始時(shí)每個(gè)訓(xùn)練元組被賦予相等的權(quán)重正確答案:【和Adaboost相比,隨機(jī)森林對(duì)錯(cuò)誤和離群點(diǎn)更魯棒#隨機(jī)森林對(duì)每次劃分所考慮的屬性數(shù)很偏感#Adaboost初始時(shí)每個(gè)訓(xùn)練元組被賦予相等的權(quán)重】4、問題:以下關(guān)于randomforest說(shuō)法錯(cuò)誤的是選項(xiàng):A、rf中的每棵子樹都是獨(dú)立同分布的B、rf中模型方差隨著子樹的增加而減少C、rf主要通過(guò)增加子樹之間的相關(guān)性來(lái)減少模型的方差D、rf中模型偏差隨著子樹的增加而減少正確答案:【rf中的每棵子樹都是獨(dú)立同分布的#rf中模型偏差隨著子樹的增加而減少】5、問題:在AdaBoost算法中,所有被分錯(cuò)的樣本的權(quán)重更新比例相同。()選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】期末考試1、問題:運(yùn)用云計(jì)算、數(shù)據(jù)挖掘以及模糊識(shí)別等人工智能技術(shù),對(duì)海量的數(shù)據(jù)和信息進(jìn)行分析和處理,對(duì)物體實(shí)施智能化的控制,指的是選項(xiàng):A、可靠傳遞B、全面感知C、智能處理D、互聯(lián)網(wǎng)正確答案:【智能處理】2、問題:“飛機(jī)必須飛得比山高”表示:選項(xiàng):A、數(shù)據(jù)B、信息C、知識(shí)D、智慧正確答案:【智慧】3、問題:在LogisticRegression中,如果同時(shí)加入L1和L2范數(shù),產(chǎn)生什么效果選項(xiàng):A、可以做特征選擇,并在一定程度上防止過(guò)擬合B、能解決維度災(zāi)難問題C、能加快計(jì)算速度D、可以獲得更準(zhǔn)確的結(jié)果正確答案:【可以做特征選擇,并在一定程度上防止過(guò)擬合】4、問題:當(dāng)不知道數(shù)據(jù)所帶標(biāo)簽時(shí),可以使用哪種技術(shù)促使帶同類標(biāo)簽的數(shù)據(jù)與帶其他標(biāo)簽的數(shù)據(jù)相分離選項(xiàng):A、聚類B、關(guān)聯(lián)分析C、分類D、隱馬爾科夫正確答案:【聚類】5、問題:在ID3算法中信息增益是指選項(xiàng):A、信息的溢出程度B、信息的增加效益C、熵增加的程度最大D、熵減少的程度最大正確答案:【熵減少的程度最大】6、問題:某超市研究銷售紀(jì)錄數(shù)據(jù)后發(fā)現(xiàn),買面包的人很大概率也會(huì)購(gòu)買牛奶,這種屬于數(shù)據(jù)挖掘的哪類問題:選項(xiàng):A、關(guān)聯(lián)規(guī)則發(fā)現(xiàn)B、聚類C、分類D、自然語(yǔ)言處理正確答案:【關(guān)聯(lián)規(guī)則發(fā)現(xiàn)】7、問題:標(biāo)稱類型數(shù)據(jù)的可以利用的數(shù)學(xué)計(jì)算為:選項(xiàng):A、眾數(shù)B、中位數(shù)C、均值D、方差正確答案:【眾數(shù)】8、問題:一組數(shù)據(jù)的最小值為12,000,最大值為98,000,利用最小最大規(guī)范化將數(shù)據(jù)規(guī)范到[0,1],則73,000規(guī)范化的值為:選項(xiàng):A、0.513B、0.612C、0.716D、0.845正確答案:【0.716】9、問題:在無(wú)人駕駛時(shí),希望程序能夠根據(jù)路況決策汽車的方向盤的旋轉(zhuǎn)角度,那么該任務(wù)是?選項(xiàng):A、分類B、回歸C、聚類D、降維正確答案:【回歸】10、問題:考慮如下數(shù)據(jù)集,其中CustomerID(顧客id),TransactionID(事務(wù)id),ItemsBought(購(gòu)買項(xiàng))。如果將每個(gè)事務(wù)id看成一個(gè)購(gòu)物籃,計(jì)算項(xiàng)集{e},{b,d},{b,d,e}的支持度:選項(xiàng):A、s({e})=0.8s({b,d})=0.2s({b,d,e})=0.2B、s({e})=0.7s({b,d})=0.3s({b,d,e})=0.3C、s({e})=0.6s({b,d})=0.4s({b,d,e})=0.3D、s({e})=0.8s({b,d})=0.1s({b,d,e})=0.1正確答案:【s({e})=0.8s({b,d})=0.2s({b,d,e})=0.2】11、問題:假定某同學(xué)使用貝葉斯分類模型時(shí),由于失誤操作,致使訓(xùn)練數(shù)據(jù)中兩個(gè)維度重復(fù)表示。下列描述中正確的是:選項(xiàng):A、被重復(fù)的在模型中作用被加強(qiáng)B、模型效果精度降低C、如果所有特征都被重復(fù)一遍,則預(yù)測(cè)結(jié)果不發(fā)生變化D、以上說(shuō)法均錯(cuò)誤正確答案:【模型效果精度降低】12、問題:ID3算法在分類樹構(gòu)建中,使用哪個(gè)度量來(lái)進(jìn)行分類節(jié)點(diǎn)?選項(xiàng):A、gini指標(biāo)B、信息增益C、信息增益率D、準(zhǔn)確率正確答案:【信息增益】13、問題:印度電影《寶萊塢機(jī)器人之戀》中的機(jī)器人七弟采用的智能算法最有可能是以下哪一種選項(xiàng):A、神經(jīng)網(wǎng)絡(luò)B、遺傳算法C、模擬退火D、窮舉算法正確答案:【神經(jīng)網(wǎng)絡(luò)】14、問題:以下哪些方法不可以直接來(lái)對(duì)文本分類?選項(xiàng):A、KmeansB、決策樹C、支持向量機(jī)D、KNN正確答案:【Kmeans】15、問題:什么觀測(cè)值,它與其他觀測(cè)值的差別如此之大,以至于懷疑它是由不同的機(jī)制產(chǎn)生的。選項(xiàng):A、邊界點(diǎn)B、離群點(diǎn)C、核心點(diǎn)D、質(zhì)心正確答案:【離群點(diǎn)】16、問題:在logistic分類中,L1正則化和L2正則化的引入為了解決什么問題?選項(xiàng):A、數(shù)據(jù)量不充分B、訓(xùn)練數(shù)據(jù)不匹配C、訓(xùn)練過(guò)擬合D、訓(xùn)練速度太慢正確答案:【訓(xùn)練過(guò)擬合】17、問題:將原始數(shù)據(jù)進(jìn)行集成、變換是在以下哪個(gè)步驟的任務(wù)?選項(xiàng):A、頻繁模式挖掘B、分類和預(yù)測(cè)C、數(shù)據(jù)預(yù)處理D、數(shù)據(jù)流挖掘正確答案:【數(shù)據(jù)預(yù)處理】18、問題:數(shù)據(jù)庫(kù)中某屬性缺失值比較多時(shí),數(shù)據(jù)清理采用哪種的方法?選項(xiàng):A、忽略元組B、平均值填充C、盒狀圖法D、以上均可正確答案:【平均值填充】19、問題:在進(jìn)行聚類分析之前,給出少于所需數(shù)據(jù)的數(shù)據(jù)點(diǎn),下面哪種方法最適合用于數(shù)據(jù)清理?1.剔除或增加變量;2.去除異常值選項(xiàng):A、1B、2C、1和2D、都不能正確答案:【1】20、問題:數(shù)據(jù)挖掘算法主要有聚類算法、關(guān)聯(lián)算法、決策樹算法和回歸分析等,各種算法用于解決不同的實(shí)際問題,某分行擬通過(guò)對(duì)縣域機(jī)構(gòu)數(shù)量與存款市場(chǎng)競(jìng)爭(zhēng)力的相關(guān)性分析,進(jìn)而建立兩者之間的函數(shù)表達(dá)式,用新思維拓展縣域市場(chǎng),提升縣域存款的市場(chǎng)競(jìng)爭(zhēng)力。則可以采用的是什么?選項(xiàng):A、關(guān)聯(lián)算法B、決策樹算法C、聚類分析D、回歸分析正確答案:【回歸分析】21、問題:熵是為消除不確定性所需要獲得的信息量,投擲均勻正六面體骰子的熵是什么?選項(xiàng):A、1比特B、2.6比特C、3.2比特D、3.8比特正確答案:【2.6比特】22、問題:考慮值集{12243324556826},其四分位數(shù)極差是?選項(xiàng):A、31B、24C、55D、3正確答案:【31】23、問題:假定用于分析的數(shù)據(jù)包含屬性age。數(shù)據(jù)元組中age的值如下(按遞增序):13,15,16,16,19,20,20,21,22,22,25,25,25,30,33,33,35,35,36,40,45,46,52,70,問題:使用按箱平均值平滑方法對(duì)上述數(shù)據(jù)進(jìn)行平滑,箱的深度為3。第二個(gè)箱子值為?選項(xiàng):A、18.3B、22.6C、26.8D、27.9正確答案:【18.3】24、問題:建立一個(gè)模型,通過(guò)這個(gè)模型根據(jù)已知的變量值來(lái)預(yù)測(cè)其他某個(gè)變量值屬于數(shù)據(jù)挖掘的哪一類任務(wù)?選項(xiàng):A、根據(jù)內(nèi)容檢索B、建模描述C、預(yù)測(cè)建模D、尋找模式和規(guī)則正確答案:【預(yù)測(cè)建模】25、問題:假設(shè)12個(gè)銷售價(jià)格記錄組已經(jīng)排序如下:5,10,11,13,15,35,50,55,72,92,204,215使用如下每種方法將它們劃分成四個(gè)箱。等寬劃分時(shí)(寬度為50),15在哪個(gè)箱子里?選項(xiàng):A、第一個(gè)B、第二個(gè)C、第三個(gè)D、第四個(gè)正確答案:【第一個(gè)】26、問題:屬于定量的屬性類型是?選項(xiàng):A、標(biāo)稱B、序數(shù)C、區(qū)間D、相異正確答案:【區(qū)間】27、問題:將原始數(shù)據(jù)進(jìn)行維度規(guī)約,數(shù)值規(guī)約是在以下哪個(gè)步驟的任務(wù)?選項(xiàng):A、頻繁模式挖掘B、分類與預(yù)測(cè)C、數(shù)據(jù)預(yù)處理D、數(shù)據(jù)流挖掘正確答案:【數(shù)據(jù)預(yù)處理】28、問題:NaveBayes是一種特殊的Bayes分類器,特征變量是X,類別標(biāo)簽是C,它的一個(gè)假定是?選項(xiàng):A、各類別的先驗(yàn)概率P(C)是相等的B、以0為均值,sqr(2)/2為標(biāo)準(zhǔn)差的正態(tài)分布C、特征變量X的各個(gè)維度是類別條件獨(dú)立隨機(jī)變量D、P(X|C)是高斯分布正確答案:【特征變量X的各個(gè)維度是類別條件獨(dú)立隨機(jī)變量】29、問題:創(chuàng)建時(shí)間=1月2日是指?選項(xiàng):A、創(chuàng)建時(shí)間表示屬性,1月2日表示屬性B、創(chuàng)建時(shí)間表示屬性值,1月2日表示屬性值C、創(chuàng)建時(shí)間表示屬性,1月2日表示屬性值D、創(chuàng)建時(shí)間表示屬性值,1月2日表示屬性正確答案:【創(chuàng)建時(shí)間表示屬性,1月2日表示屬性值】30、問題:對(duì)于泰坦尼克號(hào)災(zāi)難預(yù)測(cè)數(shù)據(jù)集(如下),下列是標(biāo)稱類型的屬性是?選項(xiàng):A、Survived:0表示遇難,1表示幸存B、Pclass:1代表Upper,2代表Middle,3代表LowerC、Sex:標(biāo)識(shí)乘客性別D、SibSp:兄弟姐妹及配偶的個(gè)數(shù)E、Embarked:乘客登船口岸,可列舉正確答案:【Embarked:乘客登船口岸,可列舉】31、問題:對(duì)于泰坦尼克號(hào)災(zāi)難預(yù)測(cè)數(shù)據(jù)集,下列是對(duì)稱二進(jìn)制類型的屬性是?選項(xiàng):A、Survived:0表示遇難,1表示幸存B、Pclass:1代表Upper,2代表Middle,3代表LowerC、Sex:標(biāo)識(shí)乘客性別D、SibSp:兄弟姐妹及配偶的個(gè)數(shù)E、Embarked:乘客登船口岸,可列舉正確答案:【Sex:標(biāo)識(shí)乘客性別】32、問題:身高和體重分別是什么類型?選項(xiàng):A、高離散、體重離散B、身高連續(xù)、體重連續(xù)C、身高連續(xù)、體重離散D、身高離散、體重連續(xù)正確答案:【身高連續(xù)、體重連續(xù)】33、問題:根據(jù)下表計(jì)算like_science_fiction和play_chess的卡方測(cè)試選項(xiàng):A、507.93B、23.6C、89.3D、134.6正確答案:【507.93】34、問題:對(duì)于如下表格訓(xùn)練集,請(qǐng)計(jì)算P(青年|購(gòu)買)選項(xiàng):A、2/9B、4/9C、6/9D、1正確答案:【2/9】35、問題:對(duì)于如表格訓(xùn)練集,請(qǐng)計(jì)算P(購(gòu)買)選項(xiàng):A、9/14B、5/14C、5/9D、1正確答案:【9/14】36、問題:對(duì)于如下訓(xùn)練集,計(jì)算購(gòu)買電腦和不購(gòu)買電腦不確定性的熵值選項(xiàng):A、0B、0.5C、0.94D、1正確答案:【0.94】37、問題:下面哪個(gè)不為屬性的別名選項(xiàng):A、元組B、維度C、特征D、字段正確答案:【元組】38、問題:下列哪個(gè)不是非監(jiān)督數(shù)據(jù)離散化方法?選項(xiàng):A、等寬法B、等頻法C、聚類法D、決策樹法正確答案:【決策樹法】39、問題:下列哪個(gè)不為數(shù)據(jù)縮減?選項(xiàng):A、降維B、分類C、降數(shù)據(jù)D、數(shù)據(jù)壓縮正確答案:【分類】40、問題:下面哪種情況不會(huì)影響K-means聚類的效果?選項(xiàng):A、數(shù)據(jù)點(diǎn)密度分布不均B、數(shù)據(jù)點(diǎn)呈圓形狀分布C、數(shù)據(jù)中有異常點(diǎn)存在D、數(shù)據(jù)點(diǎn)呈非凸形狀分布正確答案:【數(shù)據(jù)點(diǎn)呈圓形狀分布】41、問題:給定兩個(gè)特征向量,以下哪些方法不能夠計(jì)算這兩個(gè)向量相似度?選項(xiàng):A、歐式距離B、夾角余弦(Cosine)C、信息熵D、曼哈頓距離正確答案:【信息熵】42、問題:下列哪個(gè)不是數(shù)據(jù)對(duì)象的別名?選項(xiàng):A、樣品B、實(shí)例C、維度D、元組正確答案:【維度】43、問題:標(biāo)稱類型數(shù)據(jù)的可以實(shí)現(xiàn)什么的數(shù)學(xué)計(jì)算?選項(xiàng):A、眾數(shù)B、中位數(shù)C、均值D、方差正確答案:【眾數(shù)】44、問題:采用決策樹分類算法,連續(xù)數(shù)據(jù)如何處理,下列說(shuō)法錯(cuò)誤的是?選項(xiàng):A、連續(xù)數(shù)據(jù)離散化B、選擇最佳劃分點(diǎn)分裂C、連續(xù)數(shù)據(jù)每2個(gè)值之間形成分裂D、以上都不是正確答案:【連續(xù)數(shù)據(jù)每2個(gè)值之間形成分裂】45、問題:下列說(shuō)法錯(cuò)誤的是?選項(xiàng):A、K-means算法能夠解決有離群點(diǎn)的聚類問題B、K-modes能夠解決離散數(shù)據(jù)的聚類問題C、K-means++能夠解決初始點(diǎn)影響聚類效果的問題D、K中心點(diǎn)能夠解決有離群點(diǎn)的聚類問題正確答案:【K-means算法能夠解決有離群點(diǎn)的聚類問題】46、問題:如下表所示的病例數(shù)據(jù),Gender是對(duì)稱屬性,其余都是非對(duì)稱屬性,假設(shè)只計(jì)算非對(duì)稱屬性,則Jack和Mary的相異度為?選項(xiàng):A、0.67B、0.33C、0.75D、0.45正確答案:【0.33】47、問題:屬性的別名選項(xiàng):A、元組B、維度C、特征D、字段正確答案:【維度#特征#字段】48、問題:下列哪些是非監(jiān)督數(shù)據(jù)離散化方法選項(xiàng):A、等寬法B、等頻法C、聚類法D、決策樹法正確答案:【等寬法#等頻法#聚類法】49、問題:數(shù)據(jù)可視化方法。選項(xiàng):A、直方圖B、柱狀圖C、箱線圖D、散點(diǎn)圖正確答案:【直方圖#柱狀圖#箱線圖#散點(diǎn)圖】50、問題:在現(xiàn)實(shí)世界的數(shù)據(jù)中,元組在某些屬性上缺少值是常有的。描述處理該問題的各種方法有:選項(xiàng):A、忽略元組B、使用屬性的平均值填充空缺值C、使用一個(gè)全局常量填充空缺值D、使用與給定元組屬同一類的所有樣本的平均值E、使用最可能的值填充空缺值正確答案:【忽略元組#使用屬性的平均值填充空缺值#使用一個(gè)全局常量填充空缺值#使用與給定元組屬同一類的所有樣本的平均值#使用最可能的值填充空缺值】51、問題:數(shù)據(jù)縮減主要包括如下選項(xiàng):A、降維B、分類C、降數(shù)據(jù)D、數(shù)據(jù)壓縮正確答案:【降維#降數(shù)據(jù)#數(shù)據(jù)壓縮】52、問題:數(shù)據(jù)清理中,處理缺失值的方法是選項(xiàng):A、估算B、整例刪除C、變量刪除D、成對(duì)刪除正確答案:【估算#整例刪除#變量刪除#成對(duì)刪除】53、問題:數(shù)據(jù)預(yù)處理主要包括的步驟選項(xiàng):A、數(shù)據(jù)清洗B、數(shù)據(jù)集成C、數(shù)據(jù)規(guī)約D、數(shù)據(jù)變換和離散化正確答案:【數(shù)據(jù)清洗#數(shù)據(jù)集成#數(shù)據(jù)規(guī)約#數(shù)據(jù)變換和離散化】54、問題:分類模型主要包括如下選項(xiàng):A、k-均值模型B、決策樹模型C、貝葉斯模型D、以上均錯(cuò)誤正確答案:【決策樹模型#貝葉斯模型】55、問題:假定某同學(xué)使用NaiveBayesian(NB)分類模型時(shí),不小心將訓(xùn)練數(shù)據(jù)的兩個(gè)維度搞重復(fù)了,那么關(guān)于NB的說(shuō)法中正確的是選項(xiàng):A、這個(gè)被重復(fù)的特征在模型中的決定作用會(huì)被加強(qiáng)B、模型效果相比無(wú)重復(fù)特征的情況下精確度會(huì)降低C、NB可以用來(lái)做最小二乘回歸D、當(dāng)兩列特征高度相關(guān)時(shí),無(wú)法用兩列特征相同時(shí)所得到的結(jié)論來(lái)分析問題正確答案:【模型效果相比無(wú)重復(fù)特征的情況下精確度會(huì)降低#當(dāng)兩列特征高度相關(guān)時(shí),無(wú)法用兩列特征相同時(shí)所得到的結(jié)論來(lái)分析問題】56、問題:下列哪些數(shù)據(jù)挖掘算法不需要做數(shù)據(jù)歸一化處理選項(xiàng):A、K均值B、線性回歸C、決策樹D、樸素貝葉斯正確答案:【決策樹#樸素貝葉斯】57、問題:下面哪種情況會(huì)影響K-means聚類的效果選項(xiàng):A、數(shù)據(jù)點(diǎn)密度分布不均B、數(shù)據(jù)點(diǎn)呈圓形狀分布C、數(shù)據(jù)中有異常點(diǎn)存在D、數(shù)據(jù)點(diǎn)呈非凸形狀分布正確答案:【數(shù)據(jù)點(diǎn)密度分布不均#數(shù)據(jù)中有異常點(diǎn)存在#數(shù)據(jù)點(diǎn)呈非凸形狀分布】58、問題:給定兩個(gè)特征向量,以下哪些方法可以計(jì)算這兩個(gè)向量相似度?選項(xiàng):A、歐式距離B、夾角余弦(Cosine)C、信息熵D、曼哈頓距離正確答案:【歐式距離#夾角余弦(Cosine)#曼哈頓距離】59、問題:數(shù)據(jù)挖掘的預(yù)測(cè)建模任務(wù)主要包括哪幾大類問題選項(xiàng):A、分類B、回歸C、模式發(fā)現(xiàn)D、模式匹配正確答案:【分類#回歸】60、問題:對(duì)于數(shù)據(jù)挖掘中的原始數(shù)據(jù),存在的問題有選項(xiàng):A、不一致B、重復(fù)C、不完整D、含噪聲E、維度高正確答案:【不一致#重復(fù)#不完整#含噪聲#維度高】61、問題:數(shù)據(jù)對(duì)象的別名選項(xiàng):A、樣品B、實(shí)例C、維度D、元組E、對(duì)象正確答案:【樣品#實(shí)例#元組#對(duì)象】62、問題:標(biāo)稱類型數(shù)據(jù)的可以實(shí)現(xiàn)數(shù)學(xué)計(jì)算選項(xiàng):A、眾數(shù)B、中位數(shù)C、均值D、方差E、相等F、加法G、除法正確答案:【眾數(shù)#相等】63、問題:序數(shù)類型數(shù)據(jù)的可以實(shí)現(xiàn)數(shù)學(xué)計(jì)算選項(xiàng):A、眾數(shù)B、中位數(shù)C、均值D、方差E、相等F、加法G、除法正確答案:【眾數(shù)#中位數(shù)#相等】64、問題:區(qū)間標(biāo)度類型數(shù)據(jù)的可以實(shí)現(xiàn)數(shù)學(xué)計(jì)算選項(xiàng):A、眾數(shù)B、中位數(shù)C、均值D、方差E、相等F、加法G、除法正確答案:【眾數(shù)#中位數(shù)#均值#方差#相等#加法】65、問題:比例標(biāo)度類型數(shù)據(jù)的可以實(shí)現(xiàn)數(shù)學(xué)計(jì)算選項(xiàng):A、眾數(shù)B、中位數(shù)C、均值D、方差E、相等F、加法G、除法正確答案:【眾數(shù)#中位數(shù)#均值#方差#相等#加法#除法】66、問題:數(shù)據(jù)集成需要解決的問題選項(xiàng):A、模式集成B、實(shí)體識(shí)別C、數(shù)據(jù)沖突檢測(cè)D、不解決任何問題正確答案:【模式集成#實(shí)體識(shí)別#數(shù)據(jù)沖突檢測(cè)】67、問題:下列哪些屬于基于劃分的聚類算法選項(xiàng):A、K-meansB、K-modesC、K-means++D、K中心點(diǎn)正確答案:【K-means#K-modes#K-means++#K中心點(diǎn)】68、問題:尼美(女,23歲,企業(yè)白領(lǐng))是如何選擇相親對(duì)象的,尼美對(duì)于相親對(duì)象的屬性建模,總共包括哪些屬性()選項(xiàng):A、性別B、長(zhǎng)相C、年齡D、收入E、職業(yè)正確答案:【性別#長(zhǎng)相#年齡#收入#職業(yè)】69、問題:下列說(shuō)法正確的是選項(xiàng):A、過(guò)擬合是由于訓(xùn)練集多,模型過(guò)于簡(jiǎn)單B、過(guò)擬合是由于訓(xùn)練集少,模型過(guò)于復(fù)雜C、欠擬合是由于訓(xùn)練集多,模型過(guò)于簡(jiǎn)單D、欠擬合是由于訓(xùn)練集少,模型過(guò)于簡(jiǎn)單正確答案:【過(guò)擬合是由于訓(xùn)練集少,模型過(guò)于復(fù)雜#欠擬合是由于訓(xùn)練集多,模型過(guò)于簡(jiǎn)單】70、問題:一個(gè)決策樹包括如下哪些要素選項(xiàng):A、測(cè)試節(jié)點(diǎn)B、分支C、葉子D、端點(diǎn)正確答案:【測(cè)試節(jié)點(diǎn)#分支#葉子】71、問題:采用決策樹分類算法,連續(xù)數(shù)據(jù)如何處理?選項(xiàng):A、連續(xù)數(shù)據(jù)離散化B、選擇最佳劃分點(diǎn)分裂C、連續(xù)數(shù)據(jù)每2個(gè)值之間形成分裂D、不處理正確答案:【連續(xù)數(shù)據(jù)離散化#選擇最佳劃分點(diǎn)分裂】72、問題:下列說(shuō)法正確的是選項(xiàng):A、K-means算法能夠解決有離群點(diǎn)的聚類問題B、K-modes能夠解決離散數(shù)據(jù)的聚類問題C、K-means++能夠解決初始點(diǎn)影響聚類效果的問題D、K中心點(diǎn)能夠解決有離群點(diǎn)的聚類問題正確答案:【K-modes能夠解決離散數(shù)據(jù)的聚類問題#K-means++能夠解決初始點(diǎn)影響聚類效果的問題#K中心點(diǎn)能夠解決有離群點(diǎn)的聚類問題】73、問題:決策樹中包含一下哪些結(jié)點(diǎn)選項(xiàng):A、根結(jié)點(diǎn)(rootnode)B、內(nèi)部結(jié)點(diǎn)(internalnode)C、外部結(jié)點(diǎn)(externalnode)D、葉結(jié)點(diǎn)(leafnode)正確答案:【根結(jié)點(diǎn)(rootnode)#內(nèi)部結(jié)點(diǎn)(internalnode)#葉結(jié)點(diǎn)(leafnode)】74、問題:下面哪個(gè)屬于數(shù)據(jù)的屬性類型選項(xiàng):A、標(biāo)稱B、序數(shù)C、區(qū)間D、相異正確答案:【標(biāo)稱#序數(shù)#區(qū)間】75、問題:以下哪些算法是分類算法選項(xiàng):A、樸素貝葉斯分類B、ID3C、K-MeanD、EM正確答案:【樸素貝葉斯分類#ID3】76、問題:人從出生到長(zhǎng)大的過(guò)程中,是如何認(rèn)識(shí)事物的,下列說(shuō)法錯(cuò)誤的是選項(xiàng):A、聚類過(guò)程B、分類過(guò)程C、先分類,后聚類D、先聚類,后分類正確答案:【聚類過(guò)程#分類過(guò)程#先分類,后聚類】77、問題:樸素貝葉斯分類器的樸素之處在于,下列說(shuō)法錯(cuò)誤的是選項(xiàng):A、只能處理低維屬性B、只能處理離散型屬性C、分類效果一般D、屬性之間的條件獨(dú)立性假設(shè)正確答案:【只能處理低維屬性#只能處理離散型屬性#分類效果一般】78、問題:決策樹的父節(jié)點(diǎn)和子節(jié)點(diǎn)的熵的大小關(guān)系是什么,下列說(shuō)法錯(cuò)誤的是選項(xiàng):A、決策樹的父節(jié)點(diǎn)更大B、子節(jié)點(diǎn)的熵更大C、兩者相等D、根據(jù)具體情況而定正確答案:【決策樹的父節(jié)點(diǎn)更大#兩者相等#根據(jù)具體情況而定】79、問題:簡(jiǎn)單地將數(shù)據(jù)對(duì)象集劃分成不重疊的子集,使得每個(gè)數(shù)據(jù)對(duì)象恰在一個(gè)子集中,下列哪些不屬于這種聚類類型選項(xiàng):A、層次聚類B、劃分聚類C、非互斥聚類D、模糊聚類正確答案:【層次聚類#非互斥聚類#模糊聚類】80、問題:當(dāng)不知道數(shù)據(jù)所帶標(biāo)簽時(shí),下列哪些技術(shù)不能夠促使帶同類標(biāo)簽的數(shù)據(jù)與帶其他標(biāo)簽的數(shù)據(jù)相分離?選項(xiàng):A、分類B、聚類C、關(guān)聯(lián)分析D、隱馬爾可夫鏈正確答案:【分類#關(guān)聯(lián)分析#隱馬爾可夫鏈】81、問題:關(guān)于k-means算法,錯(cuò)誤的描述是選項(xiàng):A、能找到任意形狀的聚類B、初始值不同,最終結(jié)果可能不同C、不能使用核函數(shù)(kernelfunction)D、是聚類算法的一種正確答案:【能找到任意形狀的聚類#不能使用核函數(shù)(kernelfunction)】82、問題:某超市研究銷售紀(jì)錄數(shù)據(jù)后發(fā)現(xiàn),買啤酒的人很大概率也會(huì)購(gòu)買尿布,這種描述不屬于數(shù)據(jù)挖掘的哪些問題?選項(xiàng):A、關(guān)聯(lián)規(guī)則發(fā)現(xiàn)B、聚類C、分類D、自然語(yǔ)言處理正確答案:【聚類#分類#自然語(yǔ)言處理】83、問題:將原始數(shù)據(jù)進(jìn)行集成,變換,維度規(guī)約,數(shù)值規(guī)約不屬于以下哪些步驟的任務(wù)?選項(xiàng):A、頻繁模式挖掘B、分類與預(yù)測(cè)C、數(shù)據(jù)預(yù)處理D、數(shù)據(jù)流挖掘正確答案:【頻繁模式挖掘#分類與預(yù)測(cè)#數(shù)據(jù)流挖掘】84、問題:數(shù)據(jù)庫(kù)中某屬性缺失值比較多時(shí),數(shù)據(jù)清理不能夠采用的方法選項(xiàng):A、忽略元組B、平均值填充C、盒狀圖法D、眾數(shù)填充正確答案:【忽略元組#盒狀圖法】85、問題:ID3算法在分類樹構(gòu)建中,沒有使用下面哪些度量來(lái)進(jìn)行分類節(jié)點(diǎn)?選項(xiàng):A、gini指標(biāo)B、信息增益C、信息增益率D、準(zhǔn)確率正確答案:【gini指標(biāo)#信息增益率#準(zhǔn)確率】86、問題:K-Means算法中的初始中心點(diǎn),錯(cuò)誤的描述是選項(xiàng):A、可隨意設(shè)置B、必須在每個(gè)簇的真實(shí)中心點(diǎn)的附近C、直接影響算法的收斂結(jié)果D、不可隨意設(shè)置正確答案:【可隨意設(shè)置#必須在每個(gè)簇的真實(shí)中心點(diǎn)的附近】87、問題:數(shù)據(jù)挖掘過(guò)程即將數(shù)據(jù)轉(zhuǎn)換為知識(shí)的過(guò)程選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】88、問題:數(shù)據(jù)清洗即將來(lái)自多個(gè)數(shù)據(jù)源的數(shù)據(jù)組合成一個(gè)連貫的數(shù)據(jù)源選項(xiàng):A、正確B、錯(cuò)誤正確答案:【錯(cuò)誤】89、問題:分類是監(jiān)督式機(jī)器學(xué)習(xí)。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】90、問題:分類分析主要包括二個(gè)步驟:學(xué)習(xí)建模、分類測(cè)試。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】91、問題:聚類是監(jiān)督式機(jī)器學(xué)習(xí)。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【錯(cuò)誤】92、問題:直方圖用來(lái)顯示兩組數(shù)據(jù)的相關(guān)性分布選項(xiàng):A、正確B、錯(cuò)誤正確答案:【錯(cuò)誤】93、問題:聚類分析可以看作是一種非監(jiān)督的分類。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】94、問題:數(shù)據(jù)挖掘的目標(biāo)不在于數(shù)據(jù)采集策略,而在于對(duì)于已經(jīng)存在的數(shù)據(jù)進(jìn)行模式的發(fā)掘。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】95、問題:關(guān)聯(lián)規(guī)則挖掘過(guò)程是發(fā)現(xiàn)滿足最小支持度的所有項(xiàng)集代表的規(guī)則。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【錯(cuò)誤】96、問題:聚類(clustering)是這樣的過(guò)程:它找出描述并區(qū)分?jǐn)?shù)據(jù)類或概念的模型(或函數(shù)),以便能夠使用模型預(yù)測(cè)類標(biāo)記未知的對(duì)象類。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【錯(cuò)誤】97、問題:如果一個(gè)對(duì)象不屬于任何簇,那么該對(duì)象是基于聚類的離群點(diǎn)。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】98、問題:熵衡量的是系統(tǒng)的不確定性,熵值越大(接近于1)說(shuō)明系統(tǒng)的不確定性越低。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【錯(cuò)誤】99、問題:具有較高的支持度的項(xiàng)集具有較高的置信度。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【錯(cuò)誤】100、問題:在聚類分析當(dāng)中,簇內(nèi)的相似性越大,簇間的差別越大,聚類的效果就越差。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【錯(cuò)誤】101、問題:皮爾遜相關(guān)系數(shù)可用來(lái)判斷X和Y之間的因果關(guān)系。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【錯(cuò)誤】102、問題:在決策樹中,隨著樹中結(jié)點(diǎn)數(shù)變得太大,即使模型的訓(xùn)練誤差還在繼續(xù)減低,但是檢驗(yàn)誤差開始增大,這是出現(xiàn)了模型擬合不足的問題。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【錯(cuò)誤】103、問題:給定由兩次運(yùn)行K均值產(chǎn)生的兩個(gè)不同的簇集,誤差的平方和最大的那個(gè)應(yīng)該被視為較優(yōu)。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【錯(cuò)誤】104、問題:離群點(diǎn)可以是合法的數(shù)據(jù)對(duì)象或者值。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】105、問題:“飛機(jī)必須飛得比山高”表示智慧。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】106、問題:所謂高維數(shù)據(jù),指的是數(shù)據(jù)屬性很多。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】107、問題:所謂特征選擇,是指從數(shù)據(jù)中,選擇有代表性的屬性。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】108、問題:一組數(shù)據(jù)的均值為54,000,標(biāo)準(zhǔn)差為16,000,則73,000規(guī)范化的值為0.1875。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【錯(cuò)誤】109、問題:假設(shè)兩只股票A和B具有在1個(gè)星期的以下值:(2,5),(3,8),(5,10),(4,11),(6,14)。如果股票都受到同行業(yè)的趨勢(shì),他們的價(jià)格協(xié)方差是1.2。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【錯(cuò)誤】110、問題:一維空間的7個(gè)點(diǎn)123891025,根據(jù)劃分方法聚類質(zhì)量評(píng)價(jià)準(zhǔn)則,設(shè)置k為2時(shí),(1,2,3)(8,9,10,25)聚類的系數(shù)E值為34.5。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【錯(cuò)誤】111、問題:一維空間的7個(gè)點(diǎn)123891025,根據(jù)劃分方法聚類質(zhì)量評(píng)價(jià)準(zhǔn)則,設(shè)置k為2時(shí),(1,2,3,8)(9,10,25)聚類的系數(shù)E值為13.9。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【錯(cuò)誤】112、問題:一所學(xué)校里面有60%的男生(boy),40%的女生(girl)。男生總是穿長(zhǎng)褲(pants),女生則一半穿長(zhǎng)褲一半穿裙子。隨機(jī)選取一個(gè)穿長(zhǎng)褲的學(xué)生,他(她)是女生的概率是0.5。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【錯(cuò)誤】113、問題:對(duì)于決策樹,某一屬性劃分的一個(gè)分支中包含C1類別的數(shù)據(jù)有0條,C2類別的數(shù)據(jù)有6條,請(qǐng)計(jì)算該屬性劃分時(shí),該分支的數(shù)據(jù)信息熵值為0。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】114、問題:對(duì)于決策樹,某一屬性劃分的一個(gè)分支中包含C1類別的數(shù)據(jù)有3條,C2類別的數(shù)據(jù)有3條,請(qǐng)計(jì)算該屬性劃分時(shí),該分支的數(shù)據(jù)信息熵值為1。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】115、問題:對(duì)于決策樹,某一屬性劃分的一個(gè)分支中包含C1類別的數(shù)據(jù)有0條,C2類別的數(shù)據(jù)有6條,請(qǐng)計(jì)算該屬性劃分時(shí),該分支的數(shù)據(jù)基尼GINI值為0.5。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【錯(cuò)誤】116、問題:對(duì)于決策樹,某一屬性劃分的一個(gè)分支中包含C1類別的數(shù)據(jù)有3條,C2類別的數(shù)據(jù)有3條,請(qǐng)計(jì)算該屬性劃分時(shí),該分支的數(shù)據(jù)基尼GINI值為0.5。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】117、問題:對(duì)于決策樹,某一屬性劃分的一個(gè)分支中包含C1類別的數(shù)據(jù)有0條,C2類別的數(shù)據(jù)有6條,請(qǐng)計(jì)算該屬性劃分時(shí),該分支的數(shù)據(jù)分類錯(cuò)誤ClassificationError值為0。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】118、問題:對(duì)于決策樹,某一屬性劃分的一個(gè)分支中包含C1類別的數(shù)據(jù)有3條,C2類別的數(shù)據(jù)有3條,請(qǐng)計(jì)算該屬性劃分時(shí),該分支的數(shù)據(jù)分類錯(cuò)誤ClassificationError值為0。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【錯(cuò)誤】119、問題:當(dāng)不知道數(shù)據(jù)所帶標(biāo)簽時(shí),可以使用分類技術(shù)促使帶同類標(biāo)簽的數(shù)據(jù)與帶其他標(biāo)簽的數(shù)據(jù)相分離。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【錯(cuò)誤】120、問題:決策樹模型中應(yīng)處理連續(xù)型屬性數(shù)據(jù)的方法之一為:根據(jù)信息增益選擇閾值進(jìn)行離散化。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】121、問題:某超市研究銷售紀(jì)錄數(shù)據(jù)后發(fā)現(xiàn),買面包的人很大概率也會(huì)購(gòu)買牛奶,這種屬于數(shù)據(jù)挖掘的聚類問題。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【錯(cuò)誤】122、問題:標(biāo)稱類型數(shù)據(jù)的可以計(jì)算其均值。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【錯(cuò)誤】123、問題:區(qū)間標(biāo)度類型數(shù)據(jù)的可以計(jì)算其均值。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】124、問題:比率標(biāo)度類型數(shù)據(jù)的可以
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 英語(yǔ)-山東省淄博市濱州市2024-2025學(xué)年度2025屆高三模擬考試(淄博濱州一模)試題和答案
- (一模)萍鄉(xiāng)市2025年高三第一次模擬考試語(yǔ)文試卷(含答案解析)
- 防撞護(hù)角施工方案
- 第十課 《數(shù)據(jù)可視化》教學(xué)設(shè)計(jì) 2023-2024學(xué)年浙教版(2020)初中信息技術(shù)七年級(jí)上冊(cè)
- 分揀工人勞務(wù)合同范本
- 認(rèn)知治療模式
- 鄉(xiāng)下老宅轉(zhuǎn)讓合同范例
- 班級(jí)社會(huì)實(shí)踐活動(dòng)的總結(jié)與反思計(jì)劃
- 班級(jí)合作項(xiàng)目實(shí)施計(jì)劃
- 后勤保障部服務(wù)質(zhì)量提升總結(jié)計(jì)劃
- 枯死松樹清理服務(wù)投標(biāo)方案(完整技術(shù)標(biāo))
- MOOC 針灸學(xué)-經(jīng)絡(luò)養(yǎng)生與康復(fù)-暨南大學(xué) 中國(guó)大學(xué)慕課答案
- 第4課 中古時(shí)期的亞洲(教學(xué)課件)-【中職專用】《世界歷史》同步課堂(同課異構(gòu))(高教版2023?基礎(chǔ)模塊)
- 《監(jiān)理企業(yè)安全責(zé)任清單(2.0版)參考模板》
- 團(tuán)隊(duì)統(tǒng)一思想培訓(xùn)
- 小區(qū)停車收費(fèi)方案
- 經(jīng)橈動(dòng)脈腦血管造影術(shù)前術(shù)后護(hù)理
- 《讓我們的家更美好》教學(xué)設(shè)計(jì)
- 提升漁業(yè)與水產(chǎn)養(yǎng)殖技術(shù)的高效養(yǎng)殖模式
- 裝飾公司小區(qū)團(tuán)購(gòu)活動(dòng)策劃
- 曲率系數(shù)不均勻系數(shù)自動(dòng)計(jì)算
評(píng)論
0/150
提交評(píng)論