奧鵬南開20春學(xué)期1709、1803、1809、1903、1909、2003數(shù)據(jù)科學(xué)導(dǎo)論在線作業(yè)隨機_第1頁
奧鵬南開20春學(xué)期1709、1803、1809、1903、1909、2003數(shù)據(jù)科學(xué)導(dǎo)論在線作業(yè)隨機_第2頁
奧鵬南開20春學(xué)期1709、1803、1809、1903、1909、2003數(shù)據(jù)科學(xué)導(dǎo)論在線作業(yè)隨機_第3頁
奧鵬南開20春學(xué)期1709、1803、1809、1903、1909、2003數(shù)據(jù)科學(xué)導(dǎo)論在線作業(yè)隨機_第4頁
奧鵬南開20春學(xué)期1709、1803、1809、1903、1909、2003數(shù)據(jù)科學(xué)導(dǎo)論在線作業(yè)隨機_第5頁
已閱讀5頁,還剩5頁未讀 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認(rèn)領(lǐng)

文檔簡介

1、1. 以下屬于關(guān)聯(lián)分析的是( )A.CPU性能預(yù)測B.購物籃分析C.自動判斷鶯尾花類別D.股票趨勢建?!緟⒖即鸢浮? B2. 哪一項不屬于規(guī)范化的方法()A.最小-最大規(guī)范化B.零-均值規(guī)范化C.小數(shù)定標(biāo)規(guī)范化D.中位數(shù)規(guī)范化【參考答案】: D3. 實體識別屬于以下哪個過程()A.數(shù)據(jù)清洗B.數(shù)據(jù)集成C.數(shù)據(jù)規(guī)約D.數(shù)據(jù)變換【參考答案】: B4. 具有偏差和至少() 個 S 型隱含層加上一個() 輸出層的網(wǎng)絡(luò)能夠逼近任何有理數(shù)。A.1, 線性B.2, 線性C.1, 非線性D.2, 非線性【參考答案】: A5. 某超市研究銷售紀(jì)錄數(shù)據(jù)后發(fā)現(xiàn), 買啤酒的人很大概率也會購買尿布這種屬于數(shù)據(jù)挖掘的哪類

2、問題?()A.關(guān)聯(lián)規(guī)則發(fā)現(xiàn)B.聚類 C.分類 D.自然語言處理【參考答案】: A6. 層次聚類適合規(guī)模較() 的數(shù)據(jù)集A.大 B.中 C.小 D.所有7. 下面不是分類的常用方法的有()A.K近鄰法B.樸素貝葉斯C.決策樹 D.條件隨機場【參考答案】: D8. BFR聚類用于在()歐氏空間中對數(shù)據(jù)進行聚類A.高維 B.中維 C.低維 D.中高維【參考答案】: A9. 只有非零值才重要的二元屬性被稱作:( ), 其中購物籃數(shù)據(jù)就屬于這種屬性。A.計數(shù)屬性B.離散屬性C.非對稱的二元屬性#對稱屬性【參考答案】: C10. 為了解決任何復(fù)雜的分類問題, 使用的感知機結(jié)構(gòu)應(yīng)至少包含() 個隱含層。A.

3、1B.2C.3D.4【參考答案】: B11. 在回歸分析中, 自變量為(), 因變量為() 。A.離散型變量,離散型變量B.連續(xù)型變量,離散型變量C.離散型變量,連續(xù)型變量D.連續(xù)型變量,連續(xù)型變量【參考答案】: D12. 維克托?邁爾-舍恩伯格在大數(shù)據(jù)時代: 生活、 工作與思維的大變革一書中 , 持續(xù)強調(diào)了一個觀點: 大數(shù)據(jù)時代的到來, 使我們無法人為地去發(fā)現(xiàn)數(shù)據(jù)中的奧妙, 與此同時, 我們更應(yīng)該注重數(shù)據(jù)中的相關(guān)關(guān)系, 而不是因果關(guān)系。其中, 數(shù)據(jù)之間的相關(guān)關(guān)系可以通過以下哪個算法直接挖掘 ( )A.K-means B.Bayes Network C.C4.5 D.Apriori【參考答案】

4、: D13. 一元線性回歸中, 真實值與預(yù)測值的差稱為樣本的() 。A.誤差 B.方差 C.測差 D.殘差【參考答案】: D14. 以下哪個不是處理缺失值的方法()A.刪除記錄B.按照一定原則補充C.不處理D.隨意填寫【參考答案】: D15. 數(shù)據(jù)庫中相關(guān)聯(lián)的兩張表都存儲了用戶的個人信息, 但在用戶的個人信息發(fā)生改變時只更新了一張表中的數(shù)據(jù), 這時兩張表中就有了不一致的數(shù)據(jù), 這屬于 ()A.異常值B.缺失值C.不一致的值D.重復(fù)值【參考答案】: C16. 根據(jù)映射關(guān)系的不同可以分為線性回歸和() 。B.非線性回歸C.邏輯回歸 D.多元回歸A. 對數(shù)回歸17. 在 k 近鄰法中, 選擇較小的k

5、 值時 , 學(xué)習(xí)的 “近似誤差”會 (), “估計誤差”會 () 。A.減小,減小 B.減小,增大 C.增大,減小 D.增大,增大【參考答案】: B18. 考慮下面的頻繁3- 項集的集 合 :1,2,3,1,2,4,1,2,5,1,3,4,1,3,5,2,3,4,2,3,5,3,4,5 假定數(shù)據(jù)集中只有5 個項 , 采用 合并策略, 由候選產(chǎn)生過程得到4- 項集不包含()A.1,2,3,4B.1,2,3,5C.1,2,4,5D.1,3,4,5【參考答案】: C19. 單層感知機模型屬于() 模型。A.二分類的線性分類模型B.二分類的非線性分類模型C.多分類的線性分類模型D. 多分類的非線性分類

6、模型【參考答案】: A20. 特征選擇的四個步驟中不包括()A.子集產(chǎn)生B.子集評估C.子集搜索D.子集驗證【參考答案】: C21. 對于多層感知機,() 層擁有激活函數(shù)的功能神經(jīng)元。A.輸入層B.隱含層C.輸出層【參考答案】: BC22. Apriori 算法的計算復(fù)雜度受() 影響。A.支持度閾值B.項數(shù) C.事務(wù)數(shù) D.事務(wù)平均寬度【參考答案】: ABCD23. 一元回歸參數(shù)估計的參數(shù)求解方法有() 。A.最大似然法B.距估計法C.最小二乘法D.歐式距離法【參考答案】: ABC24. 層次聚類的方法是()A.聚合方法B.分拆方法C.組合方法D.比較方法【參考答案】: AB25. 相關(guān)性的

7、分類, 按照相關(guān)的方向可以分為() 。A.正相關(guān)B.負(fù)相關(guān)C.左相關(guān) D.右相關(guān)【參考答案】: AB26. 數(shù)據(jù)科學(xué)具有哪些性質(zhì)()A.有效性B.可用性C.未預(yù)料 D.可理解【參考答案】: ABCD27. k 近鄰法的基本要素包括() 。A.距離度量 B.k值的選擇C.樣本大小D.分類決策規(guī)則【參考答案】: ABD28. 下列選項是BFR的對象是()A.廢棄集B.臨時集C.壓縮集 D.留存集【參考答案】: ACD29. 什么情況下結(jié)點不用劃分()A.當(dāng)前結(jié)點所包含的樣本全屬于同一類別B.當(dāng)前屬性集為空,或是所有樣本在所有屬性上取值相同C.當(dāng)前結(jié)點包含的樣本集為空D.還有子集不能被基本正確分類【

8、參考答案】: ABC30. 系統(tǒng)日志收集的基本特征有()A.高可用性B.高可靠性C.可擴展性 D.高效率【參考答案】: ABC31. 在一元線性回歸中, 輸入只包含一個單獨的特征。T. 對 F. 錯【參考答案】: T32.sigmoid 函數(shù)屬于階躍函數(shù), 是神經(jīng)網(wǎng)絡(luò)中常見的激活函數(shù)。T. 對 F. 錯【參考答案】: F33. 多層感知機的學(xué)習(xí)能力有限, 只能處理線性可分的二分類問題。T. 對 F. 錯【參考答案】: F34.BFR聚類簇的坐標(biāo)可以與空間的坐標(biāo)保持一致。T. 對 F. 錯【參考答案】: F35 . 支持度是衡量關(guān)聯(lián)規(guī)則重要性的一個指標(biāo)。T. 對 F. 錯【參考答案】: T36

9、.利用K近鄰法進行分類時,使用不同的距離度量所確定的最近鄰點 都是相同的。T. 對 F. 錯【參考答案】: F37. 信息熵越小, 樣本結(jié)合的純度越低T. 對 F. 錯【參考答案】: F38. 在數(shù)據(jù)預(yù)處理時, 無論什么情況, 都可以直接將異常值刪除T. 對 F. 錯【參考答案】: F39. 決策樹的輸入為訓(xùn)練集, 輸出為以node 為根結(jié)點的一棵決策樹T. 對 F. 錯【參考答案】: T40. 單層感知機對于線性不可分的數(shù)據(jù), 學(xué)習(xí)過程也可以收斂。T. 對 F. 錯【參考答案】: F41. 樸素貝葉斯分類器有簡單、高效、 健壯的特點, 但某些屬性可能會降低分類器的性能T. 對 F. 錯【參考

10、答案】: T42. 隨著特征維數(shù)的增加, 樣本間區(qū)分度提高。T. 對 F. 錯【參考答案】: F43. 選擇較小的k 值 , 相當(dāng)于用較小的鄰域中的訓(xùn)練實例進行預(yù)測, 學(xué)習(xí)的“近似誤差”會減小 , “估計誤差”會增大 , 預(yù)測結(jié)果會對近鄰的點實例點非常敏感。T. 對 F. 錯【參考答案】: T44. 一般而言, 信息增益越大, 則意味著使用屬性a 來進行劃分所獲得的“純度提升越大”, 因此我們可用信息增益來進行決策樹的最優(yōu)特征選擇。T. 對 F. 錯【參考答案】: T45. 決策樹內(nèi)部結(jié)點表示一個類, 葉結(jié)點表示一個特征或?qū)傩訲. 對 F. 錯【參考答案】: F46. 為了更加準(zhǔn)確地描述變量之間的線性相關(guān)程度, 可以通過計算相關(guān)系數(shù)來進行相關(guān)分析。T. 對 F. 錯【參考答案】: T47. K均值(K-Means)算法是密度聚類。T. 對 F. 錯【參考答案】: F48.

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論