大數(shù)據(jù)與人工智能知到智慧樹章節(jié)測試課后答案2024年秋哈爾濱商業(yè)大學(xué)_第1頁
大數(shù)據(jù)與人工智能知到智慧樹章節(jié)測試課后答案2024年秋哈爾濱商業(yè)大學(xué)_第2頁
大數(shù)據(jù)與人工智能知到智慧樹章節(jié)測試課后答案2024年秋哈爾濱商業(yè)大學(xué)_第3頁
大數(shù)據(jù)與人工智能知到智慧樹章節(jié)測試課后答案2024年秋哈爾濱商業(yè)大學(xué)_第4頁
大數(shù)據(jù)與人工智能知到智慧樹章節(jié)測試課后答案2024年秋哈爾濱商業(yè)大學(xué)_第5頁
免費預(yù)覽已結(jié)束,剩余6頁可下載查看

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

大數(shù)據(jù)與人工智能知到智慧樹章節(jié)測試課后答案2024年秋哈爾濱商業(yè)大學(xué)第一章單元測試

在數(shù)據(jù)量單位中,1PB等于()。

A:2048TBB:256TBC:512TBD:1024TB

答案:1024TB大數(shù)據(jù)的最終價值體現(xiàn)(

)。

A:實踐B:技術(shù)C:思想D:理論

答案:實踐人工智能起源于()。

A:50-60年代B:40-50年代C:60-70年代D:70-80年代

答案:50-60年代被稱為XCON的“專家系統(tǒng)”是由()發(fā)明。

A:哈佛大學(xué)B:麻省理工學(xué)院C:卡內(nèi)基梅隆大學(xué)D:牛津大學(xué)

答案:卡內(nèi)基梅隆大學(xué)大數(shù)據(jù)具有4V特點包括()。

A:精確B:高速C:密度高D:多樣E:大量

答案:精確;高速;多樣;大量自然語言處理包括()。

A:解碼B:翻譯C:理解D:編碼E:解析

答案:解碼;編碼在大數(shù)據(jù)時代,經(jīng)常使用的數(shù)據(jù)量衡量單位為TB。

A:錯B:對

答案:錯模式識別就是通過計算機用數(shù)學(xué)技術(shù)方法來研究模式的自動處理和判讀。

A:對B:錯

答案:對機器學(xué)習(xí)主要研究如何使計算機能夠模擬或?qū)崿F(xiàn)人類的學(xué)習(xí)功能。

A:對B:錯

答案:對在分布式人工智能系統(tǒng)中,每一個Agent又是一個全自治系統(tǒng)。

A:錯B:對

答案:錯

第二章單元測試

數(shù)據(jù)的多樣性包括()。

A:數(shù)據(jù)表達方式的多樣性B:數(shù)據(jù)格式的多樣性C:數(shù)據(jù)內(nèi)容的多樣性D:數(shù)據(jù)來源的多樣性E:數(shù)據(jù)用途的多樣性

答案:數(shù)據(jù)格式的多樣性;數(shù)據(jù)來源的多樣性;數(shù)據(jù)用途的多樣性最普通也是最常見的數(shù)據(jù)類型是()。

A:圖片B:視頻數(shù)據(jù)C:音頻數(shù)據(jù)D:文本

答案:文本將不同數(shù)據(jù)源的數(shù)據(jù)自動收集到一個裝置中是指()。

A:數(shù)據(jù)獲取B:數(shù)據(jù)建模C:數(shù)據(jù)存儲D:數(shù)據(jù)清洗

答案:數(shù)據(jù)獲取數(shù)據(jù)分析,是指從海量的數(shù)據(jù)中利用數(shù)據(jù)挖掘的方法,獲取有用的有價值的數(shù)據(jù)信息。

A:錯B:對

答案:對數(shù)據(jù)量測方法有()。

A:定時式B:變化地點C:接觸式D:變化周期E:非接觸式

答案:接觸式;非接觸式直接附加存儲的英文縮寫是()。

A:DASB:BASC:NASD:SAN

答案:DAS企業(yè)的數(shù)據(jù)處理大致分為()。

A:數(shù)據(jù)編輯B:操作性處理C:分析性處理D:測試性處理E:數(shù)據(jù)庫處理

答案:操作性處理;分析性處理數(shù)據(jù)倉庫特點包括()。

A:面向主題B:歷史性C:企業(yè)范圍D:時變性E:集成性

答案:面向主題;歷史性;企業(yè)范圍;時變性;集成性分箱方法包括()。

A:回歸B:用戶自定義區(qū)間C:等深分箱法D:等寬分箱法E:遞歸

答案:用戶自定義區(qū)間;等深分箱法;等寬分箱法數(shù)據(jù)規(guī)約的途徑包括()。

A:特征歸約B:屬性選擇C:數(shù)據(jù)采樣D:特征值歸約E:樣本歸約

答案:屬性選擇;數(shù)據(jù)采樣

第三章單元測試

學(xué)習(xí)與發(fā)現(xiàn)是指機器的知識學(xué)習(xí)和規(guī)律發(fā)現(xiàn)。

A:對B:錯

答案:對系統(tǒng)與建造包括()。

A:實現(xiàn)語言工具與環(huán)境B:智能系統(tǒng)的分類C:知識與推理D:硬/軟件體系結(jié)構(gòu)E:設(shè)計方法

答案:實現(xiàn)語言工具與環(huán)境;智能系統(tǒng)的分類;硬/軟件體系結(jié)構(gòu);設(shè)計方法遺傳算法采用概率化的尋優(yōu)方法,能自動獲取和指導(dǎo)優(yōu)化的搜索空間,自適應(yīng)地調(diào)整搜索方向,不需要確定的規(guī)則。

A:對B:錯

答案:對遺傳算法的局限性()。

A:編碼不規(guī)范及編碼存在表示的不準確性。B:遺傳算法對算法的精度、可信度、計算復(fù)雜性等方面,還沒有有效的定量分析方法。C:遺傳算法通常的效率比其他傳統(tǒng)的優(yōu)化方法低。D:單一的遺傳算法編碼不能全面地將優(yōu)化問題的約束表示出來。E:遺傳算法容易出現(xiàn)過早收斂。

答案:編碼不規(guī)范及編碼存在表示的不準確性。;遺傳算法對算法的精度、可信度、計算復(fù)雜性等方面,還沒有有效的定量分析方法。;遺傳算法通常的效率比其他傳統(tǒng)的優(yōu)化方法低。;單一的遺傳算法編碼不能全面地將優(yōu)化問題的約束表示出來。;遺傳算法容易出現(xiàn)過早收斂。遺傳算法在整個進化過程中的遺傳操作不是隨機的。

A:對B:錯

答案:錯遺傳算法中最常用的一種編碼方法()。

A:三十二進制B:十六進制C:十進制D:二進制

答案:二進制遺傳算法中選擇操作通過適應(yīng)度選擇優(yōu)質(zhì)個體而拋棄劣質(zhì)個體,體現(xiàn)了“適者生存”的原理。

A:錯B:對

答案:對蟻群算法是受自然界中真實蟻群算法的集體覓食行為的啟發(fā)而發(fā)展起來的一種基于群體的模擬進化算法。

A:對B:錯

答案:對群智能算法與梯度方法及傳統(tǒng)的演化算法相比,其優(yōu)點在于()。

A:并行分布式算法模型,可充分利用多處理器B:對問題定義的連續(xù)性無特殊要求C:無集中控制約束D:算法實現(xiàn)簡單E:以非直接的信息交流方式確保了系統(tǒng)的擴展性

答案:并行分布式算法模型,可充分利用多處理器;對問題定義的連續(xù)性無特殊要求;無集中控制約束;算法實現(xiàn)簡單;以非直接的信息交流方式確保了系統(tǒng)的擴展性蟻群算法最早解決的問題是()。

A:最大流問題B:最短路問題C:圖像識別問題D:旅行商問題

答案:旅行商問題

第四章單元測試

關(guān)聯(lián)規(guī)則是形如X→Y的蘊涵式,表示通過X可以推導(dǎo)“得到”Y。

A:對B:錯

答案:對關(guān)聯(lián)規(guī)則A->B的支持度support=P(AB),指的是(

)。

A:事件B發(fā)生的概率。B:發(fā)生事件A的基礎(chǔ)上發(fā)生事件B的概率。C:事件A發(fā)生的概率。D:事件A和事件B同時發(fā)生的概率。

答案:事件A和事件B同時發(fā)生的概率。置信度confidence=P(B|A)=P(AB)/P(A),指的是(

)。

A:事件B發(fā)生的概率。B:事件A和事件B同時發(fā)生的概率。C:事件A發(fā)生的概率。D:發(fā)生事件A的基礎(chǔ)上發(fā)生事件B的概率。

答案:發(fā)生事件A的基礎(chǔ)上發(fā)生事件B的概率。關(guān)聯(lián)規(guī)則的執(zhí)行過程包括(

)。

A:對數(shù)據(jù)進處理B:由頻繁項集產(chǎn)生強規(guī)則C:對數(shù)據(jù)進行加工D:總結(jié)分析E:找出所有的頻繁項集

答案:由頻繁項集產(chǎn)生強規(guī)則;找出所有的頻繁項集()采用自底向上的聚類方法,從最底層開始,每一次通過合并最相似的聚類來形成上一層次中的聚類,當全部數(shù)據(jù)點都合并到一個聚類時或者達到某個終止條件時結(jié)束,是大部分層次聚類采用的方法。

A:基于密度的聚類算法B:基于劃分的算法C:分裂的層次聚類D:合并的層次聚類

答案:合并的層次聚類K-Means算法中選擇較大的K值可以降低數(shù)據(jù)的誤差,并不會增加過擬合的風險。

A:錯B:對

答案:錯在降維技術(shù)方面,LDA的中文含義是(

)。

A:特征選擇技術(shù)B:線性判別方法C:數(shù)據(jù)壓縮技術(shù)D:主成分分析

答案:線性判別方法LDA降維和PCA降維的不同之處包括(

)。

A:兩者在降維時特征分解的思想不同B:LDA除了可以用于降維,還可以用于分類C:LDA是有監(jiān)督的降維方法,而PCA是無監(jiān)督的降維方法D:LDA降維最多降到k-1維,而PCA沒有這個限制E:LDA選擇分類性能最好的投影方向,而PCA選擇樣本點投影具有最大方差的方向

答案:LDA除了可以用于降維,還可以用于分類;LDA是有監(jiān)督的降維方法,而PCA是無監(jiān)督的降維方法;LDA降維最多降到k-1維,而PCA沒有這個限制;LDA選擇分類性能最好的投影方向,而PCA選擇樣本點投影具有最大方差的方向()方法的思想將子集的選擇看作是一個搜索尋優(yōu)問題,生成不同的組合,對組合進行評價,再與其他的組合進行比較。

A:Fisher方法B:LDA方法C:Wrapper方法D:Filter方法

答案:Wrapper方法()常考慮的是同質(zhì)弱學(xué)習(xí)器,相互獨立地并行學(xué)習(xí)這些弱學(xué)習(xí)器,并按照某種確定性的平均過程將它們組合起來。

A:boostingB:baggingC:wrapperingD:stacking

答案:bagging

第五章單元測試

機器學(xué)習(xí)是深度學(xué)習(xí)的一個分支。

A:對B:錯

答案:錯感知機不能解決異或問題。

A:錯B:對

答案:對LSTM模型不能應(yīng)用于自然語言處理。

A:對B:錯

答案:錯100層以上的網(wǎng)絡(luò)才叫深度網(wǎng)絡(luò)。

A:對B:錯

答案:錯卷積神經(jīng)網(wǎng)絡(luò)相鄰兩層之間只有部分節(jié)點相連。

A:錯B:對

答案:對感受野是特征圖上的一個點對應(yīng)的輸入圖上的區(qū)域。

A:對B:錯

答案:對VGG提出可以通過重復(fù)使用簡單的基礎(chǔ)模塊來構(gòu)建深度模型的思路。

A:對B:錯

答案:對深度學(xué)習(xí)在CV領(lǐng)域的應(yīng)用包括檢測和分割。

A:錯B:對

答案:對深度學(xué)習(xí)無法應(yīng)用在漁業(yè)養(yǎng)殖領(lǐng)域。

A:對B:錯

答案:錯機器翻譯不會取代人工翻譯。

A:對B:錯

答案:對

第六章單元測試

Hadoop是一個由()開發(fā)的大數(shù)據(jù)分布式系統(tǒng)基礎(chǔ)架構(gòu)。

A:Apache基金會B:谷歌C:蘋果D:IBM

答案:Apache基金會Hadoop是一個數(shù)據(jù)管理系統(tǒng),作為數(shù)據(jù)分析的核心,匯集了結(jié)構(gòu)化和非結(jié)構(gòu)化的數(shù)據(jù)。

A:錯B:對

答案:對通常一個HDFS集群中包含()。

A:一個名稱節(jié)點B:一個主節(jié)點C:數(shù)據(jù)節(jié)點D:若干分枝節(jié)點E:第二名字節(jié)點

答案:一個名稱節(jié)點;數(shù)據(jù)節(jié)點;第二名字節(jié)點名字節(jié)點保存源信息的種類有()。

A:每個文件塊的名及文件由哪些塊組成B:數(shù)據(jù)類型C:文件類型D:文件名目錄名及它們之間的層級關(guān)系E:文件目錄的所有者及其權(quán)限

答案:每個文件塊的名及文件由哪些塊組成;文件名目錄名及它們之間的層級關(guān)系;文件目錄的所有者及其權(quán)限()角色就是定期的合并元數(shù)據(jù)信息文件和元數(shù)據(jù)操作日志。

A:主節(jié)點B:數(shù)據(jù)節(jié)點C:第2名字節(jié)點D:名稱節(jié)點

答案:第2名字節(jié)點Mapreduce的運行機制,按照時間順序包括()。

A:輸入分片B:reduce階段C:combiner階段D:map階段E:shuffle階段

答案:輸入分片;reduce階段;combiner階段;map階段;shuffle階段()是在服務(wù)器集群上搭建Hadoop,更接近真實的生產(chǎn)環(huán)境。

A:全分布模式B:偽分布模

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論