大數(shù)據(jù)分析與預(yù)測技術(shù)智慧樹知到期末考試答案2024年_第1頁
大數(shù)據(jù)分析與預(yù)測技術(shù)智慧樹知到期末考試答案2024年_第2頁
大數(shù)據(jù)分析與預(yù)測技術(shù)智慧樹知到期末考試答案2024年_第3頁
大數(shù)據(jù)分析與預(yù)測技術(shù)智慧樹知到期末考試答案2024年_第4頁
大數(shù)據(jù)分析與預(yù)測技術(shù)智慧樹知到期末考試答案2024年_第5頁
已閱讀5頁,還剩1頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

大數(shù)據(jù)分析與預(yù)測技術(shù)智慧樹知到期末考試答案2024年大數(shù)據(jù)分析與預(yù)測技術(shù)關(guān)于NameNode和SecondaryNameNode的說法錯(cuò)誤的是

A:協(xié)議的容器是jettyB:NameNode上實(shí)現(xiàn)的NamenodeProtocol用于二者命令通信C:數(shù)據(jù)的通信使用的是ftp協(xié)議(http協(xié)議)D:數(shù)據(jù)通信使用的是http協(xié)議答案:數(shù)據(jù)的通信使用的是ftp協(xié)議(http協(xié)議)當(dāng)采用K-距離的方法選擇DBSCAN的Eps和MinPts參數(shù)時(shí),如果設(shè)置的K的值太大,則小簇(尺寸小于K的簇)可能會(huì)被標(biāo)記為

A:邊界簇B:核心簇C:其他選項(xiàng)都不對D:噪聲答案:噪聲人工智能、機(jī)器學(xué)習(xí)、深度學(xué)習(xí)的包含關(guān)系是?

A:人工智能>機(jī)器學(xué)習(xí)>深度學(xué)習(xí)B:人工智能>深度學(xué)習(xí)>機(jī)器學(xué)習(xí)C:機(jī)器學(xué)習(xí)>深度學(xué)習(xí)>人工智能D:深度學(xué)習(xí)>人工智能>機(jī)器學(xué)習(xí)答案:人工智能機(jī)器學(xué)習(xí)深度學(xué)習(xí)自然語言處理難點(diǎn)目前有四大類,下列選項(xiàng)中不是其中之一的是?

A:語境B:語言歧義性C:機(jī)器性能D:知識(shí)依賴答案:機(jī)器性能以下決策樹說法錯(cuò)誤的是哪個(gè)

A:相對于神經(jīng)網(wǎng)絡(luò),決策樹可解釋性好,而且訓(xùn)練效率高。B:決策樹的過擬合時(shí)因?yàn)闃涞纳疃缺容^大引起,因此可以限制分支的最小樣本數(shù)或控制樹的深度解決。C:決策樹中沒有出現(xiàn)的屬性是對分類無用的。D:決策樹算法對樣本的噪聲非常敏感,少數(shù)噪聲可能引起決策樹的很大變化。答案:決策樹中沒有出現(xiàn)的屬性是對分類無用的。DBSCAN之所以難以有效處理高維數(shù)據(jù),其主要原因是?

A:簇的大小未知B:數(shù)據(jù)的形狀太復(fù)雜C:開銷過大D:噪聲點(diǎn)過多答案:開銷過大在Spark的軟件棧中,用于機(jī)器學(xué)習(xí)的是?

A:SparkStreamingB:GraphXC:Mllib答案:Mllib有關(guān)基于關(guān)聯(lián)規(guī)則的推薦的說法,錯(cuò)誤的是哪個(gè)?

A:基于關(guān)聯(lián)規(guī)則的推薦主要是基于相似客戶群體的推薦。B:關(guān)聯(lián)推薦是一種基于物品之間因果關(guān)系的推薦方法。C:關(guān)聯(lián)規(guī)則用于推薦實(shí)質(zhì)上是一種基于用戶的協(xié)同推薦。D:關(guān)聯(lián)規(guī)則的推薦算法常用的有Apriori和FP樹增長等算法。答案:關(guān)聯(lián)推薦是一種基于物品之間因果關(guān)系的推薦方法。DBSCAN算法的過程是以下哪個(gè)?①刪除噪聲點(diǎn)。②每組連通的核心點(diǎn)形成一個(gè)簇。③將所有點(diǎn)標(biāo)記為核心點(diǎn)、邊界點(diǎn)和噪聲點(diǎn)。④將每個(gè)邊界點(diǎn)指派到一個(gè)與之關(guān)聯(lián)的核心點(diǎn)的簇中。⑤為距離在Eps之內(nèi)的所有核心點(diǎn)之間賦予一條邊。

A:①②④⑤③B:③①⑤②④C:③①②④⑤D:①④⑤②③答案:③①⑤②④大數(shù)據(jù)分析將出現(xiàn)革命性的新方法,從前的很多算法和基礎(chǔ)理論可能會(huì)產(chǎn)生理論級(jí)別的突破。而哪項(xiàng)技術(shù)將繼續(xù)成為大數(shù)據(jù)智能分析的核心技術(shù)?

A:智能終端B:智能物流C:機(jī)器學(xué)習(xí)D:腦科學(xué)答案:機(jī)器學(xué)習(xí)mapreduce計(jì)算模型適用于哪種任務(wù)?

A:實(shí)時(shí)數(shù)據(jù)變化處理B:有關(guān)聯(lián)的行處理C:多線程處理D:批處理答案:批處理大數(shù)據(jù)時(shí)代的到來,我們更應(yīng)該注重?cái)?shù)據(jù)中的相關(guān)關(guān)系,而不是因果關(guān)系。其中,數(shù)據(jù)之間的相關(guān)關(guān)系可以通過以下哪個(gè)算法直接挖掘

A:C4.5B:BayesNetworkC:K-meansD:Apriori答案:Apriori以下的決策樹哪個(gè)是二叉樹?

A:CARTB:ID3C:C4.5D:CHAID答案:CARTApriori算法的加速過程依賴于以下哪個(gè)策略

A:并行B:緩沖C:抽樣D:剪枝答案:剪枝如果處理以下形狀的數(shù)據(jù)時(shí),適宜采用DBSCAN的是?

A:橢球形B:SS形C:球形D:方形答案:SS形BP神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)規(guī)則是?

A:梯度下降法B:梯度提升法C:梯度上升法D:梯度曲線法答案:梯度下降法機(jī)器學(xué)習(xí)的預(yù)測建模任務(wù)主要包括哪幾大類方法?

A:神經(jīng)網(wǎng)絡(luò)B:回歸分析C:決策樹D:模式發(fā)現(xiàn)答案:決策樹###神經(jīng)網(wǎng)絡(luò)###回歸分析設(shè)有項(xiàng)目集X,X1是X的一個(gè)子集,則下列結(jié)論中成立的是

A:如果X1是頻繁項(xiàng)目集,則X也是頻繁項(xiàng)目集;B:如果X是頻繁項(xiàng)目集,則X1也是頻繁項(xiàng)目集;C:如果X是非頻繁項(xiàng)目集,則X1也是非頻繁項(xiàng)目集;D:如果X1是非頻繁項(xiàng)目集,則X也是非頻繁項(xiàng)目集;答案:如果X是頻繁項(xiàng)目集,則X1也是頻繁項(xiàng)目集###如果X1是非頻繁項(xiàng)目集,則X也是非頻繁項(xiàng)目集訓(xùn)練分類機(jī)器學(xué)習(xí)模型時(shí)需要避免過擬合和欠擬合的問題,關(guān)于這些問題以下說法錯(cuò)誤的是

A:復(fù)雜的模型時(shí)容易發(fā)生欠擬合問題B:正則化方法可以減少過擬合問題C:神經(jīng)網(wǎng)絡(luò)不會(huì)出現(xiàn)過擬合問題D:增加數(shù)據(jù)量不能減少過擬合問題答案:復(fù)雜的模型時(shí)容易發(fā)生欠擬合問題###神經(jīng)網(wǎng)絡(luò)不會(huì)出現(xiàn)過擬合問題###增加數(shù)據(jù)量不能減少過擬合問題Spark適用于那些場景?

A:系統(tǒng)業(yè)務(wù)受理B:數(shù)據(jù)量大C:計(jì)算量大D:效率要求高答案:計(jì)算量大###數(shù)據(jù)量大傳統(tǒng)神經(jīng)網(wǎng)絡(luò)主要分為以下哪幾類?

A:反饋型神經(jīng)網(wǎng)絡(luò)B:自組織神經(jīng)網(wǎng)絡(luò)C:反向傳播D:前饋型神經(jīng)網(wǎng)絡(luò)答案:前饋型神經(jīng)網(wǎng)絡(luò)###反饋型神經(jīng)網(wǎng)絡(luò)###自組織神經(jīng)網(wǎng)絡(luò)關(guān)聯(lián)規(guī)則的評價(jià)度量主要有哪些?

A:提升度B:支持度C:置信度D:準(zhǔn)確度答案:提升度###支持度###置信度下列選項(xiàng)中,是用于數(shù)據(jù)存儲(chǔ)的技術(shù)有哪些?

A:HDFSB:MongoDBC:JavaD:MySQL答案:MongoDB###MySQL###HDFS自然語言處理包括以下哪些?

A:句法分析B:詞法分析C:語義分析D:機(jī)器翻譯答案:詞法分析###句法分析###語義分析有關(guān)可視化分析的方法,下面說法正確的有哪些?

A:可視化分析有多種圖形可供選擇,每種圖形只適用某些場合。B:可視化只是表格數(shù)據(jù)的另一種簡單呈現(xiàn)。C:錯(cuò)誤的數(shù)據(jù)如果不進(jìn)行處理,可能會(huì)影響可視化分析的結(jié)果質(zhì)量。D:可視化分析在分析前,對數(shù)據(jù)進(jìn)行一定的變換,可能會(huì)提升分析結(jié)果的有用性。答案:可視化只是表格數(shù)據(jù)的另一種簡單呈現(xiàn)。下面哪些評測指標(biāo)可以度量推薦系統(tǒng)的性能?

A:推薦結(jié)果的新穎性B:用戶調(diào)查滿意度C:平均絕對誤差(MAE)D:覆蓋率答案:平均絕對誤差(MAE)###覆蓋率###推薦結(jié)果的新穎性大數(shù)據(jù)的業(yè)務(wù)應(yīng)用處理需要經(jīng)過哪些流程?

A:數(shù)據(jù)建模B:數(shù)據(jù)采集C:數(shù)據(jù)清洗D:數(shù)據(jù)加工答案:數(shù)據(jù)采集###數(shù)據(jù)清洗###數(shù)據(jù)建模###數(shù)據(jù)加工有關(guān)決策樹對大數(shù)據(jù)的處理,以下說法正確的是哪些?

A:通過對決策表的每個(gè)字段進(jìn)行數(shù)據(jù)分片(然后每個(gè)字段再按照記錄分片),可以實(shí)現(xiàn)決策樹重要分枝屬性的選擇。B:可以對決策表的樣本進(jìn)行劃分,并行計(jì)算每個(gè)分片數(shù)據(jù)各種屬性取值對應(yīng)的類別個(gè)數(shù),從而可以合并這些數(shù)據(jù)得到某個(gè)屬性在整個(gè)數(shù)據(jù)集的重要性度量。C:決策樹的分布式學(xué)習(xí)可以借助MapReduce計(jì)算框架。D:決策樹對大數(shù)據(jù)的處理只能采用批處理的算法。答案:決策樹的分布式學(xué)習(xí)可以借助MapReduce計(jì)算框架###可以對決策表的樣本進(jìn)行劃分,并行計(jì)算每個(gè)分片數(shù)據(jù)各種屬性取值對應(yīng)的類別個(gè)數(shù),從而可以合并這些數(shù)據(jù)得到某個(gè)屬性在整個(gè)數(shù)據(jù)集的重要性度量###通過對決策表的每個(gè)字段進(jìn)行數(shù)據(jù)分片(然后每個(gè)字段再按照記錄分片),可以實(shí)現(xiàn)決策樹重要分枝屬性的選擇關(guān)于訓(xùn)練樣本的描述中,正確的是哪些?

A:如果模型性能不佳,可增加樣本多樣性進(jìn)行優(yōu)化。B:增加數(shù)據(jù)可以減少模型方差。C:樣本越多,模型訓(xùn)練越慢,性能一定越好。D:訓(xùn)練樣本越少,模型的方差越大。答案:增加數(shù)據(jù)可以減少模型方差。###如果模型性能不佳,可增加樣本多樣性進(jìn)行優(yōu)化。###樣本越少,模型的方差越大。支持向量機(jī)的核函數(shù)負(fù)責(zé)輸入變量和分類變量(輸出)之間的映射。

A:錯(cuò)B:對答案:對DBSCAN會(huì)把所有點(diǎn)劃分到各自的簇中。

A:對B:錯(cuò)答案:錯(cuò)誤差逆?zhèn)鞑ニ惴ǎ‥rrorBackPropagation,簡稱BP)是最成功的訓(xùn)練多層前饋神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)算法。

A:對B:錯(cuò)答案:對在做聚類時(shí),DBSCAN會(huì)刪掉它認(rèn)為是噪聲點(diǎn)的數(shù)據(jù)點(diǎn)。

A:錯(cuò)B:對答案:對決策樹剪枝的目的是為了減少訓(xùn)練過程的過擬合,從而提升決策樹模型的準(zhǔn)確性。

A:對B:錯(cuò)答案:對基于內(nèi)容的推薦會(huì)遇到用戶數(shù)據(jù)稀疏問題和新用戶問題。

A:錯(cuò)B:對答案:對過擬合是因?yàn)橛?xùn)練樣本太多了,把訓(xùn)練樣本的規(guī)律都擬合進(jìn)去了,因此檢測樣本的準(zhǔn)確率也很高。

A:對B:錯(cuò)答案:錯(cuò)基于內(nèi)容的推薦和基于協(xié)同的推薦都需要領(lǐng)域知識(shí)。

A:對B:錯(cuò)答案:錯(cuò)如果NameNode意外終止,SecondaryNameNode會(huì)接替它使集群繼續(xù)工作。

A:對B:錯(cuò)答案:錯(cuò)在聚類分析中,簇之間的相似性越大,簇內(nèi)樣本的差別越大,聚類的效果就越好

A:對B:錯(cuò)答案:錯(cuò)信息熵值越小,當(dāng)前樣本集合D的純度越小,屬于同一類別的可能性越大

A:對B:錯(cuò)答案:錯(cuò)樸素貝葉斯分類器對于小樣本數(shù)據(jù)集效果不如決策樹好。

A:錯(cuò)B:對答案:錯(cuò)下列說法正確的是哪些?

A:噪聲和異常是數(shù)據(jù)錯(cuò)誤這一相同表述的兩種叫法。B:離散屬性總是具有有限個(gè)值。C:離群(異常)點(diǎn)可以是合法的數(shù)據(jù)對象或者值。D:定量屬性可以是整數(shù)值或者是連續(xù)值。答案:AI參

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論