大數(shù)據(jù)與人工智能智慧樹知到期末考試答案2024年_第1頁(yè)
大數(shù)據(jù)與人工智能智慧樹知到期末考試答案2024年_第2頁(yè)
大數(shù)據(jù)與人工智能智慧樹知到期末考試答案2024年_第3頁(yè)
大數(shù)據(jù)與人工智能智慧樹知到期末考試答案2024年_第4頁(yè)
大數(shù)據(jù)與人工智能智慧樹知到期末考試答案2024年_第5頁(yè)
已閱讀5頁(yè),還剩2頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

大數(shù)據(jù)與人工智能智慧樹知到期末考試答案2024年大數(shù)據(jù)與人工智能在降維技術(shù)方面,PCA的中文含義是()。

A:特征選擇技術(shù)。B:線性判別方法C:數(shù)據(jù)壓縮技術(shù)D:主成分分析答案:主成分分析Combiner和Reducer類都指向繼承于Reducer的內(nèi)部類()。

A:TaskTrackerB:HdfsC:ReduceD:JobTracker答案:Reduce()是一種消極學(xué)習(xí)方法,它不需要建立模型,然而測(cè)試樣例的開銷很大,因?yàn)樾枰饌€(gè)計(jì)算測(cè)試樣例和訓(xùn)練樣例之間的相似度。

A:支持向量機(jī)B:最近鄰分類器C:神經(jīng)網(wǎng)絡(luò)D:決策樹分類法答案:最近鄰分類器在一元線性回歸中y的取值的波動(dòng)稱為()。

A:變差B:差值C:誤差D:偏差答案:變差()是指在決策樹生成過程中,對(duì)每個(gè)結(jié)點(diǎn)在劃分前進(jìn)行估計(jì),若當(dāng)前結(jié)點(diǎn)的劃分不能帶來決策樹泛化性能的提升,則停止劃分并將當(dāng)前結(jié)點(diǎn)標(biāo)記為葉結(jié)點(diǎn)。

A:預(yù)剪枝B:分枝C:后剪枝D:剪枝答案:預(yù)剪枝C4.5決策樹學(xué)習(xí)算法以()為準(zhǔn)則劃分屬性。

A:信息增益B:增益率C:基尼系數(shù)D:信息熵答案:增益率網(wǎng)絡(luò)附加存儲(chǔ)的英文縮寫是(

)。

A:DASB:SANC:BASD:NAS答案:NASVGG構(gòu)建深度模型是通過重復(fù)使用()。

A:平均池化層B:VGG塊C:推理機(jī)D:感知機(jī)E:LeNet模型答案:VGG塊LDA是一種()的降維技術(shù),也就是說它的數(shù)據(jù)集的每個(gè)樣本是有類別輸出的。

A:非監(jiān)督學(xué)習(xí)B:監(jiān)督學(xué)習(xí)C:群智能D:自適應(yīng)學(xué)習(xí)答案:監(jiān)督學(xué)習(xí)()通??紤]的也是同質(zhì)弱學(xué)習(xí)器。它以一種高度自適應(yīng)的方法順序地學(xué)習(xí)這些弱學(xué)習(xí)器(每個(gè)基礎(chǔ)模型都依賴于前面的模型),并按照某種確定性的策略將它們組合起來。

A:boostingB:baggingC:wrapperingD:stacking答案:boosting大部分自然科學(xué)的本質(zhì)()。

A:數(shù)學(xué)函數(shù)B:數(shù)據(jù)分析C:物理定律D:專家系統(tǒng)E:信息采樣答案:數(shù)據(jù)分析()思想是通過將這些弱學(xué)習(xí)器的偏置和/或方差結(jié)合起來,從而創(chuàng)建一個(gè)強(qiáng)學(xué)習(xí)器,從而獲得更好的性能。

A:Embedded方法B:集成方法C:Wrapper方法D:PCA方法答案:集成方法大數(shù)據(jù)價(jià)值體現(xiàn)的手段和前進(jìn)的基石是()。

A:實(shí)踐B:思想C:技術(shù)D:理論答案:技術(shù)遺傳算法中首要解決的問題()。

A:適應(yīng)度函數(shù)的設(shè)計(jì)B:遺傳操作的設(shè)計(jì)C:初始種群的設(shè)定D:參數(shù)編碼答案:參數(shù)編碼()是認(rèn)知的必經(jīng)途徑,也是被廣泛認(rèn)同和傳播的基線。

A:理論B:思想C:技術(shù)D:實(shí)踐答案:理論借助某種存儲(chǔ)工具或媒介對(duì)采集到的數(shù)據(jù)進(jìn)行持久化的保存是指()。

A:數(shù)據(jù)建模B:數(shù)據(jù)獲取C:數(shù)據(jù)存儲(chǔ)D:數(shù)據(jù)清洗答案:數(shù)據(jù)存儲(chǔ)()通??紤]的是異質(zhì)弱學(xué)習(xí)器,并行地學(xué)習(xí)它們,并通過訓(xùn)練一個(gè)元模型將它們組合起來,根據(jù)不同弱模型的預(yù)測(cè)結(jié)果輸出一個(gè)最終的預(yù)測(cè)結(jié)果。

A:wrapperingB:stackingC:baggingD:boosting答案:stacking在實(shí)例中可用于讀入數(shù)據(jù)文件的函數(shù)是()。

A:fit()B:train_test_split()C:loadtext()D:mgrid()答案:loadtext()在大數(shù)據(jù)組成中,數(shù)據(jù)的主要部分是()。

A:半結(jié)構(gòu)化數(shù)據(jù)B:結(jié)構(gòu)化數(shù)據(jù)C:視頻數(shù)據(jù)D:非結(jié)構(gòu)化數(shù)據(jù)答案:非結(jié)構(gòu)化數(shù)據(jù)ID3決策樹學(xué)習(xí)算法以()為準(zhǔn)則來選擇劃分屬性。

A:信息增益B:增益率C:基尼系數(shù)D:信息熵答案:信息增益數(shù)據(jù)格式的多樣性表現(xiàn)在(

)。

A:音頻數(shù)據(jù)B:數(shù)值信息C:圖片D:文本數(shù)據(jù)E:視頻數(shù)據(jù)答案:文本數(shù)據(jù)###音頻數(shù)據(jù)###圖片###視頻數(shù)據(jù)MapReduce分布式并行編程使程序員只關(guān)注()的實(shí)現(xiàn)。

A:Hadoop函數(shù)B:Map函數(shù)C:Split函數(shù)D:Reduce函數(shù)E:HDFS函數(shù)答案:Map函數(shù)###Reduce函數(shù)Hadoop生態(tài)圈的組件包括(

)。

A:數(shù)據(jù)分析工具B:數(shù)據(jù)處理C:數(shù)據(jù)采集D:數(shù)據(jù)集成E:數(shù)據(jù)存儲(chǔ)答案:數(shù)據(jù)存儲(chǔ);數(shù)據(jù)集成;數(shù)據(jù)處理;數(shù)據(jù)分析工具核函數(shù)的作用(

)。

A:實(shí)現(xiàn)低維映射B:非線性支持向量機(jī)C:變量替換D:不用計(jì)算高維映射特征E:減少計(jì)算量答案:不用計(jì)算高維映射特征;減少計(jì)算量數(shù)據(jù)來源的多樣性包括()。

A:存在較強(qiáng)關(guān)聯(lián)性的其他領(lǐng)域的數(shù)據(jù)B:來源于使用者自身產(chǎn)生的數(shù)據(jù)信息C:計(jì)算機(jī)產(chǎn)業(yè)的數(shù)據(jù)D:視頻數(shù)據(jù)信息E:來源于機(jī)器自身裝配備裝置的測(cè)量報(bào)告答案:來源于使用者自身產(chǎn)生的數(shù)據(jù)信息;來源于機(jī)器自身裝配備裝置的測(cè)量報(bào)告;計(jì)算機(jī)產(chǎn)業(yè)的數(shù)據(jù);存在較強(qiáng)關(guān)聯(lián)性的其他領(lǐng)域的數(shù)據(jù)AlphaGo主要分為兩大部分,分別是()。

A:Agent網(wǎng)絡(luò)B:神經(jīng)網(wǎng)絡(luò)C:目標(biāo)優(yōu)化網(wǎng)絡(luò)D:價(jià)值評(píng)估網(wǎng)絡(luò)E:落子決策網(wǎng)絡(luò)答案:落子決策網(wǎng)絡(luò)###價(jià)值評(píng)估網(wǎng)絡(luò)下列選項(xiàng)屬于語(yǔ)音識(shí)別的主要應(yīng)用的是()。

A:電腦系統(tǒng)聲控B:電話客服C:醫(yī)療領(lǐng)域聽寫D:語(yǔ)音書寫E:電話外呼答案:電話外呼###醫(yī)療領(lǐng)域聽寫###語(yǔ)音書寫###電腦系統(tǒng)聲控###電話客服科學(xué)計(jì)算可分為()。

A:符號(hào)運(yùn)算B:定性計(jì)算C:純數(shù)值的計(jì)算D:理論計(jì)算E:定量計(jì)算答案:純數(shù)值的計(jì)算###符號(hào)運(yùn)算有監(jiān)督學(xué)習(xí)的分類()。

A:回歸分析B:二元分類C:無監(jiān)督學(xué)習(xí)D:有監(jiān)督學(xué)習(xí)E:多元分類答案:二元分類###多元分類###回歸分析支持向量機(jī)又被分為()。

A:非線性支持向量機(jī)B:高斯向量機(jī)C:多項(xiàng)式向量機(jī)D:線性支持向量機(jī)E:線性核答案:線性支持向量機(jī)###非線性支持向量機(jī)遺傳算法中常見的交叉操作主要有以下幾種()。

A:均勻交叉B:單點(diǎn)交叉C:前后交叉D:兩點(diǎn)交叉E:算術(shù)交叉答案:單點(diǎn)交叉###兩點(diǎn)交叉###均勻交叉###算術(shù)交叉Mapper類是一個(gè)泛型類,四個(gè)參數(shù)分別指定map函數(shù)的(

)。

A:輸出值B:輸入值C:環(huán)境值D:輸出鍵E:輸入鍵答案:輸入鍵###輸入值###輸出鍵###輸出值相似系數(shù)度量包含()。

A:離散系數(shù)B:余弦相似度C:杰卡德相似系數(shù)D:皮爾遜系數(shù)E:正弦相似度答案:余弦相似度###杰卡德相似系數(shù)###皮爾遜系數(shù)特征分類包括()。

A:規(guī)模特征B:數(shù)量特征C:相關(guān)特征D:無關(guān)特征E:冗余特征答案:冗余特征###無關(guān)特征###相關(guān)特征將目標(biāo)函數(shù)轉(zhuǎn)換成適應(yīng)度函數(shù)一般應(yīng)遵循的原則包括()。

A:適應(yīng)度必須非正B:優(yōu)化過程中目標(biāo)函數(shù)的變化方向應(yīng)與群體進(jìn)化過程中適應(yīng)度函數(shù)變化方向一致C:優(yōu)化過程中目標(biāo)函數(shù)的變化方向應(yīng)與群體進(jìn)化過程中適應(yīng)度函數(shù)變化方向相反D:適應(yīng)度必須非負(fù)E:必須是實(shí)數(shù)答案:適應(yīng)度必須非負(fù)###優(yōu)化過程中目標(biāo)函數(shù)的變化方向應(yīng)與群體進(jìn)化過程中適應(yīng)度函數(shù)變化方向一致對(duì)于企業(yè)存儲(chǔ)設(shè)備而言,根據(jù)存儲(chǔ)實(shí)現(xiàn)方式,可將數(shù)據(jù)存儲(chǔ)劃分為()。

A:文件存儲(chǔ)B:直接附加存儲(chǔ)C:網(wǎng)絡(luò)附加存儲(chǔ)D:網(wǎng)絡(luò)存儲(chǔ)E:存儲(chǔ)區(qū)域網(wǎng)絡(luò)答案:直接附加存儲(chǔ)###網(wǎng)絡(luò)附加存儲(chǔ)###存儲(chǔ)區(qū)域網(wǎng)絡(luò)深度學(xué)習(xí)近十年保持高速發(fā)展的原因有()。

A:多層次設(shè)計(jì)B:生成對(duì)抗網(wǎng)絡(luò)C:注意力機(jī)制D:多階設(shè)計(jì)E:優(yōu)秀的容量控制法答案:優(yōu)秀的容量控制法###注意力機(jī)制###生成對(duì)抗網(wǎng)絡(luò)###多階設(shè)計(jì)一元線性回歸的顯著性檢驗(yàn)包括()。

A:回歸系數(shù)的檢驗(yàn)B:密度檢驗(yàn)C:回歸檢驗(yàn)D:統(tǒng)計(jì)決策檢驗(yàn)E:線性關(guān)系的檢驗(yàn)答案:線性關(guān)系的檢驗(yàn)###回歸系數(shù)的檢驗(yàn)最大池化取池化窗口中輸入元素的最大值作為輸出。

A:對(duì)B:錯(cuò)答案:對(duì)所謂推理,就是為了達(dá)到某一目標(biāo)而多次地進(jìn)行某種操作、運(yùn)算、推理或計(jì)算的過程。

A:錯(cuò)B:對(duì)答案:錯(cuò)線性判別式分析也叫做Fisher線性判別。

A:對(duì)B:錯(cuò)答案:對(duì)集成性特性是數(shù)據(jù)倉(cāng)庫(kù)和操作型數(shù)據(jù)庫(kù)的根本區(qū)別。

A:對(duì)B:錯(cuò)答案:錯(cuò)數(shù)據(jù)處理是對(duì)數(shù)據(jù)的采集,存儲(chǔ)檢索,加工變換和傳輸?shù)炔僮鳌?/p>

A:對(duì)B:錯(cuò)答案:對(duì)在進(jìn)行模型訓(xùn)練之前,不需要對(duì)Iris數(shù)據(jù)集進(jìn)行任何處理。

A:對(duì)B:錯(cuò)答案:錯(cuò)多元回歸分析預(yù)測(cè)法,是指通過對(duì)兩個(gè)或兩個(gè)以上的自變量與一個(gè)因變量的相關(guān)分析,建立預(yù)測(cè)模型進(jìn)行預(yù)測(cè)的方法。

A:對(duì)B:錯(cuò)答案:對(duì)深度學(xué)習(xí)的可解釋性差。

A:錯(cuò)B:對(duì)答案:對(duì)卷積運(yùn)算是卷積窗口中的輸入子數(shù)組與核數(shù)組按照對(duì)應(yīng)元素相除并求和。

A:錯(cuò)B:對(duì)答案:錯(cuò)卷積層和最大池化層的作用是一樣的。

A:對(duì)B:錯(cuò)答案:錯(cuò)兩個(gè)等長(zhǎng)的字符串s1和s2之間的漢明距離定義為將其中一個(gè)變?yōu)榱硪粋€(gè)所需要做的最小替換次數(shù)。

A:對(duì)B:錯(cuò)答案:對(duì)數(shù)據(jù)可視化是指把數(shù)據(jù)通過直觀的可視化的方式展示給用戶。

A:對(duì)B:錯(cuò)答案:對(duì)填充是在輸入四個(gè)角的位置填充元素255。

A:對(duì)B:錯(cuò)答案:錯(cuò)數(shù)據(jù)工程是指面向不同計(jì)算平臺(tái)和應(yīng)用環(huán)境,使用信息系統(tǒng)設(shè)計(jì)開發(fā)和評(píng)價(jià)的工程化技術(shù)和方法。

A:錯(cuò)B:對(duì)答案:對(duì)傳統(tǒng)的數(shù)據(jù)采集不僅能夠按照某種匹配模式抓取數(shù)據(jù),同時(shí)能夠?qū)崟r(shí)監(jiān)控?cái)?shù)據(jù)質(zhì)量。

A:對(duì)B:錯(cuò)答案:錯(cuò)PCA原理中,找出第一個(gè)主成分的方向,也就是數(shù)據(jù)方差最大的方向。

A:對(duì)B:錯(cuò)答案:對(duì)Apriori算法具有這樣一條性質(zhì):任一頻繁項(xiàng)集的所有非空子集也必須是頻繁的。

A:對(duì)B:錯(cuò)答案:對(duì)AlexNet證明手工設(shè)計(jì)的特征仍然比學(xué)習(xí)到的特征好。

A:對(duì)B:錯(cuò)答案:錯(cuò)集成性是指數(shù)據(jù)倉(cāng)庫(kù)會(huì)將不同來源數(shù)據(jù)庫(kù)中的數(shù)據(jù)匯總到一起。

A:對(duì)B:錯(cuò)答案:對(duì)計(jì)算機(jī)視覺主要研究目標(biāo)是使計(jì)算機(jī)具有通過二維圖像認(rèn)知三維環(huán)境信息的能力。

A:對(duì)B:錯(cuò)答案:對(duì)特征選擇的目的(

)。

A:減少特征數(shù)量、降維B:降低數(shù)據(jù)的復(fù)雜性C:降低學(xué)習(xí)任務(wù)的難度,提升模型的效率D:使模型泛華能力更強(qiáng),減少過擬合E:增強(qiáng)對(duì)特征和特征值之間的理解答案:AI參考:正確選項(xiàng)為:A、C、D。\n\n特征選擇的目的包括:\n\n1.減少特征數(shù)量、降維(A對(duì)):特征選擇可以將數(shù)據(jù)中的冗余或無關(guān)特征剔除,降低數(shù)據(jù)維度,從而簡(jiǎn)化模型,提升模型效率。\n2.降低學(xué)習(xí)任務(wù)的難度,提升模型的效率(C對(duì)):特征選擇可以剔除那些與目標(biāo)關(guān)系不大的特征,減輕模型的訓(xùn)練難度,加快模型的學(xué)習(xí)速度。\n3.使模型泛化能力更強(qiáng),減少過擬合(D對(duì)):在機(jī)器學(xué)習(xí)中,過擬合是一個(gè)常見的問題。通過特征選擇,可以選擇出對(duì)目標(biāo)變量影響較大的特征,使模型在訓(xùn)練數(shù)據(jù)和測(cè)試數(shù)據(jù)上表現(xiàn)都更好。\n\n而B選項(xiàng)“降低數(shù)據(jù)的復(fù)雜性”和E選項(xiàng)“增強(qiáng)對(duì)特征和特征值之間的理解”更多地是描述特征選擇的作用,而不是特征選擇的目的。因此,B、E選項(xiàng)不是正確答案。'數(shù)據(jù)庫(kù)類型包括()。

A:操作性處理數(shù)據(jù)庫(kù)B:數(shù)據(jù)編輯庫(kù)C:分析型數(shù)據(jù)庫(kù)D:聯(lián)機(jī)事務(wù)處理庫(kù)E:操作型數(shù)據(jù)庫(kù)答案:AI參考:正確選項(xiàng)為:C、分析型數(shù)據(jù)庫(kù);E、操作型數(shù)據(jù)庫(kù)。\n\n數(shù)據(jù)庫(kù)類型分為三種:操作型數(shù)據(jù)庫(kù)、分析型數(shù)據(jù)庫(kù)和中間型。\n\n*操作型數(shù)據(jù)庫(kù),是用于處理各種事務(wù)、流程的操作處理型數(shù)據(jù)庫(kù)。常見的數(shù)據(jù)庫(kù)系統(tǒng),如Oracle、SQLServer、MySQL等都是典型

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論