版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡介
機(jī)器學(xué)習(xí)技術(shù)及應(yīng)用智慧樹知到期末考試答案2024年機(jī)器學(xué)習(xí)技術(shù)及應(yīng)用邏輯回歸模型解決()
A:聚類問題B:推理問題C:分類問題D:回歸問題答案:分類問題下列不屬于機(jī)器學(xué)習(xí)開發(fā)語言是哪個(gè)?()
A:JavaB:RC:匯編語言D:C++答案:匯編語言支持向量機(jī)中的margin指()
A:損失誤差B:盈利率C:保證金D:間隔答案:間隔移動(dòng)運(yùn)營商對(duì)客戶的流失進(jìn)行預(yù)測,可以使用下面哪種機(jī)器學(xué)習(xí)方法比較合適()
A:關(guān)聯(lián)方法B:一元線性回歸分析C:聚類算法D:多層前饋網(wǎng)絡(luò)答案:多層前饋網(wǎng)絡(luò)Numpy中向量轉(zhuǎn)成矩陣使用()
A:arangeB:reshapeC:randomD:reval答案:arange按照學(xué)習(xí)任務(wù),機(jī)器學(xué)習(xí)可以分為哪幾類()
A:降維B:回歸C:分類D:聚類答案:分類;聚類;回歸;降維按照學(xué)習(xí)方式,機(jī)器學(xué)習(xí)可以分為哪幾類()
A:監(jiān)督學(xué)習(xí)B:非監(jiān)督學(xué)習(xí)C:半監(jiān)督學(xué)習(xí)D:強(qiáng)化學(xué)習(xí)答案:監(jiān)督學(xué)習(xí);非監(jiān)督學(xué)習(xí);半監(jiān)督學(xué)習(xí);強(qiáng)化學(xué)習(xí)卡內(nèi)基梅隆大學(xué)的TomMitchell教授這樣定義機(jī)器學(xué)習(xí)的:對(duì)于某類任務(wù)T和性能度量P,如果一個(gè)計(jì)算機(jī)程序在T上以P衡量的性能隨著經(jīng)驗(yàn)E而自我完善,那么我們稱這個(gè)計(jì)算機(jī)程序在從經(jīng)驗(yàn)E中學(xué)習(xí)。請(qǐng)問上面的T、P、E分別指的是()
A:TaskB:PerformanceMeasureC:PerformanceD:Experience答案:Experience###PerformanceMeasure###Task機(jī)器學(xué)習(xí)可以應(yīng)用在下列哪些應(yīng)用領(lǐng)域()
A:搜索引擎B:天氣預(yù)報(bào)C:商業(yè)營銷D:自動(dòng)駕駛汽車答案:商業(yè)營銷###天氣預(yù)報(bào)###搜索引擎###自動(dòng)駕駛汽車機(jī)器學(xué)習(xí)涉及的理論有()
A:概率論B:統(tǒng)計(jì)學(xué)C:逼近論D:凸分析答案:概率論###統(tǒng)計(jì)學(xué)###凸分析###逼近論強(qiáng)化學(xué)習(xí)包含哪些元素()
A:ActionB:AgentC:RewardD:State答案:Reward###Agent###State###Action回歸問題和分類問題都有可能發(fā)生過擬合。()
A:對(duì)B:錯(cuò)答案:對(duì)決策樹學(xué)習(xí)算法中,預(yù)留一部分?jǐn)?shù)據(jù)用作“驗(yàn)證集”,進(jìn)行性能評(píng)估,決定是否剪枝。()
A:錯(cuò)B:對(duì)答案:對(duì)決策樹學(xué)習(xí)的目的是為了產(chǎn)生一顆泛化能力強(qiáng),即處理未見示例能力強(qiáng)的決策樹。()
A:錯(cuò)B:對(duì)答案:對(duì)數(shù)據(jù)集一般劃分為訓(xùn)練集、驗(yàn)證集和測試集。訓(xùn)練集用于建模、驗(yàn)證集用于模型驗(yàn)證與矯正、測試集用于模型的最終評(píng)估。()
A:錯(cuò)誤B:正確答案:正確邏輯回歸算法是一種廣義的線性回歸分析方法,它僅在線性回歸算法的基礎(chǔ)上,利用Sigmoid函數(shù)對(duì)事件發(fā)生的概率進(jìn)行預(yù)測。()
A:錯(cuò)誤B:正確答案:正確最小二乘法是基于預(yù)測值和真實(shí)值得均方差最小化的方法來估計(jì)線性回歸學(xué)習(xí)器的參數(shù)w和b。()
A:正確B:錯(cuò)誤答案:正確多隱層感知機(jī)比單隱層感知機(jī)的表達(dá)能力強(qiáng)。()
A:錯(cuò)B:對(duì)答案:錯(cuò)回歸預(yù)測的目標(biāo)函數(shù)是離散值,分類預(yù)測的目標(biāo)函數(shù)是連續(xù)值。()
A:正確B:錯(cuò)誤答案:錯(cuò)誤大部分的機(jī)器學(xué)習(xí)工程中,數(shù)據(jù)搜集、數(shù)據(jù)清洗、特征工程這三個(gè)步驟占絕大部分時(shí)間,而數(shù)據(jù)建模占總時(shí)間比較少。()
A:正確B:錯(cuò)誤答案:正確梯度下降,就是沿著函數(shù)的梯度(導(dǎo)數(shù))方向更新自變量,使得函數(shù)的取值越來越小,直至達(dá)到全局最小或者局部最小。()
A:錯(cuò)誤B:正確答案:正確給定n個(gè)數(shù)據(jù)點(diǎn),如果其中一半用于訓(xùn)練,另一半用于測試,則訓(xùn)練誤差和測試誤差之間的差別會(huì)隨著n的增加而減小。()
A:正確B:錯(cuò)誤答案:正確回歸和分類都是監(jiān)督學(xué)習(xí)問題。()
A:錯(cuò)B:對(duì)答案:對(duì)根據(jù)腫瘤的體積、患者的年齡來判斷良性或惡性,這是一個(gè)回歸問題。()
A:錯(cuò)誤B:正確答案:錯(cuò)誤最小二乘法(又稱最小平方法)是一種數(shù)學(xué)優(yōu)化技術(shù)。它通過什么的平方和尋找數(shù)據(jù)的最佳函數(shù)匹配()
A:最小化誤差B:最大化求和C:最大化誤差D:最大化乘積答案:AI參考:正確選項(xiàng)是A:最小化誤差。\n\n最小二乘法是一種數(shù)學(xué)優(yōu)化技術(shù),通過尋找數(shù)據(jù)的最佳函數(shù)匹配來最小化誤差的平方和。這意味著它試圖找到一個(gè)函數(shù),該函數(shù)可以盡可能地接近數(shù)據(jù)點(diǎn),同時(shí)誤差的平方和最小化。這種方法廣泛應(yīng)用于統(tǒng)計(jì)、工程、經(jīng)濟(jì)和生物學(xué)等領(lǐng)域。'以下哪個(gè)函數(shù)可以實(shí)現(xiàn)畫布的創(chuàng)建()
A:subplots()B:figure()C:add_subplot()D:subplot2grid()答案:AI參考:正確選項(xiàng)是:B:figure()\n\nfigure()函數(shù)是MATLAB中的一個(gè)重要函數(shù),用于創(chuàng)建畫布。使用該函數(shù),可以開始新的圖形,或者在新創(chuàng)建的畫布上進(jìn)行繪圖。其他的選項(xiàng)A,C,D都是創(chuàng)建或管理子圖的函數(shù),而不是創(chuàng)建畫布的函數(shù)。因此,答案為B。'關(guān)于K近鄰算法說法錯(cuò)誤的是()
A:K近鄰算法是機(jī)器學(xué)習(xí)B:K近鄰算法是監(jiān)督學(xué)習(xí)C:K代表分類個(gè)數(shù)D:K的選擇對(duì)分類結(jié)果沒有影響答案:AI參考:關(guān)于K近鄰算法說法錯(cuò)誤的是:D:K的選擇對(duì)分類結(jié)果沒有影響。\n\nK近鄰算法是一種基于實(shí)例的學(xué)習(xí),也被稱為基于劃分的分類方法。它是一種監(jiān)督學(xué)習(xí)算法,通過已知的數(shù)據(jù)集進(jìn)行訓(xùn)練,并使用K值將數(shù)據(jù)集劃分為不同的類別。K值的選擇對(duì)分類結(jié)果是有影響的,通常需要根據(jù)實(shí)際情況選擇合適的K值以達(dá)到最好的分類效果。因此,D選項(xiàng)是錯(cuò)誤的。其他選項(xiàng)都是正確的。'下列說法錯(cuò)誤的是()
A:TensorFlow是用R實(shí)現(xiàn)的,用Python封裝的。B:tensorflow時(shí)會(huì)在圖中創(chuàng)建各種節(jié)點(diǎn),節(jié)點(diǎn)的類型分為三種。C:TensorFlow是一個(gè)采用數(shù)據(jù)流圖,用于數(shù)值計(jì)算的開源軟件庫。D:張量就是一個(gè)數(shù)據(jù)容器,它可以用來表示比如數(shù)字,向量、矩陣等基本的數(shù)據(jù),還可以表示時(shí)間序列、圖像、視頻等復(fù)雜的數(shù)據(jù)集。答案:AI參考:正確答案是A:TensorFlow是用R實(shí)現(xiàn)的,用Python封裝的。這個(gè)說法是錯(cuò)誤的。TensorFlow是一個(gè)用Python語言開發(fā)的庫,用于數(shù)值計(jì)算。它采用數(shù)據(jù)流圖的方式進(jìn)行計(jì)算,可以表示各種基本的數(shù)據(jù),如數(shù)字、向量、矩陣等,也可以表示更復(fù)雜的數(shù)據(jù)集,如時(shí)間序列、圖像、視頻等。因此,其他三個(gè)選項(xiàng)都是正確的。'下列描述無監(jiān)督學(xué)習(xí)錯(cuò)誤的是()
A:核心是聚類B:具有很好的解釋性C:不需要降維D:無標(biāo)簽答案:AI參考:正確選項(xiàng)是:B:具有很好的解釋性。\n\n無監(jiān)督學(xué)習(xí)是指在沒有標(biāo)簽數(shù)據(jù)的情況下,通過學(xué)習(xí)數(shù)據(jù)內(nèi)在結(jié)構(gòu)或模式來對(duì)未知數(shù)據(jù)進(jìn)行分類或預(yù)測。其核心是聚類,不需要降維,無標(biāo)簽,具有很好的自適應(yīng)性。因此,B選項(xiàng)描述錯(cuò)誤。'下列哪個(gè)不是Bagging的特點(diǎn)()
A:只需要較少的基礎(chǔ)分類器B:基于Bootstrap采樣生成訓(xùn)練集C:各基礎(chǔ)分類器并行生成D:各基礎(chǔ)分類器權(quán)重相同答案:AI參考:正確選項(xiàng)是C:各基礎(chǔ)分類器并行生成。\n\nBagging算法的特點(diǎn)包括:\n\n1.基于Bootstrap采樣生成訓(xùn)練集,即重復(fù)從原始數(shù)據(jù)集中抽取樣本并生成多個(gè)訓(xùn)練集。\n\n2.只需要較少的基礎(chǔ)分類器,即通過多個(gè)基礎(chǔ)分類器的組合來提高模型的性能。\n\n3.各基礎(chǔ)分類器權(quán)重相同,即每個(gè)基礎(chǔ)分類器在最終的模型中具有相同的權(quán)重。\n\n因此,選項(xiàng)C“各基礎(chǔ)分類器并行生成”不是Bagging的特點(diǎn)。在Bagging中,每個(gè)基礎(chǔ)分類器都是通過Bootstrap采樣生成的,并且具有相同的權(quán)重。因此,選項(xiàng)A、B和D都是Bagging的特點(diǎn)。'最小二乘法是求得之間差值的平方和最?。ǎ?/p>
A:預(yù)測值和最小值B:最小值和最大值C:真實(shí)值和預(yù)測值D:真實(shí)值和誤差值答案:AI參考:正確選項(xiàng)是【真實(shí)值和誤差值】。\n\n最小二乘法是一種數(shù)學(xué)優(yōu)化技術(shù),它通過最小化誤差的平方和尋找數(shù)據(jù)的最佳函數(shù)匹配。因此,選項(xiàng)D“真實(shí)值和誤差值”是正確的答案。最小二乘法是通過求得與實(shí)際觀測數(shù)據(jù)之間的差值和平方和的最小值,來找到最佳擬合曲線或模型。這樣可以有效減小誤差,提高預(yù)測的準(zhǔn)確度。'線性回歸最小二乘法算法目標(biāo)是為了求解下面哪兩個(gè)參數(shù)的值?()
A:真實(shí)值和預(yù)測值B:樣本X值和樣本Y值C:最大值和最小值D:斜率K和截距b答案:AI參考:正確選項(xiàng)是D:斜率K和截距b。\n\n線性回歸最小二乘法算法是一種通過擬合一條直線來預(yù)測數(shù)據(jù)的方法,它通過最小化樣本點(diǎn)到擬合直線的距離的平方和來求解斜率K和截距b這兩個(gè)參數(shù)的值。通過斜率K和截距b的求解,可以建立一個(gè)線性回歸模型,用于預(yù)測樣本X值和樣本Y值之間的線性關(guān)系。因此,選項(xiàng)D是正確的答案。選項(xiàng)A、B、C與線性回歸最小二乘法算法的目標(biāo)不符。'最小二乘法,求損失函數(shù)最小時(shí),多元函數(shù)求偏導(dǎo)數(shù)的方法是:將其他自變量看成什么,對(duì)該自變量求偏導(dǎo)方法與一元函數(shù)求導(dǎo)數(shù)方法一致()
A:常數(shù)B:自變量C:變量D:因變量答案:AI參考:答案為B:自變量。\n\n最小二乘法是在損失函數(shù)最小時(shí),對(duì)多元函數(shù)求偏導(dǎo)數(shù)的方法。對(duì)于一元函數(shù),求導(dǎo)數(shù)的方法是將自變量看作常數(shù),但是多元函數(shù)中每個(gè)自變量都需要單獨(dú)求偏導(dǎo)數(shù)。因此,對(duì)于多元函數(shù),將其他自變量看成自變量,并對(duì)這些自變量求偏導(dǎo)數(shù)的方法與一元函數(shù)求導(dǎo)數(shù)方法一致。因此,選項(xiàng)B是正確答案。'支持向量機(jī)的簡稱()
A:AIB:CNNC:MLD:SVM答案:AI參考:正確選項(xiàng)是D:SVM。\n\n支持向量機(jī)(SVM)是一種常用的機(jī)器學(xué)習(xí)算法,用于分類、回歸和異常檢測等任務(wù)。它是一種二分類算法,通過在高維空間中找到一個(gè)超平面來將正負(fù)樣本進(jìn)行區(qū)分,從而實(shí)現(xiàn)對(duì)數(shù)據(jù)的分類。因此,答案為D。'下列關(guān)于卷積神經(jīng)網(wǎng)絡(luò)說法錯(cuò)誤的是()
A:卷積神經(jīng)網(wǎng)絡(luò)模擬了人類視覺信息處理過程B:模擬大腦的視覺處理過程就是卷積神經(jīng)網(wǎng)絡(luò)的思路C:圖像的卷積、類似視覺皮層對(duì)圖像進(jìn)行某種特定功能的處理D:目前網(wǎng)絡(luò)深度最深、應(yīng)用最成功的深度學(xué)習(xí)模型答案:AI參考:關(guān)于卷積神經(jīng)網(wǎng)絡(luò)說法錯(cuò)誤的是目前網(wǎng)絡(luò)深度最深、應(yīng)用最成功的深度學(xué)習(xí)模型。雖然卷積神經(jīng)網(wǎng)絡(luò)在圖像識(shí)別、自然語言處理等領(lǐng)域取得了很好的效果,但是目前還沒有出現(xiàn)網(wǎng)絡(luò)深度最深、應(yīng)用最成功的深度學(xué)習(xí)模型。其他選項(xiàng)表述都是正確的。卷積神經(jīng)網(wǎng)絡(luò)模擬了人類視覺信息處理過程,模擬大腦的視覺處理過程是卷積神經(jīng)網(wǎng)絡(luò)的思路,圖像的卷積、類似視覺皮層對(duì)圖像進(jìn)行某種特定功能的處理。因此,正確答案是D。'下列算法哪些是無監(jiān)督學(xué)習(xí)算法()
A:空間聚類B:主成分分析C:支持向量機(jī)D:Q-learning答案:AI參考:正確選項(xiàng)為B和D。\n\nB為主成分分析,是無監(jiān)督學(xué)習(xí)算法,它是一種降維技術(shù),通過尋找數(shù)據(jù)中的內(nèi)在結(jié)構(gòu)關(guān)系對(duì)數(shù)據(jù)進(jìn)行降維。D為Q-learning,是一種強(qiáng)化學(xué)習(xí)算法,主要用于學(xué)習(xí)環(huán)境中的最優(yōu)行為策略,通常是無監(jiān)督的,因?yàn)樗恍枰c環(huán)境進(jìn)行交互以獲得獎(jiǎng)勵(lì)信號(hào)。\n\nA為空間聚類,屬于有監(jiān)督學(xué)習(xí)算法,需要使用標(biāo)記的數(shù)據(jù)進(jìn)行訓(xùn)練,并通過比較聚類結(jié)果與其他樣本之間的距離或相似性來進(jìn)行聚類。\n\nC為支持向量機(jī),是一種監(jiān)督學(xué)習(xí)算法,用于分類和回歸分析,通過在高維空間中尋找一個(gè)超平面來最大化分類間隔,從而將不同的樣本進(jìn)行分類。'下列哪些是PCA算法可以實(shí)現(xiàn)的目的()
A:提取特征主要成分B:數(shù)據(jù)升維C:對(duì)數(shù)據(jù)進(jìn)行分類D:數(shù)據(jù)降維答案:AI參考:答案是:AD。PCA算法可以實(shí)現(xiàn)數(shù)據(jù)降維,即從原始特征空間轉(zhuǎn)換到一個(gè)新的低維空間,同時(shí)保持?jǐn)?shù)據(jù)中的重要結(jié)構(gòu)信息。因此,AD選項(xiàng)正確。BC選項(xiàng)不正確,因?yàn)镻CA算法主要用于特征提取和數(shù)據(jù)降維,而不是分類或數(shù)據(jù)升維。'PCA的推導(dǎo)可以從哪兩個(gè)角度入手()
A:最大平方誤差理論B:最小平方誤差理論C:最大方差理論D:最小方差理論答案:AI參考:正確選項(xiàng)為B和D,即最小平方誤差理論和最小方差理論是PCA推導(dǎo)的兩個(gè)主要角度。\n\nPCA(PrincipalComponentAnalysis,主成分分析)是一種常用的數(shù)據(jù)降維方法。其推導(dǎo)過程通?;趦蓚€(gè)基本假設(shè):一是數(shù)據(jù)在各個(gè)主成分上的投影誤差最小,二是數(shù)據(jù)在各個(gè)主成分上的投影方差最大。這兩個(gè)假設(shè)可以通過最小平方誤差理論和最小方差理論來解釋。\n\n具體來說,PCA通過最大化各個(gè)數(shù)據(jù)點(diǎn)在主成分上的投影方差,從而將原始數(shù)據(jù)集轉(zhuǎn)換為一組線性無關(guān)的主成分,這些主成分能夠反映原始數(shù)據(jù)集的大部分信息。在這個(gè)過程中,最小平方誤差理論用于確保投影誤差的平方和最小,而最小方差理論則用于確保投影方差最大。因此,B和D選項(xiàng)是正確的答案。'下列屬于強(qiáng)化學(xué)習(xí)的應(yīng)用有哪些()
A:無人駕駛B:機(jī)器人控制C:AlphaGoD:FlappyBird答案:AI參考:答案為A、B、C。\n\n強(qiáng)化學(xué)習(xí)是一種機(jī)器學(xué)習(xí)方法,主要用于通過試錯(cuò)的方式學(xué)習(xí)如何做出最佳決策,適用于需要適應(yīng)環(huán)境并從中學(xué)習(xí)的系統(tǒng)。以下是強(qiáng)化學(xué)習(xí)的幾個(gè)應(yīng)用領(lǐng)域:\n\n*無人駕駛:無人駕駛汽車需要學(xué)習(xí)如何處理各種路況和交通情況,以便在行駛過程中做出最佳決策。\n*機(jī)器人控制:機(jī)器人需要學(xué)習(xí)如何適應(yīng)不同的環(huán)境和任務(wù),以便完成各種任務(wù)。\n*AlphaGo:AlphaGo是基于強(qiáng)化學(xué)習(xí)的圍棋AI,通過與人類對(duì)弈學(xué)習(xí)如何下圍棋,最終達(dá)到了人類頂尖水平。\n\n而D選項(xiàng)的FlappyBird是一款簡單的游戲,它主要依賴于游戲機(jī)制和用戶反饋進(jìn)行學(xué)習(xí),而不是強(qiáng)化學(xué)習(xí)。因此,答案為A、B、C。'下列說法正確的有()
A:降維指減少一個(gè)數(shù)據(jù)集的變量數(shù)量,同時(shí)保證傳達(dá)信息的準(zhǔn)確性B:聚類是將相似的東西聚在一起,并關(guān)心這些東西是什么C
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 《簡筆畫上色技巧》課件
- 中心投影和平行投影課件
- 《壓力管理》課件
- 《市場營銷情景模擬》課件
- 單位管理制度集粹選集職工管理篇
- 單位管理制度匯編大全職員管理篇
- 單位管理制度合并選集人力資源管理篇
- 三峽復(fù)習(xí)課件
- 《精油的起源基礎(chǔ)》課件
- 單位管理制度分享合集【人事管理】
- 會(huì)計(jì)科目涉稅風(fēng)險(xiǎn)點(diǎn)風(fēng)險(xiǎn)
- 香椿矮化密植栽培
- GB/T 4214.3-2023家用和類似用途電器噪聲測試方法洗碗機(jī)的特殊要求
- 建設(shè)工程質(zhì)量控制講義三
- YY/T 0606.7-2008組織工程醫(yī)療產(chǎn)品第7部分:殼聚糖
- 2023年遼寧軌道交通職業(yè)學(xué)院高職單招(英語)試題庫含答案解析
- GB/T 29076-2021航天產(chǎn)品質(zhì)量問題歸零實(shí)施要求
- DL-T 5190.1-2022 電力建設(shè)施工技術(shù)規(guī)范 第1部分:土建結(jié)構(gòu)工程(附條文說明)
- 殯葬服務(wù)人才需求調(diào)研報(bào)告
- 降低銳器盒不規(guī)腎內(nèi)科品管圈課件
- 《了凡四訓(xùn)》課件
評(píng)論
0/150
提交評(píng)論