![機(jī)器學(xué)習(xí)智慧樹知到期末考試答案2024年_第1頁](http://file4.renrendoc.com/view12/M0B/16/1F/wKhkGWYTVOaALYl6AAJysQeJl6U279.jpg)
![機(jī)器學(xué)習(xí)智慧樹知到期末考試答案2024年_第2頁](http://file4.renrendoc.com/view12/M0B/16/1F/wKhkGWYTVOaALYl6AAJysQeJl6U2792.jpg)
![機(jī)器學(xué)習(xí)智慧樹知到期末考試答案2024年_第3頁](http://file4.renrendoc.com/view12/M0B/16/1F/wKhkGWYTVOaALYl6AAJysQeJl6U2793.jpg)
![機(jī)器學(xué)習(xí)智慧樹知到期末考試答案2024年_第4頁](http://file4.renrendoc.com/view12/M0B/16/1F/wKhkGWYTVOaALYl6AAJysQeJl6U2794.jpg)
![機(jī)器學(xué)習(xí)智慧樹知到期末考試答案2024年_第5頁](http://file4.renrendoc.com/view12/M0B/16/1F/wKhkGWYTVOaALYl6AAJysQeJl6U2795.jpg)
版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)
文檔簡介
機(jī)器學(xué)習(xí)智慧樹知到期末考試答案2024年機(jī)器學(xué)習(xí)下列關(guān)于感知器算法的說法中錯誤的是()
A:在感知器算法中的學(xué)習(xí)率是可以改變的B:感知器算法也適用于線性不可分的樣本C:在感知器算法中,如果樣本不是線性可分的,則算法最后不會收斂D:在感知器算法中可以通過調(diào)整學(xué)習(xí)率來減少迭代次數(shù)答案:感知器算法也適用于線性不可分的樣本關(guān)于K均值算法說法不正確的是()。
A:使用時需要預(yù)先確定聚類的類數(shù)B:K均值算法是基于劃分的聚類C:K均值算法不適用于所有的聚類問題D:當(dāng)類中數(shù)據(jù)集構(gòu)成凸集時,取得最差的效果答案:K一個正例(2,3),一個負(fù)例(0,-1),下面哪個是SVM超平面?()
A:x+2y-3=0B:2x+y-4=0C:無法計算D:2y+x-5=0答案:x+2y-3=0Logistic回歸與多重線性回歸比較()
A:logistic回歸的因變量為二分類變量B:Logistic回歸和多重線性回歸的因變量都可為二分類變量C:Logistic回歸的自變量必須是二分類變量D:多重線性回歸的因變量為二分類變量答案:logistic回歸的因變量為二分類變量下面關(guān)于機(jī)器學(xué)習(xí)與深度學(xué)習(xí)的描述錯誤的是()
A:深度學(xué)習(xí)是多層人工神經(jīng)網(wǎng)絡(luò),典型模型包括卷積神經(jīng)網(wǎng)絡(luò)等B:深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個分支C:深度學(xué)習(xí)由人工神經(jīng)網(wǎng)絡(luò)演變而來D:卷積結(jié)構(gòu)是循環(huán)神經(jīng)網(wǎng)絡(luò)基礎(chǔ)結(jié)構(gòu)答案:深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個分支主成分分析中,各主成分之間()
A:存在線性關(guān)系B:互不相關(guān)C:相互獨(dú)立D:彼此相關(guān)答案:互不相關(guān)關(guān)于L1、L2正則化下列說法正確的是?()
A:L1正則化得到的解更加稀疏B:L2正則化技術(shù)又稱為LassoRegularizationC:L2正則化能防止過擬合,提升模型的泛化能力,但L1做不到這點D:L2正則化得到的解更加稀疏答案:L1下列哪一種方法的系數(shù)沒有閉式(closed-form)解?()
A:Ridge回歸和LassoB:選項中沒有正確答案C:LassoD:Ridge回歸答案:Lasso下面是交叉驗證的幾種方法:1.Bootstrap2.留一法交叉驗證3.5折交叉驗證4.重復(fù)使用兩次5折交叉驗證請對上面四種方法的執(zhí)行時間進(jìn)行排序,樣本數(shù)量為1000。()
A:2>3>4>1B:1>2>3>4C:4>1>2>3D:2>4>3>1答案:2>4>3>1選項中哪些方法不可以直接來對文本分類?()
A:決策樹B:kNNC:支持向量機(jī)D:K-Means答案:K-Means選項中關(guān)于bootstrap說法正確的是?()
A:從總的N個樣本中,無放回地抽取n個樣本(n<N)B:從總的M個特征中,有放回地抽取m個特征(m<M)C:從總的N個樣本中,有放回地抽取n個樣本(n<N)D:從總的M個特征中,無放回地抽取m個特征(m<M)答案:從總的N個樣本中,有放回地抽取n個樣本(n<N)為了觀察測試Y與X之間的線性關(guān)系,X是連續(xù)變量,使用下列哪種圖形比較適合?()
A:柱形圖B:散點圖C:直方圖答案:散點圖智能化中醫(yī)望診時,對一幅舌脈圖像(伸出舌頭的人臉圖像),希望把舌頭部分從人臉的其他部分劃分出來,可以采用以下方法:在該圖像中分別在舌頭區(qū)域與其他區(qū)域各畫出一個窗口,把在這兩個窗口中的象素數(shù)據(jù)作為訓(xùn)練集,用Fisher準(zhǔn)則方法求得分類器參數(shù),再用該分類器對整幅圖進(jìn)行分類。那么這種方法屬于:()
A:非監(jiān)督學(xué)習(xí)B:監(jiān)督學(xué)習(xí)C:半監(jiān)督學(xué)習(xí)答案:監(jiān)督學(xué)習(xí)SVM中核技巧(Kernaltrick)的作用包括以下哪項?()
A:防止欠擬合B:防止過擬合C:特征降維D:特征升維答案:特征升維智能化中醫(yī)望診時,對一幅舌脈圖像(伸出舌頭的人臉圖像),希望把舌頭部分從人臉的其他部分劃分出來,可以采用以下方法:將整幅圖的每個象素的屬性記錄在一張數(shù)據(jù)表中,然后用某種方法將這些數(shù)據(jù)按它們的自然分布狀況劃分成兩類。因此每個象素就分別得到相應(yīng)的類別號,從而實現(xiàn)了舌頭圖像的分割。那么這種方法屬于:()
A:半監(jiān)督學(xué)習(xí)B:監(jiān)督學(xué)習(xí)C:非監(jiān)督學(xué)習(xí)答案:非監(jiān)督學(xué)習(xí)bootstrap數(shù)據(jù)是什么意思?()
A:有放回地從總共N個樣本中抽樣n個樣本B:有放回地從總共M個特征中抽樣m個特征C:無放回地從總共N個樣本中抽樣n個樣本D:無放回地從總共M個特征中抽樣m個特征答案:有放回地從總共N個樣本中抽樣n個樣本如果兩個變量相關(guān),那么它們一定是線性關(guān)系嗎?()
A:是B:不一定答案:不一定關(guān)于L1、L2正則化下列說法正確的是?()
A:L2正則化能防止過擬合,提升模型的泛化能力,但L1做不到這點B:L1正則化得到的解更加稀疏C:L2正則化技術(shù)又稱為LassoRegularizationD:L2正則化得到的解更加稀疏答案:L1關(guān)于欠擬合(under-fitting),下面哪個說法是正確的?()
A:訓(xùn)練誤差較小,測試誤差較大B:訓(xùn)練誤差較大,測試誤差較大C:訓(xùn)練誤差較大,測試誤差較小答案:訓(xùn)練誤差較大,測試誤差較大模型的bias很高,我們?nèi)绾谓档退?()
A:增加數(shù)據(jù)點B:在特征空間中減少特征C:在特征空間中增加特征答案:在特征空間中增加特征加入使用邏輯回歸對樣本進(jìn)行分類,得到訓(xùn)練樣本的準(zhǔn)確率和測試樣本的準(zhǔn)確率。現(xiàn)在,在數(shù)據(jù)中增加一個新的特征,其它特征保持不變。然后重新訓(xùn)練測試。選項中說法正確的是?()
A:訓(xùn)練樣本準(zhǔn)確率一定增加或保持不變B:測試樣本準(zhǔn)確率一定會降低C:訓(xùn)練樣本準(zhǔn)確率一定會降低D:測試樣本準(zhǔn)確率一定增加或保持不變答案:訓(xùn)練樣本準(zhǔn)確率一定增加或保持不變k-NN最近鄰方法在什么情況下效果較好?()
A:樣本呈團(tuán)狀分布B:樣本呈鏈狀分布C:樣本較少但典型性好D:樣本較多但典型性不好答案:樣本較少但典型性好在數(shù)據(jù)預(yù)處理階段,我們常常對數(shù)值特征進(jìn)行歸一化或標(biāo)準(zhǔn)化(standardization,normalization)處理。這種處理方式理論上不會對下列哪個模型產(chǎn)生很大影響?()
A:決策樹B:k-NNC:k-Means答案:決策樹機(jī)器學(xué)習(xí)訓(xùn)練時,Mini-Batch的大小優(yōu)選為2個的冪,如256或512。它背后的原因是什么?()
A:Mini-Batch為偶數(shù)的時候,梯度下降算法訓(xùn)練的更快B:Mini-Batch設(shè)為2的冪,是為了符合CPU、GPU的內(nèi)存要求,利于并行化處理C:選項中的說法都不對D:不使用偶數(shù)時,損失函數(shù)是不穩(wěn)定的答案:Mini-Batch設(shè)為2的冪,是為了符合CPU、GPU的內(nèi)存要求,利于并行化處理已知坐標(biāo)系中兩點A(2,?2)和B(?1,2),這兩點的曼哈頓距離(L1距離)是()
A:25B:1C:7D:0答案:7Dropout技術(shù)在下列哪種神經(jīng)層中將無法發(fā)揮顯著優(yōu)勢?()
A:選項中沒有正確答案B:卷積層C:仿射層(全連接層)D:RNN層答案:RNN層假如你在訓(xùn)練一個線性回歸模型,有下面兩句話:1.如果數(shù)據(jù)量較少,容易發(fā)生過擬合。2.如果假設(shè)空間較小,容易發(fā)生過擬合。關(guān)于這兩句話,下列說法正確的是?()
A:1和2都錯誤B:1和2都正確C:1正確,2錯誤D:1錯誤,2正確答案:1以垃圾微信識別為例,TomMitchell的機(jī)器學(xué)習(xí)的定義中,性能度量值P是什么?()
A:P是識別B:P是不必要條件C:P是垃圾微信D:P是識別為正確的概率答案:P是識別下列哪個不屬于常用的文本分類的特征選擇算法?()
A:主成分分析B:互信息C:卡方檢驗值D:信息增益答案:主成分分析給定三個變量X,Y,Z。(X,Y)、(Y,Z)和(X,Z)的Pearson相關(guān)性系數(shù)分別為C1、C2和C3?,F(xiàn)在X的所有值加2(即X+2),Y的全部值減2(即Y-2),Z保持不變。那么運(yùn)算之后的(X,Y)、(Y,Z)和(X,Z)相關(guān)性系數(shù)分別為D1、D2和D3?,F(xiàn)在試問D1、D2、D3和C1、C2、C3之間的關(guān)系是什么?()
A:D1=C1,D2>C2,D3<C3B:D1=C1,D2>C2,D3>C3C:D1=C1,D2<C2,D3<C3D:D1=C1,D2=C2,D3=C3E:D1=C1,D2<C2,D3>C3答案:D1=C1,D2=C2,D3=C3假如我們使用非線性可分的SVM目標(biāo)函數(shù)作為最優(yōu)化對象,我們怎么保證模型線性可分?()
A:設(shè)C=0B:設(shè)C=無窮大C:其余選項都不對D:設(shè)C=1答案:設(shè)C=無窮大符號集a、b、c、d他們相互獨(dú)立,相應(yīng)概率為1/2、1/4、1/8、1/16,其中包含信息量最小的符號是()
A:aB:cC:dD:b答案:a中文同義詞替換時,常用到Word2Vec,以下說法錯誤的是()。
A:Word2Vec得到的都是語義上的同義詞B:Word2Vec基于概率統(tǒng)計C:Word2Vec結(jié)果符合當(dāng)前語料環(huán)境D:Word2Vec受限于訓(xùn)練語料的數(shù)量和質(zhì)量答案:Word2Vec得到的都是語義上的同義詞我們想在大數(shù)據(jù)集上訓(xùn)練決策樹,為了使用較少時間,我們可以()。
A:減少樹的深度B:增加樹的深度C:減少樹的數(shù)量D:增加學(xué)習(xí)率(learningrate)答案:減少樹的深度以下哪些方法不可以直接來對文本分類?()
A:支持向量機(jī)B:KNNC:決策樹D:K-means答案:K-means詞向量描述正確的是()。
A:女人+漂亮=女神B:自然語言表示的單詞不能轉(zhuǎn)換為計算機(jī)能夠理解的向量或矩陣形式C:沒有正確答案D:詞向量技術(shù)是將詞轉(zhuǎn)化成為稀疏向量的技術(shù)答案:女人+漂亮=女神關(guān)于數(shù)據(jù)集劃分,下列說法正確的是()
A:訓(xùn)練集與測試集的理想劃分比例是5:5B:龐大數(shù)據(jù)集的訓(xùn)練集與測試集的劃分比例可以為9:1C:訓(xùn)練集的數(shù)據(jù)量越大,模型的泛化能力越好D:訓(xùn)練集的數(shù)據(jù)總是越多越好答案:龐大數(shù)據(jù)集的訓(xùn)練集與測試集的劃分比例可以為9:1下列屬于無監(jiān)督學(xué)習(xí)的是()。
A:最大熵B:K-meansC:SVMD:CRF答案:K-meansSPSS的界面中,以下是主窗口是()。
A:結(jié)果輸出窗口B:語法編輯窗口C:腳本編輯窗口D:數(shù)據(jù)編輯窗口答案:數(shù)據(jù)編輯窗口深度學(xué)習(xí)是當(dāng)前很熱門的機(jī)器學(xué)習(xí)算法,在深度學(xué)習(xí)中,涉及到大量的矩陣相乘,現(xiàn)在需要計算三個稠密矩陣A,B,C的乘積ABC,假設(shè)三個矩陣的尺寸分別為m?n,n?p,p?q,且mA:AC(B)B:所以效率都相同C:(AB)CD:
A(BC)答案:(AB)C在HMM中,如果已知觀察序列和產(chǎn)生觀察序列的狀態(tài)序列,那么可用以下哪種方法直接進(jìn)行參數(shù)估計()。
A:EM算法B:維特比算法C:極大似然估計D:前向后向算法答案:極大似然估計一般來說,下列哪種方法常用來預(yù)測連續(xù)獨(dú)立變量?()
A:其余選項說法都不對B:邏輯回顧C(jī):線性回歸D:線性回歸和邏輯回歸都行答案:線性回歸關(guān)于SVM泛化誤差描述正確的是()。
A:SVM的誤差閾值B:超平面與支持向量之間距離C:SVM對未知數(shù)據(jù)的預(yù)測能力答案:SVM對未知數(shù)據(jù)的預(yù)測能力”點擊率問題”是這樣一個預(yù)測問題,99%的人是不會點擊的,而1%的人是會點擊進(jìn)去的,所以這是一個非常不平衡的數(shù)據(jù)集。假設(shè),現(xiàn)在我們已經(jīng)建了一個模型來分類,而且有了99%的預(yù)測準(zhǔn)確率,我們可以下的結(jié)論是()
A:模型預(yù)測準(zhǔn)確率已經(jīng)很高了,我們不需要做什么了B:其余選項都不對C:無法下結(jié)論D:模型預(yù)測準(zhǔn)確率不高,我們需要做點什么改進(jìn)模型答案:無法下結(jié)論在spss的基礎(chǔ)分析模塊中,作用是“以行列表的形式揭示數(shù)據(jù)之間的關(guān)系”的是()
A:交叉表B:數(shù)據(jù)描述C:相關(guān)D:多重相應(yīng)答案:交叉表文本信息檢索的一個核心問題是文本相似度計算,將查詢條件和文本之間的相似程度數(shù)值化,從而方便比較。當(dāng)文檔和查詢都表示成向量時,可以利用向量的內(nèi)積的大小近似地表示兩個向量之間的相關(guān)程度。設(shè)有兩個文檔和查詢抽取特征和去除停用詞后分別是:文檔d1:a、b、c、a、f、b、a、f、h文檔d2:a、c查詢q:a、c、a特征項集合為{a、b、c、d、e、f、g、h}如果采用二值向量表示,那么利用內(nèi)積法計算出q和d1、d2的相似度分別是()。
A:0、0B:1、1C:7、2D:2、2答案:2、2下列哪一種偏移,是我們在最小二乘直線擬合的情況下使用的?圖中橫坐標(biāo)是輸入X,縱坐標(biāo)是輸出Y。()
A:其余選項說法都不對B:垂向偏移(perpendicularoffsets)C:兩種偏移都可以D:垂直偏移(verticaloffsets)答案:垂直偏移(verticaloffsets)下面哪些對「類型1(Type-1)」和「類型2(Type-2)」錯誤的描述是錯誤的?()
A:類型1錯誤通常在其是正確的情況下拒絕假設(shè)而出現(xiàn)。B:類型2通常稱之為假正類,類型1通常稱之為假負(fù)類。C:類型1通常稱之為假正類,類型2通常稱之為假負(fù)類。答案:類型2通常稱之為假正類,類型1通常稱之為假負(fù)類。如果預(yù)測的結(jié)果與將來的實際情況總會存在著或大或小、或多或少、或前或后的偏差,它表明預(yù)測具有()
A:局限性B:近似性C:不確定性D:科學(xué)性答案:不確定性下面有關(guān)分類算法的準(zhǔn)確率,召回率,F(xiàn)1值的描述,錯誤的是()。
A:準(zhǔn)確率是檢索出相關(guān)文檔數(shù)與檢索出的文檔總數(shù)的比率,衡量的是檢索系統(tǒng)的查準(zhǔn)率B:為了解決準(zhǔn)確率和召回率沖突問題,引入了F1分?jǐn)?shù)C:正確率、召回率和F值取值都在0和1之間,數(shù)值越接近0,查準(zhǔn)率或查全率就越高D:召回率是指檢索出的相關(guān)文檔數(shù)和文檔庫中所有的相關(guān)文檔數(shù)的比率,衡量的是檢索系統(tǒng)的查全率答案:為了解決準(zhǔn)確率和召回率沖突問題,引入了F1分?jǐn)?shù)模式識別中,不屬于馬氏距離較之于歐氏距離的優(yōu)點是()
A:考慮了模式的分布B:平移不變性C:尺度不變性答案:平移不變性在分類問題中,我們經(jīng)常會遇到正負(fù)樣本數(shù)據(jù)量不等的情況,比如正樣本為10w條數(shù)據(jù),負(fù)樣本只有1w條數(shù)據(jù),以下最合適的處理方法是()。
A:將負(fù)樣本重復(fù)10次,生成10w樣本量,打亂順序參與分類B:將負(fù)樣本每個權(quán)重設(shè)置為10,正樣本權(quán)重為1,參與訓(xùn)練過程C:從10w正樣本中隨機(jī)抽取1w參與分類D:直接進(jìn)行分類,可以最大限度利用數(shù)據(jù)答案:將負(fù)樣本每個權(quán)重設(shè)置為10,正樣本權(quán)重為1,參與訓(xùn)練過程樸素貝葉斯算法在統(tǒng)計訓(xùn)練樣本中每個類別出現(xiàn)的頻率時,若某一特征值的概率為0會使整個概率乘積變?yōu)?(稱為數(shù)據(jù)稀疏)問題,解決的的辦法有()
A:通過聚類將未出現(xiàn)的特征找出相關(guān)特征的概率求平均值進(jìn)行替代B:其余選項都不對C:剔除掉某一特征值的概率為0的特征D:采用貝葉斯估計,如拉普拉斯平滑答案:剔除掉某一特征值的概率為0的特征###通過聚類將未出現(xiàn)的特征找出相關(guān)特征的概率求平均值進(jìn)行替代###采用貝葉斯估計,如拉普拉斯平滑樸素貝葉斯算法能取得較好的效果是因為()
A:其余選項都不對B:如果屬性間依賴關(guān)系的影響能相互抵消,在屬性條件獨(dú)立性假設(shè)時不會對性能產(chǎn)生負(fù)面影響。C:如果屬性間依賴對所有類別相互影響相同,在屬性條件獨(dú)立性假設(shè)下可以降低計算D:對分類各類別的條件概率排序正確,無需精準(zhǔn)概率值就可以獲得正確分類;答案:正確假如我們利用Y是X的3階多項式產(chǎn)生一些數(shù)據(jù)(3階多項式能很好地擬合數(shù)據(jù))。那么,下列說法正確的是?()
A:3階多項式擬合會造成低偏差(bias)、高方差(variance)B:3階多項式擬合具備低偏差(bias)、低方差(variance)C:簡單的線性回歸容易造成高偏差(bias)、低方差(variance)D:簡單的線性回歸容易造成低偏差(bias)、高方差(variance)答案:3階多項式擬合具備低偏差(bias)、低方差(variance)###簡單的線性回歸容易造成高偏差(bias)、低方差(variance)數(shù)據(jù)清理中,處理缺失值的方法是()。
A:整例刪除B:變量刪除C:成對刪除D:估算答案:估算###變量刪除###成對刪除###整例刪除在統(tǒng)計模式識分類問題中,當(dāng)先驗概率未知時,可以使用?()
A:最小損失準(zhǔn)則B:最小最大損失準(zhǔn)則C:N-P判決D:最小誤判概率準(zhǔn)則答案:N-P判決###最小最大損失準(zhǔn)則機(jī)器學(xué)習(xí)中L1正則化和L2正則化的區(qū)別是?()
A:使用L1可以得到稀疏的權(quán)值B:使用L2可以得到稀疏的權(quán)值C:使用L2可以得到平滑的權(quán)值D:使用L1可以得到平滑的權(quán)值答案:使用L1可以得到稀疏的權(quán)值;使用L2可以得到平滑的權(quán)值下面哪些算法模型可以用來完成命名實體的任務(wù)?()
A:LDAB:GBDTC:seq2seqD:HMME:CRFF:LSTM答案:CRF###HMM###LSTM###seq2seq機(jī)器學(xué)習(xí)中做特征選擇時,可能用到的方法有?()
A:卡方B:平均互信息C:信息增益D:期望交叉熵答案:信息增益###卡方###平均互信息###期望交叉熵以下描述錯誤的是:()
A:在聚類分析當(dāng)中,簇內(nèi)的相似性越大,簇間的差別越大,聚類的效果就越差。B:在決策樹中,隨著樹中結(jié)點數(shù)變得太大,即使模型的訓(xùn)練誤差還在繼續(xù)減低,但是檢驗誤差開始增大,這是出現(xiàn)了模型擬合不足的問題。C:SVM是這樣一個分類器,他尋找具有最小邊緣的超平面,因此它也經(jīng)常被稱為最小邊緣分類器(minimalmarginclassifier)D:聚類分析可以看作是一種非監(jiān)督的分類。答案:c精確率(Precision),也叫查準(zhǔn)率。即正確預(yù)測為正的占全部預(yù)測為正的比例。是真正正確的占所有預(yù)測為正的比例()
A:正確B:錯誤答案:正確K均值聚類的核心目標(biāo)是將給定的數(shù)據(jù)集劃分為K個簇,并給出每個數(shù)據(jù)對應(yīng)的簇中心點。()
A:錯誤B:正確答案:正確預(yù)剪枝是在決策樹的構(gòu)建過程中加入限制,比如控制葉子節(jié)點最少的樣本個數(shù),提前停止。()
A:錯B:對答案:錯給定n個數(shù)據(jù)點,如果其中一半用于訓(xùn)練,另一半用于測試,則訓(xùn)練誤差和測試誤差之間的差別會隨著n的增加而減小。()
A:錯誤B:正確答案:正確基尼指數(shù)偏向于多值屬性;當(dāng)類數(shù)較大時,基尼指數(shù)求解比較困難;基尼指數(shù)傾向于支持在兩個分區(qū)中生成大小相同的測試。()
A:錯誤B:正確答案:正確聚類算法中不需要給出標(biāo)簽y。()
A:正確B:錯誤答案:正確決策樹只能用于分類問題,不能用于回歸問題。()
A:對B:錯答案:錯在AdaBoost算法中,所有被錯分的樣本的權(quán)重更新比例相同。()
A:錯B:對答案:對訓(xùn)練集與測試集的劃分對最終模型的確定無影響。()
A:正確B:錯誤答案:錯誤如果特征很多,決策樹中最后沒有用到的特征一定是無用的。()
A:對B:錯答案:錯強(qiáng)化學(xué)習(xí)包含哪些元素?()
A:ActionB:StateC:RewardD:Agent答案:Reward###Agent###State###Action以下輸入梯度下降法的有:()
A:丟棄法B:小批量梯度下降法C:批量梯度下降法D:隨機(jī)梯度下降法答案:隨機(jī)梯度下降法主成分分析中可以利用()求解主成分
A:協(xié)方差矩陣B:Hessian矩陣C:距離矩陣D:相關(guān)系數(shù)矩陣答案:相關(guān)系數(shù)矩陣###協(xié)方差矩陣變量選擇是用來選擇最好的判別器子集,如果要考慮模型效率,我們應(yīng)該做哪些變量選擇的考慮?()
A:模型是否具有解釋性B:特征是否攜帶有效信息C:交叉驗證D:多個變量是否有相同的功能答案:交叉驗證###多個變量是否有相同的功能###特征是否攜帶有效信息我們知道二元分類的輸出是概率值。一般設(shè)定輸出概率大于或等于0.5,則預(yù)測為正類;若輸出概率小于0.5,則預(yù)測為負(fù)類。那么,如果將閾值0.5提高,例如0.6,大于或等于0.6的才預(yù)測為正類。則準(zhǔn)確率(Precision)和召回率(Recall)會發(fā)生什么變化?()
A:準(zhǔn)確率(Precision)增加或者不變B:準(zhǔn)確率(Precision)減小C:召回率(Recall)增大D:召回率(Recall)減小或者不變答案:準(zhǔn)確率(Precision)增加或者不變###召回率(Recall)減小或者不變對于劃分屬性選擇,選項中說法正確的是()
A:選項中說法都不對B:增益率準(zhǔn)則對可取值數(shù)目較少的屬性有所偏好C:C4.5算法并不是直接選擇增益率最大的候選劃分屬性,而是先從候選劃分屬性中找出信息增益高于平均水平的屬性,再從中選擇增益率最高的。D:信息增益準(zhǔn)則對可取值數(shù)目較多的屬性有所偏好答案:信息增益準(zhǔn)則對可取值數(shù)目較多的屬性有所偏好###增益率準(zhǔn)則對可取值數(shù)目較少的屬性有所偏好###C4.5算法并不是直接選擇增益率最大的候選劃分屬性,而是先從候選劃分屬性中找出信息增益高于平均水平的屬性,再從中選擇增益率最高的選項中哪種方法可以用來減小過擬合?()
A:減小模型的復(fù)雜度B:L2正則化C:L1正則化D:更多的訓(xùn)練數(shù)據(jù)答案:更多的訓(xùn)練數(shù)據(jù)###L1正則化###L2正則化###減小模型的復(fù)雜度建立線性模型時,我們看變量之間的相關(guān)性。在尋找相關(guān)矩陣中的相關(guān)系數(shù)時,如果發(fā)現(xiàn)3對變量(Var1和Var2、Var2和Var3、Var3和Var1)之間的相關(guān)性分別為-0.98、0.45和1.23。我們能從中推斷出什么呢?()
A:Var1和Var2具有很高的相關(guān)性B:選項中沒有正確答案C:Var3和Var1相關(guān)系數(shù)為1.23是不可能的D:Var1和Var2存在多重共線性,模型可以去掉其中一個特征答案:Var1和Var2具有很高的相關(guān)性###Var1和Var2存在多重共線性,模型可以去掉其中一個特征###Var3和Var1相關(guān)系數(shù)為1.23是不可能的集成學(xué)習(xí)中個體學(xué)習(xí)器多樣性增強(qiáng)的主要途徑有:()
A:數(shù)據(jù)樣本擾動B:輸入屬性擾動C:算法參數(shù)擾動D:輸出表示擾動答案:數(shù)據(jù)樣本擾動###輸入屬性擾動###輸出表示擾動###算法參數(shù)擾動以下哪種方法屬于判別式模型(discriminativemodel)?()
A:隱馬爾可夫模型(HMM)B:樸素貝葉斯判別式模型C:線性判別分析LDAD:支持向量機(jī)答案:支持向量機(jī)有一些基學(xué)習(xí)器對數(shù)據(jù)樣本的擾動不敏感,稱為穩(wěn)定基學(xué)習(xí)器。下列學(xué)習(xí)器屬于穩(wěn)定基學(xué)習(xí)器的是:()
A:線性學(xué)習(xí)器B:樸素貝葉斯C:支持向量機(jī)D:神經(jīng)網(wǎng)絡(luò)E:k近鄰學(xué)習(xí)器答案:線性學(xué)習(xí)器;樸素貝葉斯;支持向量機(jī);k近鄰學(xué)習(xí)器我們想要訓(xùn)練一個ML模型,樣本數(shù)量有100萬個,特征維度是5000,面對如此大數(shù)據(jù),如何有效地訓(xùn)練模型?()
A:對訓(xùn)練集隨機(jī)采樣,在隨機(jī)采樣的數(shù)據(jù)上建立模型B:使用PCA算法減少特征維度C:選項中沒有正確答案D:嘗試使用在線機(jī)器學(xué)習(xí)算法答案:使用PCA算法減少特征維度###對訓(xùn)練集隨機(jī)采樣,在隨機(jī)采樣的數(shù)據(jù)上建立模型###嘗試使用在線機(jī)器學(xué)習(xí)算法在分類問題中,我們經(jīng)常會遇到正負(fù)樣本數(shù)據(jù)量不等的情況,比如正樣本為10萬條數(shù)據(jù),負(fù)樣本只有1萬條數(shù)據(jù),以下合適的處理方法是()
A:將負(fù)樣本每個權(quán)重設(shè)置為10,正樣本權(quán)重為1,參與訓(xùn)練過程B:將負(fù)樣本重復(fù)10次,生成10萬樣本量,打亂順序參與分類C:從10萬正樣本中隨機(jī)抽取1萬參與分類D:直接進(jìn)行分類,可以最大限度利用數(shù)據(jù)答案:將負(fù)樣本每個權(quán)重設(shè)置為10,正樣本權(quán)重為1,參與訓(xùn)練過程貝爾曼期望方程的基本思想是將待求解問題分解為若干子問題,從這些子問題的解得到原問題的解。()
A:對B:錯答案:對線性回歸算法、邏輯回歸算法和支持向量機(jī)等監(jiān)督式學(xué)習(xí)算法,都是經(jīng)驗損失最小化架構(gòu)在具體問題中的表現(xiàn)。()
A:錯誤B:正確答案:錯誤聚類分析是對未知分類的事物按照“物以類聚”的思想對其進(jìn)行分類的一種算法。常用的算法有K均值聚類算法,其是基于層級的聚類算法。()
A:錯誤B:正確答案:錯誤馬爾科夫性特點:未來與現(xiàn)在有關(guān),下一個狀態(tài)既和當(dāng)前狀態(tài)有關(guān),又和之前的狀態(tài)有關(guān)。()
A:正確B:錯誤答案:錯誤在實際應(yīng)用中,不同的學(xué)習(xí)模型使用的損失函數(shù)一般情況下也不一樣。()
A:正確B:錯誤答案:正確增大正則化系數(shù)可以用于處理欠擬合()
A:錯誤B:正確答案:正確強(qiáng)化學(xué)習(xí)主要任務(wù)是使智能體能夠根據(jù)環(huán)境的狀態(tài),獲得最佳行動策略。()
A:正確B:錯誤答案:正確SVM分類超平面的解是唯一的,要滿足間隔最大化。感知機(jī)的解不唯一,沒有間隔最大化的約束條件,滿足分開數(shù)據(jù)點的分界面都是可以的。()
A:錯誤B:正確答案:正確?L2正則化得到的解更加稀疏。()
A:正確B:錯誤答案:錯誤牛頓迭代法是二階收斂的,梯度下降是一階收斂,所以牛頓法多數(shù)情況下收斂更快。()
A:正確B:錯誤答案:錯誤隨機(jī)梯度下降算法可以有效提高邏輯回歸的擬合度。()
A:正確B:錯誤答案:錯誤梯度下降法需要預(yù)先設(shè)定學(xué)習(xí)率,然后通過多次迭代求解最優(yōu)參數(shù)。()
A:錯B:對答案:對次梯度方法是傳統(tǒng)的梯度下降方法的拓展,用來處理不可導(dǎo)的凸函數(shù)。它的優(yōu)勢是比傳統(tǒng)方法處理問題范圍大,劣勢是算法收斂速度慢。()
A:錯B:對答案:對在決策樹學(xué)習(xí)過程中,一般而言,隨著劃分過程的不斷進(jìn)行,分支節(jié)點的”純度“將越來越高。()
A:對B:錯答案:錯給定n個數(shù)據(jù)點,如果其中一半用于訓(xùn)練,另一半用于測試,則訓(xùn)練誤差和測試誤差之間的差別會隨著n的增加而減小。()
A:正確B:錯誤答案:正確剪枝(pruning)是決策樹學(xué)習(xí)算法對付"欠擬合"的主要手段,其基本策略有"預(yù)剪枝"(pre-pruning)和"后剪枝"(post-pruning)。()
A:錯B:對答案:錯在屬性個數(shù)比較多或者屬性之間相關(guān)性較大時,樸素貝葉斯分類器的分類效率比不上決策樹模型。()
A:對B:錯答案:對一個循環(huán)神經(jīng)網(wǎng)絡(luò)可以被展開成為一個完全連接的、具有無限長度的普通神經(jīng)網(wǎng)絡(luò)。()
A:對B:錯答案:對在訓(xùn)練完SVM之后,只保留支持向量,而舍去所有非支持向量,仍然不會影響模型分類能力。()
A:對B:錯答案:對如果自變量X和因變量Y之間存在高度的非線性和復(fù)雜關(guān)系,那么樹模型很可能劣于經(jīng)典回歸方法。()
A:對B:錯答案:錯決策樹的分界面是線性的。()
A:正確B:錯誤答案:錯誤邏輯回歸LR是參數(shù)模型,支持向量機(jī)SVM也是參數(shù)模型。()
A:對B:錯答案:錯監(jiān)督式學(xué)習(xí)中存在過擬合,而對于非監(jiān)督式學(xué)習(xí)來說,沒有過擬合。()
A:錯B:對答案:錯K-means算法中初始點的選擇對最終結(jié)果沒有影響,不同的初始值結(jié)果都一樣。()
A:對B:錯答案:錯隨機(jī)森林中基學(xué)習(xí)器的多樣性不僅來自樣本擾動,還來自屬性擾動和輸出表示擾動。()
A:錯B:對答案:錯ID3決策樹學(xué)習(xí)算法是以信息增益為準(zhǔn)則來選擇劃分屬性的。()
A:對B:錯答案:對在決策樹的劃分屬性選擇中,信息增益準(zhǔn)則對可取值數(shù)目較少的屬性有所偏好,而增益率準(zhǔn)則對可取值數(shù)目較多的屬性有所偏好。()
A:錯B:對答案:錯SVM對缺失數(shù)據(jù)敏感,而且當(dāng)觀測樣本很多時,SVM方法的效率也不是很高。()
A:對B:錯答案:對ID3算法以()作為測試屬性的選擇標(biāo)準(zhǔn)。
A:分類的速度B:所劃分的類個數(shù)C:信息增益D:信息熵答案:AI參考:正確選項是【D:信息熵】。\n\nID3算法是一種基于信息增益的決策樹分類算法,用于從一組屬性中選擇最優(yōu)屬性以生成決策樹。信息熵是描述數(shù)據(jù)集中的不確定性或信息量的指標(biāo),因此ID3算法以信息熵作為測試屬性的選擇標(biāo)準(zhǔn),以此來最小化數(shù)據(jù)集的不確定性并提高分類的準(zhǔn)確性。因此,選項D是正確答案。選項A、B、C雖然也是一些常見的選擇標(biāo)準(zhǔn),但在ID3算法中不是主要標(biāo)準(zhǔn)。'線性回歸模型假設(shè)標(biāo)簽隨機(jī)變量服從_______?Logistic回歸模型假設(shè)標(biāo)簽隨機(jī)變量服從_______?Softmax回歸模型假設(shè)標(biāo)簽隨機(jī)變量服從_______?()
A:伯努利分布、正態(tài)分布、多項分布B:正態(tài)分布、伯努利分布、多項分布C:正態(tài)分布、多項分布、伯努利分布D:伯努利分布、多項分布、正態(tài)分布答案:AI參考:正確答案是C:正態(tài)分布、多項分布、伯努利分布。\n\n線性回歸模型假設(shè)標(biāo)簽隨機(jī)變量服從正態(tài)分布,Logistic回歸模型假設(shè)標(biāo)簽隨機(jī)變量服從多項分布,Softmax回歸模型假設(shè)標(biāo)簽隨機(jī)變量服從伯努利分布。因此,選項C是正確答案。選項A和D中的順序錯誤,選項B中的多項分布和伯努利分布位置顛倒。'以下哪個選項不屬于策略算法的實現(xiàn)過程?()
A:將策略參數(shù)化B:輸入某個狀態(tài),輸出一個動作的概率分布C:使用神經(jīng)網(wǎng)絡(luò)尋找最差策略D:使用線性模型或者神經(jīng)網(wǎng)絡(luò)對策略函數(shù)建模答案:AI參考:正確選項是B:輸入某個狀態(tài),輸出一個動作的概率分布。\n\n策略算法的主要目的是尋找一個最優(yōu)策略,即在給定狀態(tài)下,選擇最佳動作的概率分布。實現(xiàn)策略算法的過程中,通常會先將策略參數(shù)化(A對),使用神經(jīng)網(wǎng)絡(luò)或線性模型對策略函數(shù)進(jìn)行建模(D對),然后使用這些模型在給定狀態(tài)下輸出動作的概率分布(B錯,不屬于策略算法的實現(xiàn)過程)。最后,通過反復(fù)迭代和優(yōu)化這些模型,逐漸逼近最優(yōu)策略。使用神經(jīng)網(wǎng)絡(luò)尋找最差策略(C對)也是策略算法的一種實現(xiàn)方式。'以下(1)動態(tài)規(guī)劃算法、(2)蒙特卡洛算法、(3)時序差分算法,無模型的算法有哪些?()
A:(1),(2)B:(2),(3)C:全都不是D:(1),(3)答案:AI參考:正確選項為C:全都不是。\n\n動態(tài)規(guī)劃算法和蒙特卡洛算法不需要使用模型,而時序差分算法雖然不是嚴(yán)格意義上的無模型算法,但其核心思想是通過差分來估計時間序列的變化,不需要事先建立模型。因此,這三個算法中只有動態(tài)規(guī)劃算法和蒙特卡洛算法是無模型的算法。'在二元分類問題中,給定樣本的特征組及其標(biāo)簽將標(biāo)簽為1的樣本稱為正采樣,標(biāo)簽為0的樣本稱為負(fù)采樣。設(shè)為模型對樣本的標(biāo)簽預(yù)測。將稱為正預(yù)測,稱為負(fù)預(yù)測。
以下說法不正確的是()
A:如果且1,則稱該預(yù)測為假正(falsepositive)B:如果且1,則稱該預(yù)測為真正(truepositive)C:如果且,則稱該預(yù)測為假負(fù)(falsenegative)D:如果且,則稱該預(yù)測為真負(fù)(truenegative)答案:AI參考:正確答案是D:如果且,則稱該預(yù)測為真負(fù)(truenegative)。\n\n根據(jù)題意,將標(biāo)簽為1的樣本稱為正采樣,標(biāo)簽為0的樣本稱為負(fù)采樣。設(shè)y為模型對樣本的標(biāo)簽預(yù)測,將正預(yù)測稱為當(dāng)y=1時,樣本被正確預(yù)測為正樣本,負(fù)預(yù)測稱為當(dāng)y=0時,樣本被正確預(yù)測為負(fù)樣本。\n\n選項D表述不正確,因為如果樣本被正確預(yù)測為負(fù)樣本,即y=0時,樣本被正確預(yù)測為負(fù)樣本,而不是真負(fù)樣本。因此,選項D中的“真負(fù)”表述不準(zhǔn)確。\n\n其他選項A、B、C均符合題意。選項A表示假正預(yù)測,即當(dāng)模型預(yù)測為正樣本時,實際樣本為負(fù)樣本的情況;選項B表示真正預(yù)測,即當(dāng)模型預(yù)測為正樣本時,實際樣本也為正樣本的情況;選項C表示假負(fù)預(yù)測,即當(dāng)模型預(yù)測為負(fù)樣本時,實際樣本為正樣本的情況。'線性回歸經(jīng)常使用的優(yōu)化算法是()
A:A和BB:正規(guī)方程C:最優(yōu)值搜索D:梯度下降法答案:AI參考:正確選項是D:梯度下降法。\n\n梯度下降法是一種常用的優(yōu)化算法,廣泛應(yīng)用于線性回歸等機(jī)器學(xué)習(xí)算法中,用于尋找函數(shù)的最小值點。在梯度下降法中,通過不斷迭代更新參數(shù),逐步逼近函數(shù)的最小值點,從而優(yōu)化線性回歸模型。正規(guī)方程(B)和最優(yōu)值搜索(C)不是常用的優(yōu)化算法,通常用于求解線性回歸模型的系數(shù),而不是用于優(yōu)化算法。因此,選項D:梯度下降法是線性回歸經(jīng)常使用的優(yōu)化算法。'PCA的理論基礎(chǔ)是()
A:方差最大理論B:系數(shù)最大理論C:殘差最大理論D:成分最大理論答案:AI參考:正確選項是:A:方差最大理論。\n\nPCA(主成分分析)的理論基礎(chǔ)是方差最大理論,即在新變量維度縮放的過程中,盡可能地保留原始數(shù)據(jù)中的所有方差信息。通過對數(shù)據(jù)降維,保留原始數(shù)據(jù)中的最大方差信息,達(dá)到簡化數(shù)據(jù)和提高數(shù)據(jù)可解釋性的目的。'在回歸分析中,下列哪個選項不屬于線性回歸()。
A:多個因變量與多個自變量的回歸B:一元線性回歸C:分段回歸D:多元線性回歸答案:AI參考:正確答案是C:分段回歸。\n\n回歸分析中,屬于線性回歸的是一元線性回歸和多元線性回歸,即選項B和D,即只有一個因變量和一個自變量的回歸分析和有多個因變量多個自變量的回歸分析屬于線性回歸。而選項A和B均符合線性回歸的定義。選項C分段回歸則不屬于線性回歸。故選C分段回歸。'下列說法錯誤的是?()
A:當(dāng)目標(biāo)函數(shù)是凸函數(shù)時,梯度下降算法的解一般就是全局最優(yōu)解B:利用拉格朗日函數(shù)能解帶約束的優(yōu)化問題C:沿負(fù)梯度的方向一定是最優(yōu)的方向D:進(jìn)行PCA降維時,需要計算協(xié)方差矩陣答案:AI參考:正確答案是C:沿負(fù)梯度的方向一定是最優(yōu)的方向。\n\n梯度下降算法是解決無約束優(yōu)化問題的一種常用方法,在目標(biāo)函數(shù)是凸函數(shù)時,梯度下降算法的解一般是全局最優(yōu)解,因此A選項正確。拉格朗日函數(shù)是一種求解帶約束優(yōu)化問題的常用方法,利用拉格朗日函數(shù)可以求解帶約束的優(yōu)化問題,因此B選項正確。沿負(fù)梯度的方向不一定是最優(yōu)的方向,因此C選項錯誤。在進(jìn)行PCA降維時,需要計算協(xié)方差矩陣,D選項正確。'以下屬于回歸任務(wù)的是()
A:預(yù)測云南野生大象未來的走向B:判斷一個西瓜是本地瓜還是外地瓜C:根據(jù)一個人的頭像判斷性格D:預(yù)測一個房子的價格答案:AI參考:正確選項是D:預(yù)測一個房子的價格。\n\n回歸任務(wù)是指根據(jù)已知的數(shù)據(jù)預(yù)測一個因變量的值,這個因變量通常是一個數(shù)值型的結(jié)果。在這個問題中,回歸任務(wù)的任務(wù)是預(yù)測房子的價格,因為房子的價格是一個可以量化的數(shù)值,所以是回歸任務(wù)。而A、B、C三個選項中的預(yù)測都是根據(jù)已知數(shù)據(jù)進(jìn)行預(yù)測,但不是根據(jù)已知結(jié)果來預(yù)測未來的值,因此不是回歸任務(wù)。'局部線性嵌入中,原空間局部信息指的是()。
A:除中心樣本外的樣本對中心樣本的線性表示信息B:鄰域樣本對中心樣本的線性表示信息C:ABC都是D:中心樣本的局部鄰域樣本信息答案:AI參考:正確答案是D:中心樣本的局部鄰域樣本信息。\n\n在局部線性嵌入中,原空間局部信息指的是中心樣本的局部鄰域樣本信息。這是因為局部線性嵌入方法通過將數(shù)據(jù)點周圍的鄰域中的樣本點線性組合,來獲取數(shù)據(jù)點的局部特征,從而實現(xiàn)對數(shù)據(jù)點的局部線性表示。因此,中心樣本的局部鄰域樣本信息是原空間局部信息的重要組成部分。選項A和B雖然也涉及到樣本對中心樣本的線性表示信息,但不夠全面,因此不是正確答案。選項C則完全不相關(guān),因此也不正確。'下列哪個不屬于LDA和PCA的相同點()
A:兩者在降維時均使用了矩陣特征值分解的思想。B:兩者均可以對數(shù)據(jù)進(jìn)行降維。C:兩者均屬于監(jiān)督式學(xué)習(xí)算法。D:兩者都假設(shè)數(shù)據(jù)符合高斯分布。答案:AI參考:正確選項是【兩者均屬于監(jiān)督式學(xué)習(xí)算法】。\n\nLDA(線性判別分析)和PCA(主成分分析)都是常用的降維方法,它們都使用了矩陣特征值分解的思想,可以對數(shù)據(jù)進(jìn)行降維,并且都假設(shè)數(shù)據(jù)符合高斯分布。但是,LDA是一種有監(jiān)督學(xué)習(xí)算法,而PCA是一種無監(jiān)督學(xué)習(xí)算法,因此不屬于監(jiān)督式學(xué)習(xí)算法。因此,選項C是正確答案。'()
A:B:C:D:答案:AI參考:正確選項是【C】。\n\n題目中給出的是一個圖片鏈接,鏈接指向的是一個PNG格式的圖片文件。根據(jù)常識和題目要求,應(yīng)該選擇一個與圖片相關(guān)的選項,而C選項“”符合這個要求,因此是正確答案。A、B、D選項都與圖片無關(guān),因此不是正確答案。'假定你使用了一個很小值的RBF核,這意味著:()
A:模型將考慮使用遠(yuǎn)離超平面的點建模B:模型僅使用接近超平面的點來建模C:ABC都不正確D:模型不會被點到超平面的距離所影響答案:AI參考:答案選【ABC都不正確】。\n\n使用一個小值的RBF核意味著模型在建模時,會考慮使用遠(yuǎn)離超平面的點,但不會受到點到超平面的距離的影響。因此,選項C和D都是不正確的。而選項A和B則分別描述了RBF核的不同應(yīng)用場景,但都不是題干中所描述的。因此,正確答案是ABC都不正確。'下列關(guān)于長短期記憶網(wǎng)絡(luò)LSTM和循環(huán)神經(jīng)網(wǎng)絡(luò)RNN的關(guān)系描述正確的是()
A:LSTM是雙向的RNNB:LSTM是RNN的擴(kuò)展方法,通過特有結(jié)構(gòu)設(shè)計來避免長期依賴問題C:LSTM是多層的RNND:LSTM是簡化版的RNN答案:AI參考:選項B:LSTM是RNN的擴(kuò)展方法,通過特有結(jié)構(gòu)設(shè)計來避免長期依賴問題,是正確的描述。長短期記憶網(wǎng)絡(luò)(LSTM)是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),它通過特殊的設(shè)計結(jié)構(gòu),如記憶單元和門結(jié)構(gòu),有效地解決了RNN中存在的長期依賴問題,從而在許多自然語言處理任務(wù)中表現(xiàn)出了優(yōu)越的性能。因此,選項B“LSTM是RNN的擴(kuò)展方法,通過特有結(jié)構(gòu)設(shè)計來避免長期依賴問題”是正確的描述。選項A和C描述的是LSTM與RNN之間的關(guān)系,但不夠準(zhǔn)確;選項D則表述錯誤,LSTM并不是簡化版的RNN。'以下說法正確的是()。
A:Logistic回歸算法是模型假設(shè)為Sigmoid函數(shù)的經(jīng)驗損失最小化算法。B:Logistic回歸算法是針對多元分類問題的一個重要算法。C:線性回歸算法是用于解決分類問題的方法。D:回歸問題和分類問題是兩類非監(jiān)督式學(xué)習(xí)問題。答案:AI參考:正確答案是B:Logistic回歸算法是針對多元分類問題的一個重要算法。\n\nLogistic回歸是一種基于概率的非線性回歸分析方法,它通過將輸入特征映射到概率空間,從而實現(xiàn)對多元分類問題的建模。因此,選項B是正確的。選項A和C都是關(guān)于Logistic回歸算法的描述,但是它們的描述不夠準(zhǔn)確。選項D則是關(guān)于非監(jiān)督式學(xué)習(xí)問題的描述,與Logistic回歸算法無關(guān)。因此,答案為B。'下面哪句話是正確的?()
A:機(jī)器學(xué)習(xí)模型的精準(zhǔn)度越高,則模型的性能越好B:增加模型的復(fù)雜度,總能減小測試樣本誤差C:增加模型的復(fù)雜度,總能減小訓(xùn)練樣本誤差答案:AI參考:正確選項是:A:機(jī)器學(xué)習(xí)模型的精準(zhǔn)度越高,則模型的性能越好。\n\n原因分析:\n\nA選項:“機(jī)器學(xué)習(xí)模型的精準(zhǔn)度越高,則模型的性能越好”這個選項表述是正確的。機(jī)器學(xué)習(xí)模型的精準(zhǔn)度代表模型預(yù)測結(jié)果的準(zhǔn)確性,而模型的性能還涉及到模型的穩(wěn)定性和運(yùn)行效率等因素。通常來說,精準(zhǔn)度是衡量模型性能的重要指標(biāo)之一。因此,如果模型的精準(zhǔn)度越高,那么模型的性能也會越好。\n\nB選項:“增加模型的復(fù)雜度,總能減小測試樣本誤差”這個選項表述不準(zhǔn)確。增加模型的復(fù)雜度并不能直接減小測試樣本誤差,而是需要根據(jù)模型的特點和數(shù)據(jù)的特點來選擇合適的模型結(jié)構(gòu)和參數(shù)設(shè)置,以達(dá)到減小測試樣本誤差的目的。\n\nC選項:“增加模型的復(fù)雜度,總能減小訓(xùn)練樣本誤差”這個選項表述也是不準(zhǔn)確的。模型復(fù)雜度的增加并不一定能夠減小訓(xùn)練樣本誤差,有時候反而會增加訓(xùn)練樣本誤差。因為模型的復(fù)雜度增加可能導(dǎo)致過擬合現(xiàn)象的出現(xiàn),而過擬合現(xiàn)象通常會導(dǎo)致訓(xùn)練樣本誤差的增加。\n\n綜上所述,A選項是正確的。'設(shè),則當(dāng)x-->1時,()。
A:a(x)與b(x)是等價無窮小B:a(x)是比b(x)高階的無窮小C:a(x)與b(x)是同階無窮小,但不是等價無窮小D:b(x)是比a(x)高階的無窮小答案:AI參考:答案:C\n推理過程:\n首先根據(jù)題干給出的圖片可知圖片寬度為155.99127pt,高度為27.447165pt。因為一個單位為pt的長度是固定的,所以根據(jù)比值的縮放可以推斷出x->1時圖片寬高是按比例縮放的,因此可知b(x)的寬度是按比例縮小了的a(x),且其比例是無窮小。即當(dāng)x->1時,b(x)的寬度相對于a(x)來說是一個無窮小量,因此兩者是同階無窮小,但不是等價無窮小。選項A、B、D顯然都錯誤。\n綜上所述,正確答案是C:a(x)與b(x)是同階無窮小,但不是等價無窮小。'以下關(guān)于聚類算法說法正確的是()。
A:合并聚類算法是基于密度的聚類B:聚類分析是無監(jiān)督學(xué)習(xí)算法C:聚類目標(biāo)是將數(shù)據(jù)集中的樣本劃分為若干個不相交的子集D:K均值算法是一個近似算法答案:AI參考:關(guān)于聚類算法的說法正確的是:C:聚類目標(biāo)是將數(shù)據(jù)集中的樣本劃分為若干個不相交的子集。\n\n解釋:A選項錯誤,因為合并聚類算法是基于距離的聚類;B選項錯誤,因為聚類分析是一種有監(jiān)督學(xué)習(xí)算法;D選項錯誤,因為K均值算法是一個優(yōu)化算法而非近似算法。因此,只有C選項是正確的,因為它準(zhǔn)確地描述了聚類的目標(biāo)。'LDA降維的目標(biāo)是將帶有標(biāo)簽的數(shù)據(jù)降維,投影到低維空間同時滿足三個條件有:()
A:在所投影的維度上數(shù)據(jù)的方差最大B:投影后使得同類樣本盡可能近,不同類樣本盡可能遠(yuǎn)C:盡可能多地保留數(shù)據(jù)樣本的信息D:尋找使樣本盡可能好分的最佳投影方向答案:AI參考:正確選項為:B,C\n\nLDA降維的目標(biāo)是將帶有標(biāo)簽的數(shù)據(jù)降維,投影到低維空間同時盡可能多地保留數(shù)據(jù)樣本的信息,并且使得同類樣本盡可能近,不同類樣本盡可能遠(yuǎn)。在選擇投影方向時,LDA算法會嘗試尋找使樣本盡可能好分的最佳投影方向,但這不是其唯一目標(biāo)。因此,選項B和C是正確的。選項A和D雖然也是LDA降維的目標(biāo)之一,但并不是LDA算法的核心目標(biāo)。'關(guān)于BP神經(jīng)網(wǎng)絡(luò)的缺點說法正確的是()
A:隨著神經(jīng)網(wǎng)絡(luò)的層數(shù)加深,訓(xùn)練過程存在嚴(yán)重的“梯度彌散”現(xiàn)象,即網(wǎng)絡(luò)的輸出結(jié)果通過反向傳播,當(dāng)?shù)竭_(dá)前面層時,梯度會逐漸消失,使得不能指引網(wǎng)絡(luò)權(quán)值的訓(xùn)練,從而導(dǎo)致網(wǎng)絡(luò)不能正常收斂。
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 事業(yè)單位臨時聘用人員合同
- 內(nèi)外墻抹灰勞務(wù)合同書
- 購房合同定金協(xié)議書
- 三農(nóng)村電商三農(nóng)村創(chuàng)新創(chuàng)業(yè)支持方案
- 2025年寧波貨運(yùn)從業(yè)資格證考試模擬考試
- 2025年陽泉貨運(yùn)車從業(yè)考試題
- 小學(xué)二年級數(shù)學(xué)下冊口算題人教版
- 電瓶車抵押給個人合同(2篇)
- 電機(jī)員工合同(2篇)
- 市貫徹落實第輪省生態(tài)環(huán)境保護(hù)督察報告整改方案
- 2024年中國黃油行業(yè)供需態(tài)勢及進(jìn)出口狀況分析
- 永磁直流(汽車)電機(jī)計算程序
- 中學(xué)學(xué)校2024-2025學(xué)年教師發(fā)展中心工作計劃
- 小班期末家長會-雙向奔赴 共育花開【課件】
- 2024年江西省高考物理試卷(含答案解析)
- 頸部瘢痕攣縮畸形治療
- 貴州省貴陽市2023-2024學(xué)年五年級上學(xué)期語文期末試卷(含答案)
- 規(guī)劃課題申報范例:俄羅斯教育改革研究(附可修改技術(shù)路線圖)
- 運(yùn)輸企業(yè)安全事故報告調(diào)查處理制度(簡單版5篇)
- 端午做香囊課件
- 墨香里的年味兒(2023年遼寧沈陽中考語文試卷記敘文閱讀題及答案)
評論
0/150
提交評論