




版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)
文檔簡介
機(jī)器學(xué)習(xí)理論與方法知到智慧樹章節(jié)測試課后答案2024年秋同濟(jì)大學(xué)第一章單元測試
機(jī)器學(xué)習(xí)是研究發(fā)現(xiàn)數(shù)據(jù)模型的算法并利用這些模型做出決策。()
A:錯B:對
答案:對機(jī)器學(xué)習(xí)通常要經(jīng)過數(shù)據(jù)選擇,模型訓(xùn)練,模型優(yōu)化矯正等過程。()
A:錯B:對
答案:對決策樹模型是一種典型的聚類模型。()
A:對B:錯
答案:錯決策樹是隨機(jī)森林模型的子結(jié)構(gòu)。()
A:錯B:對
答案:對以下哪種情況適合使用SVM算法()。
A:郵件過濾
B:單細(xì)胞分類
C:小分子結(jié)構(gòu)活性預(yù)測
D:情感分析
答案:單細(xì)胞分類
關(guān)于機(jī)器學(xué)習(xí)的基本流程,下列順序正確的是()。
A:建?!倪M(jìn)—評價
B:建?!u價—改進(jìn)
C:改進(jìn)—評價—建模
D:評價—建?!倪M(jìn)
答案:建?!u價—改進(jìn)
監(jiān)督式學(xué)習(xí)根據(jù)輸出形式可分為()。
A:回歸
B:分類,回歸和結(jié)構(gòu)化學(xué)習(xí)
C:分類
D:分類和回歸
答案:分類和回歸
機(jī)器學(xué)習(xí)根據(jù)學(xué)習(xí)方式可分為()。
A:強(qiáng)化學(xué)習(xí)
B:半監(jiān)督學(xué)習(xí)
C:監(jiān)督學(xué)習(xí)
D:無監(jiān)督學(xué)習(xí)
E:遷移學(xué)習(xí)
答案:強(qiáng)化學(xué)習(xí)
;半監(jiān)督學(xué)習(xí)
;監(jiān)督學(xué)習(xí)
;無監(jiān)督學(xué)習(xí)
樸素貝葉斯適合下列哪種場景分析()。
A:消費(fèi)者細(xì)分
B:車流量分析
C:自然語言處理
D:情感分析
答案:消費(fèi)者細(xì)分
;情感分析
機(jī)器學(xué)習(xí)根據(jù)模型性質(zhì)可分為()。
A:線性模型
B:貝葉斯模型
C:非線性模型
D:隨機(jī)模型
答案:線性模型
;非線性模型
第二章單元測試
若非零矩陣A滿足A=O,則A+E與A-E均可逆()
A:錯B:對
答案:對矩陣的特征值為()
A:-1
B:0
C:1或-1
D:1
答案:-1
設(shè)P(A)=0.4,P(B)=0.7,事件A,B相互獨(dú)立,則P(B-A)=()
A:0.42
B:0.12
C:0.28
D:0.3
答案:0.42
已知離散型隨機(jī)變量X可取值{-3,-1,0,2},且取這些值的概率依次為,則b的取值為2()
A:錯B:對
答案:對若隨機(jī)變量X服從N(5,4)的分布,若P(X>c)=P(X<c),則c=()
A:6
B:4
C:5
D:7
答案:5
事件A,B,C至少有一個發(fā)生可以表示為。()
A:對B:錯
答案:對事件A與B互不相容,是指P(AB)=P(A)P(B)。()
A:對B:錯
答案:對
下列關(guān)于矩陣的運(yùn)算法則正確的是()。
A:AB=BAB:(At)t=AC:(AB)C=A(BC)D:(A+B)C=AC+BC
答案:(At)t=A;(AB)C=A(BC);(A+B)C=AC+BC假設(shè)A和B都是同階可逆矩陣,且A為對稱矩陣,則下列等式成立的為()。
A:(ABt)-1=A-1(B-1)tB:
(AB)t=BtA
C:(AtB)-1=B-1A-1D:(ABt)-1=(B-1)t
A-1
答案:(ABt)-1=A-1(B-1)t假設(shè)感染了新冠病毒的病人中感到身體發(fā)熱的概率為0.88,病人感染新冠病毒的概率為0.001,病人發(fā)熱的概率為0.02,則如果檢測到一個病人發(fā)熱,則判斷他感染了新冠病毒的概率為()。
A:0.044B:0.0002C:0.0088D:0.001
答案:0.044
第三章單元測試
機(jī)器學(xué)習(xí)模型都是從經(jīng)驗(yàn)中Experience學(xué)習(xí)任務(wù)Task。假設(shè)我們?yōu)榱俗屢粋€機(jī)器學(xué)習(xí)算法學(xué)會預(yù)測腫瘤病人的存活率。以下哪一項(xiàng)不是Experience的合理選擇?()
A:腫瘤病人的基因組信息
B:腫瘤分期(腫瘤的惡性程度)
C:腫瘤病人的生命體征
D:腫瘤病人的轉(zhuǎn)錄組信息
答案:腫瘤病人的基因組信息
通過細(xì)胞的轉(zhuǎn)錄組信息預(yù)測細(xì)胞類型,屬于以下哪一種問題?()
A:回歸問題
B:聚類問題
C:分類問題
答案:分類問題
下圖為某任務(wù)損失函數(shù)隨參數(shù)變化的曲面圖,則以下說法正確的是()
A:學(xué)習(xí)率過大可能會導(dǎo)致loss在B點(diǎn)附近來回震蕩
B:當(dāng)使用梯度下降法求解損失函數(shù)的最小值時,loss可能會從A點(diǎn)到達(dá)C點(diǎn)
C:當(dāng)使用梯度下降法求解損失函數(shù)的最小值時,一定會使得loss到達(dá)B點(diǎn)
D:該損失函數(shù)可能是一元線性回歸的損失函數(shù)曲面圖
答案:學(xué)習(xí)率過大可能會導(dǎo)致loss在B點(diǎn)附近來回震蕩
;當(dāng)使用梯度下降法求解損失函數(shù)的最小值時,loss可能會從A點(diǎn)到達(dá)C點(diǎn)
以下哪一項(xiàng)是使用特征縮放的原因?()
A:防止梯度下降陷入局部最優(yōu)
B:加快了標(biāo)準(zhǔn)方程的求解
C:降低梯度下降的每次迭代的計(jì)算成本來加速梯度下降
D:通過減少迭代次數(shù)來獲得一個好的解,從而加速了梯度下降
答案:通過減少迭代次數(shù)來獲得一個好的解,從而加速了梯度下降
以下說法正確的是()
A:預(yù)測蛋白質(zhì)的二級結(jié)構(gòu),該任務(wù)屬于非監(jiān)督學(xué)習(xí)
B:利用癌癥的組學(xué)數(shù)據(jù)將癌癥劃分成各個亞型,從而研究不同的治療手段,該任務(wù)屬于非監(jiān)督學(xué)習(xí)
C:預(yù)測基因的功能,該任務(wù)屬于監(jiān)督學(xué)習(xí)
答案:利用癌癥的組學(xué)數(shù)據(jù)將癌癥劃分成各個亞型,從而研究不同的治療手段,該任務(wù)屬于非監(jiān)督學(xué)習(xí)
;預(yù)測基因的功能,該任務(wù)屬于監(jiān)督學(xué)習(xí)
利用患者的年齡來預(yù)測藥物的治療效果,并使用回歸模型進(jìn)行學(xué)習(xí),則該回歸模型屬于一元回歸模型。()
A:對B:錯
答案:對在訓(xùn)練模型時,我們可以使用梯度下降法求解損失函數(shù)的最大值。()
A:錯B:對
答案:錯在模型訓(xùn)練過程中,學(xué)習(xí)率越大越好。()
A:對B:錯
答案:錯梯度下降法可以表征為。()
A:對B:錯
答案:對現(xiàn)有以下任務(wù):利用基因A的表達(dá)量(X)預(yù)測腫瘤的大?。╕),下圖為訓(xùn)練數(shù)據(jù),我們利用線性回歸模型,假設(shè),則以下說法正確的是()。
A:該訓(xùn)練集一共有5個樣本B:C:D:損失函數(shù)可以表征為
答案:
第四章單元測試
選擇模型時,我們傾向于選擇高方差的模型,因?yàn)樗鼈兡軌蚋玫倪m應(yīng)訓(xùn)練集。()
A:對B:錯
答案:錯訓(xùn)練完邏輯回歸分類器后,必須使用0.5作為預(yù)測正負(fù)的閾值。()
A:錯B:對
答案:錯訓(xùn)練一個邏輯回歸模型時,以下哪項(xiàng)陳述是正確的?()
A:如果我們的模型偏差較高,一個合理的解決方案時引入正則化
B:向模型中添加許多新特性有助于防止訓(xùn)練集過擬合
C:向模型中添加新特征總是會在訓(xùn)練集上獲得相同或更好的性能
D:將正則化引入到模型中,總是能在訓(xùn)練集上獲得相同或更好的性能
答案:向模型中添加新特征總是會在訓(xùn)練集上獲得相同或更好的性能
Sigmoid函數(shù)的優(yōu)點(diǎn)有()
A:定義域在整個實(shí)數(shù)集上
B:不容易產(chǎn)生梯度消失
C:輸出映射在(0,1)之間,單調(diào)連續(xù)
D:易于求導(dǎo)
答案:定義域在整個實(shí)數(shù)集上
;輸出映射在(0,1)之間,單調(diào)連續(xù)
;易于求導(dǎo)
當(dāng)模型出現(xiàn)過擬合現(xiàn)象時,下列哪些做法可以改善()
A:嘗試添加多個特征
B:嘗試增加正則化項(xiàng)
C:嘗試使用較少的特征
D:嘗試獲取并使用其他特征
答案:嘗試增加正則化項(xiàng)
;嘗試使用較少的特征
下列哪些情景可以用邏輯回歸()
A:從病人的腫瘤切片數(shù)據(jù)中獲取一些特征,判斷該腫瘤是良性還是惡性。
B:給定病人的一些臨床數(shù)據(jù),判斷特定療法能否發(fā)揮作用。
C:給出病人的一些風(fēng)險因素,預(yù)測某一事件的發(fā)生概率。
D:給定病人的一些臨床數(shù)據(jù),預(yù)測病人的生存期。
答案:從病人的腫瘤切片數(shù)據(jù)中獲取一些特征,判斷該腫瘤是良性還是惡性。
;給定病人的一些臨床數(shù)據(jù),判斷特定療法能否發(fā)揮作用。
為了實(shí)現(xiàn)特征選擇,選擇L2正則化()
A:錯B:對
答案:錯過擬合在訓(xùn)練集上效果好,在測試集上效果差()
A:錯B:對
答案:對訓(xùn)練邏輯回歸分類器時,將閾值從0.5下調(diào)至0.3。以下哪項(xiàng)是正確的:()
A:分類器的準(zhǔn)確度和召回率可能不變,但精確率較低。
B:分類器的準(zhǔn)確度和召回率可能不變,但精確率較高。
C:分類器現(xiàn)在可能具有更高的召回率。
D:分類器現(xiàn)在可能具有更高的精確率。
答案:分類器現(xiàn)在可能具有更高的召回率。
Sigmoid函數(shù)的形式是()。
A:B:C:D:
答案:
第五章單元測試
分類器的實(shí)際預(yù)測輸出與樣本的真實(shí)輸出之間的差異稱為“誤差”。()
A:錯B:對
答案:對過擬合是可以避免的。()
A:錯B:對
答案:錯交叉驗(yàn)證法中,如果選擇留一法,是為了避免不受隨機(jī)樣本劃分的影響。()
A:對B:錯
答案:對學(xué)習(xí)算法訓(xùn)練程度不足時,偏差會高,方差會低。()
A:錯B:對
答案:對交叉驗(yàn)證法中的測試集是來自于()。
A:新樣本
B:訓(xùn)練集
C:驗(yàn)證集
答案:訓(xùn)練集
一般用來評價模型在訓(xùn)練集上的表現(xiàn)時,用作標(biāo)準(zhǔn)的是()。
A:錯誤率
B:精度
C:訓(xùn)練誤差
D:均方誤差
答案:均方誤差
當(dāng)學(xué)習(xí)算法偏差高,方差低時,呈現(xiàn)出()。
A:欠擬合
B:模型不能用
C:過擬合
答案:欠擬合
交叉驗(yàn)證法中,設(shè)數(shù)據(jù)集包含m個樣本,不計(jì)計(jì)算開銷,比較準(zhǔn)確的是()。
A:1折交叉驗(yàn)證
B:m折交叉驗(yàn)證
C:10折交叉驗(yàn)證
答案:m折交叉驗(yàn)證
用來比較檢驗(yàn)分類器的統(tǒng)計(jì)方法中,包括以下()。
A:γ檢驗(yàn)
B:交叉t檢驗(yàn)
C:二項(xiàng)檢驗(yàn)
D:海明檢驗(yàn)
答案:交叉t檢驗(yàn)
;二項(xiàng)檢驗(yàn)
平均均方誤差(Meansquareerror)可以分解為()
A:方差
B:偏差
C:訓(xùn)練誤差
D:經(jīng)驗(yàn)誤差
答案:方差
;偏差
第六章單元測試
公司里面男性有60人,女性有40人,男性穿皮鞋的人數(shù)有25人,穿運(yùn)動鞋的人數(shù)有35人,女性穿皮鞋的人數(shù)有10人,穿高跟鞋的人數(shù)有30人?,F(xiàn)在你只知道有一個人穿了皮鞋,他是男性的概率是多少()。
A:0.1
B:0.2
C:0.5
D:0.25
答案:0.25
A,B,C產(chǎn)品占比分布為1/2,1/6,1/3;A,B,C的次品率分布為0.2,0.1,0.3;那么出現(xiàn)次品是A做出來的概率();
A:0.30
B:0.46
C:0.67
D:0.2
答案:0.46
下列關(guān)于樸素貝葉斯說法正確的是()。
A:對小規(guī)模數(shù)據(jù)表現(xiàn)良好
B:對缺失值敏感
C:不需要獲得先驗(yàn)分布
D:對異常值敏感
答案:對小規(guī)模數(shù)據(jù)表現(xiàn)良好
假設(shè)吸煙的本科生比例為15%,而吸煙的研究生占23%。如果五分之一的大學(xué)生是研究生,其余的是本科生,那么吸煙的學(xué)生是研究生的概率是多少?()。
A:0.15
B:0.16
C:0.2
D:0.27
答案:0.2
樸素貝葉斯的應(yīng)用場景主要有()。
A:推薦系統(tǒng)
B:垃圾郵件判別
C:情感判別
D:文本分類
答案:推薦系統(tǒng)
;垃圾郵件判別
;情感判別
;文本分類
有兩枚硬幣,其中一枚均勻,另一枚不均勻,隨機(jī)拿一枚,并投擲10次,記X1:前9次有7次為正面,X2:第10次為反面,X3:這枚硬幣不均勻,則X1,X2關(guān)于X3條件獨(dú)立。()。
A:對B:錯
答案:對貝葉斯學(xué)習(xí)最終輸出結(jié)果為模型和模型參數(shù)。()
A:對B:錯
答案:錯貝葉斯估計(jì)認(rèn)為參數(shù)θ是某種已知先驗(yàn)分布的隨機(jī)變量。
A:錯B:對
答案:對下列關(guān)于樸素貝葉斯說法正確的是()
A:進(jìn)行分布估計(jì)
B:通過最大后驗(yàn)概率進(jìn)行單點(diǎn)估計(jì)
C:生成式模型
D:判別式模型
答案:通過最大后驗(yàn)概率進(jìn)行單點(diǎn)估計(jì)
;生成式模型
以下哪項(xiàng)是后驗(yàn)概率項(xiàng),假設(shè)A為分類變量()。
A:P(A)
B:P(B/A)
C:P(A/B)
D:P(B)
答案:P(A/B)
第七章單元測試
決策樹是基于規(guī)則的樹狀結(jié)構(gòu)的機(jī)器學(xué)習(xí)算法,可以用來進(jìn)行分類任務(wù)。()
A:對B:錯
答案:對熵越小,純度越低,不確定性越高。()
A:錯B:對
答案:錯一堆細(xì)胞中含有16個B細(xì)胞和48個T細(xì)胞,那么這堆細(xì)胞的熵是多少(log)()。
A:0.811
B:0.701
C:0.921
D:0.891
答案:0.811
信息增益本質(zhì)上遵循的是熵減原則。()
A:錯B:對
答案:對決策樹深度越深越好,越能擬合數(shù)據(jù)。()
A:對B:錯
答案:錯過擬合是指模型在訓(xùn)練樣本擬合過度,表現(xiàn)極好,而在驗(yàn)證數(shù)據(jù)集以及測試數(shù)據(jù)集中表現(xiàn)不佳。()
A:對B:錯
答案:對決策樹的剪枝是為了防止樹的過擬合,增強(qiáng)其泛化能力。包括預(yù)剪枝和后剪枝。()
A:對B:錯
答案:對常見的后剪枝包括()。
A:基于樹深度的剪枝
B:減少錯誤的剪枝
C:基于代價的剪枝
D:基于規(guī)則的剪枝
答案:減少錯誤的剪枝
;基于規(guī)則的剪枝
決策樹無法處理特征為連續(xù)值的情況。()
A:對B:錯
答案:錯預(yù)剪枝是人觀測后手動停止樹的生長的。()
A:錯B:對
答案:錯
第八章單元測試
最近鄰算法核心思想直觀,可解釋性強(qiáng)。()
A:錯B:對
答案:對最近鄰算法的缺點(diǎn)有()。
A:對特征不平衡數(shù)據(jù)預(yù)測效果差
B:訓(xùn)練過程復(fù)雜度高
C:預(yù)測過程計(jì)算復(fù)雜度高
D:對類別不平衡數(shù)據(jù)預(yù)測效果差
答案:對特征不平衡數(shù)據(jù)預(yù)測效果差
;預(yù)測過程計(jì)算復(fù)雜度高
;對類別不平衡數(shù)據(jù)預(yù)測效果差
最近鄰算法可用于分類和回歸任務(wù)。()
A:錯B:對
答案:對最近鄰算法中,將k值設(shè)置更小可以降低預(yù)測計(jì)算復(fù)雜度。()
A:錯B:對
答案:錯最近鄰算法對于類別不平衡數(shù)據(jù)預(yù)測效果好。()
A:對B:錯
答案:錯最近鄰算法有很多新的改進(jìn)版本,其中weighted-distanceknn可以有效提升更近的樣本在決策時的權(quán)重。()
A:對B:錯
答案:對最近鄰算法理論復(fù)雜,實(shí)現(xiàn)難度高。()
A:對B:錯
答案:錯最近鄰算法不需要訓(xùn)練過程。()
A:錯B:對
答案:對最近鄰算法預(yù)測過程計(jì)算復(fù)雜度高主要是因?yàn)橐?jì)算待分類樣本和其他所有樣本的距離。()
A:錯B:對
答案:對最近鄰算法計(jì)算樣本間的距離時,只能用歐氏距離。()
A:錯B:對
答案:錯
第九章單元測試
支持向量是最接近決策平面的點(diǎn)。()
A:對B:錯
答案:對SVM非常適合于大規(guī)模的數(shù)據(jù)。()
A:錯B:對
答案:錯核函數(shù)是將低維數(shù)據(jù)映射到高維空間。()
A:錯B:對
答案:對以下情況中哪一情況SVM的效果會不太好()。
A:數(shù)據(jù)是經(jīng)過清洗且可用的
B:數(shù)據(jù)是有噪聲并且包含重合的點(diǎn)
C:數(shù)據(jù)的維度相對來說比較小
D:數(shù)據(jù)是線性可分的
答案:數(shù)據(jù)是有噪聲并且包含重合的點(diǎn)
如果SVM的懲罰項(xiàng)C設(shè)置成非常大,會導(dǎo)致()。
A:不好判別
B:對于這樣的C,我們可以很好的對訓(xùn)練集進(jìn)行正確分類
C:對于這樣的C,我們不能對訓(xùn)練集進(jìn)行正確分類
答案:對于這樣的C,我們可以很好的對訓(xùn)練集進(jìn)行正確分類
如果有一個線性SVM模型過擬合了,以下哪一個操作你會優(yōu)先考慮進(jìn)行下一步的模型迭代()。
A:增加數(shù)據(jù)量
B:減少更多變量
C:減少數(shù)據(jù)量
D:增加更多變量
答案:增加更多變量
對于4分類問題,如果你要訓(xùn)練SVM模型使用一對多方法,則需要訓(xùn)練多少次模型()。
A:3
B:4
C:1
D:2
答案:4
SVR與SVM的不同點(diǎn)在于()。
A:SVR不可以使用軟間隔
B:SVR可以使用核技巧和軟間隔
C:SVR的支持向量在邊際的外面,SVM的支持向量在邊際上
D:SVR不可以使用核技巧
答案:SVR可以使用核技巧和軟間隔
;SVR的支持向量在邊際的外面,SVM的支持向量在邊際上
SVM的有效性將基于()。
A:松弛變量的選擇
B:軟間隔的懲罰項(xiàng)C
C:核函數(shù)的選擇
答案:軟間隔的懲罰項(xiàng)C
;核函數(shù)的選擇
SVM及其擴(kuò)展可以應(yīng)用在()。
A:分類問題
B:聚類問題
C:預(yù)測問題
答案:分類問題
;聚類問題
;預(yù)測問題
第十章單元測試
CNN網(wǎng)絡(luò)中,每一層的輸出維度由什么決定()。
A:是否進(jìn)行補(bǔ)全(padding)
B:Kernel的尺寸
C:步長(strides)
D:該層的輸入
答案:是否進(jìn)行補(bǔ)全(padding)
;Kernel的尺寸
;步長(strides)
;該層的輸入
在對病歷數(shù)據(jù)進(jìn)行建模時,以下那些操作是必須的()。
A:對病歷進(jìn)行分詞
B:計(jì)算病歷中所含的詞的種類
C:使用數(shù)字對分詞后的病歷進(jìn)行標(biāo)記
D:打亂分詞后的順序
答案:對病歷進(jìn)行分詞
;計(jì)算病歷中所含的詞的種類
;使用數(shù)字對分詞后的病歷進(jìn)行標(biāo)記
圖(Graph)和圖像(Image)是同一類數(shù)據(jù)。()
A:錯B:對
答案:錯深度學(xué)習(xí)模型只能接收數(shù)字矩陣作為輸入。()
A:對B:錯
答案:對Inception結(jié)構(gòu)的設(shè)計(jì)目標(biāo)是()。
A:增加模型寬度
B:提高模型的運(yùn)行速度
C:增加模型深度
D:簡化模型
答案:增加模型寬度
在生成式對抗網(wǎng)絡(luò)(GAN)中,判別器(Discriminator)所起到的作用是()。
A:輔助生成模型進(jìn)行更平穩(wěn)的訓(xùn)練
B:儲存生成模型所生成的樣本
C:識別出生成模型所生成的樣本所屬的種類
D:識別出輸入的樣本是真實(shí)樣本還是來源于生成模型
答案:識別出輸入的樣本是真實(shí)樣本還是來源于生成模型
如果想使用深度學(xué)習(xí)模型去生成有一定生物活性的藥物分子,可以選擇哪些模型結(jié)構(gòu)()。
A:CharRNN
B:GAN
C:VAE
D:Inception
答案:CharRNN
;GAN
;VAE
我們想要自己去實(shí)現(xiàn)一個深度學(xué)習(xí)模型,可以使用以下哪些框架()。
A:Sklearn(scikit-learn)
B:Pytorch
C:PaddlePaddle
D:TensorFlow
答案:Pytorch
;PaddlePaddle
;TensorFlow
實(shí)驗(yàn)室想要部署一臺可以進(jìn)行深度學(xué)習(xí)運(yùn)算的服務(wù)器,最好選配GPU。()
A:對B:錯
答案:對若使用深度學(xué)習(xí)模型對病歷數(shù)據(jù)進(jìn)行建模,則應(yīng)該選擇哪種模型()。
A:GCN
B:RNN
C:CNN
D:MLP
答案:RNN
第十一章單元測試
聚類分析所聚類的cluster數(shù)量限制在十個以內(nèi)。()
A:錯B:對
答案:錯聚類分析的目標(biāo)是盡可能的使組間差異變大。()
A:錯B:對
答案:對聚類分析的方法受初始點(diǎn)的影響比較小。()
A:對B:錯
答案:錯理論上,如果某個混合高斯模型融合的高斯模型個數(shù)足夠多,它們之間的權(quán)重設(shè)定得足夠合理,這個混合模型可以擬合任意分布的樣本。()
A:對B:錯
答案:對對于每一個樣本,使用EM算法學(xué)習(xí)高斯混合模型的參數(shù),當(dāng)?shù)玫降闹禃rEM算法運(yùn)行結(jié)束。()
A:對B:錯
答案:錯以下哪些是距離的衡量方式?()
A:Manhattandistance
B:persondistance
C:Euclideandistance
D:Cosinesimilarity
答案:Manhattandistance
;Euclideandistance
;Cosinesimilarity
聚類分析適用于多少維的數(shù)據(jù)()?
A:一百維以內(nèi)
B:沒有限制
C:十維以內(nèi)
D:二維
答案:沒有限制
新冠病毒已蔓延全世界,如果需要比較各個地區(qū)新冠病毒的基因突變特征并構(gòu)建系統(tǒng)發(fā)育樹,以下什么聚類方法最合適?()
A:層次聚類
B:K-means聚類
C:特征聚類
D:GMM聚類
答案:層次聚類
關(guān)于基于高斯混合模型(GMM)的聚類描述哪項(xiàng)是正確的?()
A:每個點(diǎn)只會分配到一個類中,并計(jì)算分配這個點(diǎn)的概率
B:基于高斯混合模型的聚類屬于軟聚類
C:GMM會學(xué)習(xí)出一個概率分配函數(shù)
D:模型初始化時每一個點(diǎn)會被認(rèn)為是一個單獨(dú)的群
答案:每個點(diǎn)只會分配到一個類中,并計(jì)算分配這個點(diǎn)的概率
;基于高斯混合模型的聚類屬于軟聚類
;GMM會學(xué)習(xí)出一個概率分配函數(shù)
下列說法正確的是?()
A:離散變量的混合模型,必須要假定每個類中的屬性是相互獨(dú)立B:EM算法常被人分為兩步,E步是使用當(dāng)前參數(shù)計(jì)算點(diǎn)的聚類結(jié)果,M步是更新參數(shù)進(jìn)行迭代
C:EM算法常被用來學(xué)習(xí)高斯混合模型
D:樸素貝葉斯的方法常用來處理離散變量的混合模型
答案:EM算法常被人分為兩步,E步是使用當(dāng)前參數(shù)計(jì)算點(diǎn)的聚類結(jié)果,M步是更新參數(shù)進(jìn)行迭代
;EM算法常被用來學(xué)習(xí)高斯混合模型
第十二章單元測試
假設(shè)有基因A和基因B表達(dá)量的二維數(shù)據(jù),PC1的斜率為0.25,則基因A和基因B的載荷得分為()。
A:0.97;0.242
B:4;1
C:0.25;1
D:0.326;0.74
答案:0.97;0.242
主成分學(xué)習(xí)是一種非監(jiān)督學(xué)習(xí)的降維方法。()
A:對B:錯
答案:對數(shù)據(jù)降維可能會帶來哪些負(fù)面影響()。
A:提高模型訓(xùn)練的計(jì)算量
B:損失大量有效信息
C:降低后續(xù)算法的表現(xiàn)
D:轉(zhuǎn)化后的特征可解釋性降低
答案:降低后續(xù)算法的表現(xiàn)
;轉(zhuǎn)化后的特征可解釋性降低
在生物信息學(xué)研究中,常常需要對數(shù)據(jù)進(jìn)行降維,這是因?yàn)椋ǎ?/p>
A:需要對數(shù)據(jù)可視化
B:提高分析結(jié)果的準(zhǔn)確性
C:生物學(xué)數(shù)據(jù)中大部分都是噪聲
D:生物學(xué)數(shù)據(jù)往往具有變量多,樣本少的特點(diǎn)
答案:需要對數(shù)據(jù)可視化
;生物學(xué)數(shù)據(jù)往往具有變量多,樣本少的特點(diǎn)
自編碼器的的解碼器部分負(fù)責(zé)進(jìn)行數(shù)據(jù)降維。()
A:對B:錯
答案:錯高維空間中數(shù)據(jù)具有稀疏性,容易導(dǎo)致模型過擬合。()
A:對B:錯
答案:對下列哪些是常用的數(shù)據(jù)降維算法()。
A:線性判別分析
B:因子分析
C:支持向量機(jī)
D:主成分分析
答案:線性判別分析
;因子分析
;主成分分析
選擇主成分個數(shù)時,通常累計(jì)解釋方差的貢獻(xiàn)率應(yīng)在哪個區(qū)間較合適()。
A:70%~80%
B:85%~100%
C:60%~100%
D:85%~95%
答案:85%~95%
自編碼器有以下哪些特點(diǎn)()。
A:自編碼器是一種自監(jiān)督算法
B:自編碼器的輸入和輸出完全相等
C:自編碼器是神經(jīng)網(wǎng)絡(luò)的一種
D:自編碼器主要應(yīng)用于數(shù)據(jù)降維和去除噪聲
答案:自編碼器是一種自監(jiān)督算法
;自編碼器是神經(jīng)網(wǎng)絡(luò)的一種
;自編碼器主要應(yīng)用于數(shù)據(jù)降維和去除噪聲
如果生物學(xué)數(shù)據(jù)的不同變量間具備較強(qiáng)相關(guān)性,那么更適合哪種降維方法()。
A:主成分分析
B:隨機(jī)森林
C:線性判別分析
D:因子分析
答案:因子分析
第十三章單元測試
異常值檢測是特殊的分類任務(wù)。()
A:錯B:對
答案:對通常在異常值檢測中,數(shù)據(jù)符合,則該數(shù)據(jù)為異常值。()
A:錯B:對
答案:錯獨(dú)立二元高斯分布圖中每一個縱切面都是一個一元高斯分布。()
A:錯B:對
答案:對基于內(nèi)容的推薦系統(tǒng)中,對于每一部電影,我們都掌握了可用的特征,使用這些特征訓(xùn)練出了每一個用戶的參數(shù)。但如果我們擁有用戶的參數(shù),我們無法學(xué)習(xí)得出電影的特征。()
A:錯B:對
答案:錯在協(xié)同過濾中,一般會將等初始值設(shè)置的比較大以獲得更好的效果。()
A:對B:錯
答案:錯下列屬于異常值檢測在應(yīng)用的有?()
A:表達(dá)譜數(shù)據(jù)中缺失基因的尋找
B:檢測系統(tǒng)故障
C:篩選出身體患病的病人
D:腫瘤類型的分類
答案:表達(dá)譜數(shù)據(jù)中缺失基因的尋找
;檢測系統(tǒng)故障
;篩選出身體患病的病人
下面對于異常值檢測的數(shù)據(jù)分布說法正確的有?()
A:對于非高斯分布的數(shù)據(jù),雖然也可以使用檢測算法,但往往效果不是很好
B:應(yīng)盡量將非高斯分布轉(zhuǎn)化成(近似)高斯分布,然后再進(jìn)行處理
C:應(yīng)使用對應(yīng)的概率密度分布函數(shù)來改變數(shù)據(jù)的分布
D:對于符合高斯分布的數(shù)據(jù),直接運(yùn)用檢測算法
答案:對于非高斯分布的數(shù)據(jù),雖然也可以使用檢測算法,但往往效果不是很好
;應(yīng)盡量將非高斯分布轉(zhuǎn)化成(近似)高斯分布,然后再進(jìn)行處理
;應(yīng)使用對應(yīng)的概率密度分布函數(shù)來改變數(shù)據(jù)的分布
;對于符合高斯分布的數(shù)據(jù),直接運(yùn)用檢測算法
推薦系統(tǒng)常用的方法有哪些?()
A:基于聚類算法的推薦
B:基于插值的推薦
C:基于內(nèi)容的推薦
D:基于協(xié)同過濾的推薦
答案:基于內(nèi)容的推薦
;基于協(xié)同過濾的推薦
下面哪些屬于協(xié)同過濾算法存在的不足?()
A:算法對于用戶的主觀評分比較依賴
B:當(dāng)一個新的用戶或物品進(jìn)入推薦系統(tǒng)時,系統(tǒng)將無從依據(jù)
C:協(xié)同過濾算法適用于更迭快的物品(比如新聞,廣告),在更新速度過快用戶評論不多的情況下,比起其他算法,協(xié)同過濾算法能有好的的準(zhǔn)確度。
D:在推薦的過程中,當(dāng)前最流行的物品會更更容易被推薦
答案:協(xié)同過濾算法適用于更迭快的物品(比如新聞,廣告),在更新速度過快用戶評論不多的情況下,比起其他算法,協(xié)同過濾算法能有好的的準(zhǔn)確度。
在進(jìn)行crisper基因編輯實(shí)驗(yàn)時,通常需要進(jìn)行引物的設(shè)計(jì)。有三個生物信息學(xué)工具可以對引物進(jìn)行打分,其中A將引物分為有效,可能有效,無效這三個等級。B將引物分為1至10共十個等級,C對引物進(jìn)行打分,滿分為100分。如果想將這三個推薦工具的結(jié)果整合,下面哪個說法是正確的?()
A:可以將三個數(shù)據(jù)集合并到一個數(shù)據(jù)集,但是應(yīng)該首先將每個數(shù)據(jù)集的打分方式標(biāo)準(zhǔn)化
B:直接將三個數(shù)據(jù)集進(jìn)行整合,不需要任何修改即可得到期望的答案。
C:三個工具度量不同,是無法整合的,需要建立三個獨(dú)立的系統(tǒng)。
D:如果對于引物,A工具無法對他評分,其他工具對其正常打分,那么由于缺少數(shù)據(jù),就沒有可靠的方法來合并數(shù)據(jù)集。
答案:可以將三個數(shù)據(jù)集合并到一個數(shù)據(jù)集,但是應(yīng)該首先將每個數(shù)據(jù)集的打分方式標(biāo)準(zhǔn)化
第十四章單元測試
畫學(xué)習(xí)曲線是為了觀察模型狀態(tài),如過擬合或欠擬合。()
A:對B:錯
答案:對可以采用哪些方法提
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 西京學(xué)院《史學(xué)名著導(dǎo)讀》2023-2024學(xué)年第二學(xué)期期末試卷
- 蘇州經(jīng)貿(mào)職業(yè)技術(shù)學(xué)院《信息技術(shù)項(xiàng)目管理》2023-2024學(xué)年第二學(xué)期期末試卷
- 貴州民用航空職業(yè)學(xué)院《信號與系統(tǒng)理論教學(xué)》2023-2024學(xué)年第二學(xué)期期末試卷
- 信陽職業(yè)技術(shù)學(xué)院《女子健身俱樂部》2023-2024學(xué)年第二學(xué)期期末試卷
- 民辦萬博科技職業(yè)學(xué)院《機(jī)械結(jié)構(gòu)有限元及應(yīng)用》2023-2024學(xué)年第二學(xué)期期末試卷
- 江蘇城市職業(yè)學(xué)院《會展材料與工藝》2023-2024學(xué)年第二學(xué)期期末試卷
- 景德鎮(zhèn)學(xué)院《教育法規(guī)與職業(yè)道德》2023-2024學(xué)年第二學(xué)期期末試卷
- 柳州鐵道職業(yè)技術(shù)學(xué)院《商務(wù)與管理溝通(雙語)》2023-2024學(xué)年第二學(xué)期期末試卷
- 南陽醫(yī)學(xué)高等??茖W(xué)?!抖S游戲設(shè)計(jì)基礎(chǔ)》2023-2024學(xué)年第二學(xué)期期末試卷
- 2025年飛機(jī)起落架項(xiàng)目可行性研究報告
- 全國初中數(shù)學(xué)競賽分類匯編及解析
- 06歲兒童眼保健知識培訓(xùn)課件
- 企業(yè)商業(yè)秘密保護(hù)操作指引(2023版)
- 布草類送洗記錄表
- 三年級數(shù)學(xué)口算題300道 (可直接打印)
- 益生芽孢桿菌體外抑菌活性及耐藥性研究
- 2023數(shù)聯(lián)網(wǎng)(DSSN)白皮書
- 消防設(shè)施操作和維護(hù)保養(yǎng)規(guī)程
- 寰樞椎脫位的護(hù)理課件
- 社區(qū)養(yǎng)老驛站運(yùn)營方案模版
- 鐵道概論(高職)PPT完整全套教學(xué)課件
評論
0/150
提交評論