模式識(shí)別知到智慧樹章節(jié)測(cè)試課后答案2024年秋北京航空航天大學(xué)_第1頁
模式識(shí)別知到智慧樹章節(jié)測(cè)試課后答案2024年秋北京航空航天大學(xué)_第2頁
模式識(shí)別知到智慧樹章節(jié)測(cè)試課后答案2024年秋北京航空航天大學(xué)_第3頁
模式識(shí)別知到智慧樹章節(jié)測(cè)試課后答案2024年秋北京航空航天大學(xué)_第4頁
免費(fèi)預(yù)覽已結(jié)束,剩余6頁可下載查看

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

模式識(shí)別知到智慧樹章節(jié)測(cè)試課后答案2024年秋北京航空航天大學(xué)第一章單元測(cè)試

新生兒目視識(shí)別客觀事物的過程()。

A:識(shí)別、分類、學(xué)習(xí)B:分類、識(shí)別、學(xué)習(xí)C:學(xué)習(xí)、識(shí)別、分類D:學(xué)習(xí)、分類、識(shí)別

答案:學(xué)習(xí)、分類、識(shí)別模式識(shí)別領(lǐng)域主要研究的兩個(gè)方向是()

A:聽覺B:嗅覺C:觸覺D:視覺

答案:聽覺;視覺人工智能是模式識(shí)別的一個(gè)重要分支。()

A:對(duì)B:錯(cuò)

答案:錯(cuò)在所有樣本構(gòu)成的空間上定義的子集,同一類的樣本可以屬于不同的模式()

A:錯(cuò)B:對(duì)

答案:錯(cuò)用來體現(xiàn)類別之間相互區(qū)別的某個(gè)或某些數(shù)學(xué)測(cè)度叫作特征,測(cè)度的值稱為特征值。()

A:錯(cuò)B:對(duì)

答案:對(duì)以下說法錯(cuò)誤的是()

A:特征選擇是采用一定的算法對(duì)原始特征進(jìn)行加工B:特征提取等同于特征選擇C:特征提取是采用一定的算法對(duì)原始特征進(jìn)行加工D:原始特征是對(duì)樣本進(jìn)行觀測(cè)和預(yù)處理而得到的特征

答案:特征提取等同于特征選擇有監(jiān)督模式識(shí)別的一般步驟包括()

A:特征提取與選擇B:原始特征獲取C:分類器設(shè)計(jì)D:分類決策

答案:特征提取與選擇;原始特征獲??;分類器設(shè)計(jì);分類決策以下屬于計(jì)算機(jī)輔助診斷范疇的是()

A:字符識(shí)別B:鐵路扣件識(shí)別C:指紋識(shí)別D:皮膚腫瘤識(shí)別

答案:皮膚腫瘤識(shí)別嫦娥三號(hào)的成功是第一次有人類制造的探測(cè)器在月球背面實(shí)現(xiàn)軟著陸()

A:對(duì)B:錯(cuò)

答案:錯(cuò)以下說法正確的是()

A:外部指標(biāo)將聚類結(jié)果與某個(gè)參考模型作為參照進(jìn)行比較B:內(nèi)部指標(biāo)主要是利用距離函數(shù)計(jì)算類內(nèi)相似度和類間相似度,并將兩者進(jìn)行組合C:對(duì)于外部指標(biāo),聚類結(jié)果中被劃分到同一簇中的樣本在參考模型中被劃分到不同簇的概率越高,代表聚類結(jié)果越好。D:內(nèi)部指標(biāo)不使用參考模型進(jìn)行比較

答案:外部指標(biāo)將聚類結(jié)果與某個(gè)參考模型作為參照進(jìn)行比較;內(nèi)部指標(biāo)主要是利用距離函數(shù)計(jì)算類內(nèi)相似度和類間相似度,并將兩者進(jìn)行組合;內(nèi)部指標(biāo)不使用參考模型進(jìn)行比較

第二章單元測(cè)試

對(duì)于樣本x和判別函數(shù)g(x)的描述正確的是()

A:若g(x)<0,則x為負(fù)類,位于特征空間負(fù)側(cè)B:若g(x)>0,則x為負(fù)類,位于特征空間負(fù)側(cè)C:若g(x)<0,則x為正類,位于特征空間正側(cè)D:若g(x)>0,則x為正類,位于特征空間正側(cè)

答案:若g(x)<0,則x為負(fù)類,位于特征空間負(fù)側(cè);若g(x)>0,則x為正類,位于特征空間正側(cè)假設(shè)正負(fù)兩類樣本的均值向量分別為m1和m2,則垂直平分分類器的權(quán)向量可以表示為()。

A:|m1|*m2B:|m2|*m1C:m1+m2D:m1-m2

答案:m1-m2Fisher投影的求解可等價(jià)為一個(gè)“極小化廣義Rayleigh商”的最優(yōu)化問題()

A:錯(cuò)B:對(duì)

答案:錯(cuò)下面哪些屬于感知機(jī)的后續(xù)研究()

A:人工神經(jīng)網(wǎng)絡(luò)B:支持向量機(jī)SVMC:EM算法D:貝葉斯分類器

答案:人工神經(jīng)網(wǎng)絡(luò);支持向量機(jī)SVM最小平方誤差分類器中,通過對(duì)余量b進(jìn)行設(shè)置,可使解等價(jià)于Fishier解()

A:對(duì)B:錯(cuò)

答案:對(duì)假設(shè)類別數(shù)為c,若采用“一對(duì)多”算法構(gòu)建多類分類器,則需要訓(xùn)練的二分類模型個(gè)數(shù)、和識(shí)別階段需要調(diào)用的二分類模型個(gè)數(shù)分別為?()

A:c,cB:c(c-1)/2,c(c-1)/2C:c-1,c(c-1)/2D:c(c-1)/2,c

答案:c,c

第三章單元測(cè)試

在統(tǒng)計(jì)模式分類問題中,當(dāng)先驗(yàn)概率未知時(shí),可以使用最小最大貝葉斯決策。()

A:錯(cuò)B:對(duì)

答案:對(duì)以下關(guān)于樸素貝葉斯的說法中,哪—項(xiàng)是錯(cuò)誤的()。

A:樸素貝葉斯的“樸素",指的是該方法需要假設(shè)各個(gè)特征之間是獨(dú)立的B:貝葉斯分類器應(yīng)用于大型數(shù)據(jù)庫具有較高的準(zhǔn)確性和快速的速度C:樸素貝葉斯算法依賴于人工神經(jīng)網(wǎng)格,因此使用起來非常復(fù)雜D:樸素貝葉斯是—種簡單的多分類算法

答案:樸素貝葉斯算法依賴于人工神經(jīng)網(wǎng)格,因此使用起來非常復(fù)雜樸素貝葉斯分類算法是基于何種樸素假定()。

A:類條件正相關(guān)B:類條件負(fù)相關(guān)C:類條件相關(guān)D:類條件獨(dú)立

答案:類條件獨(dú)立半樸素貝葉斯分類器最常用的策略是獨(dú)依賴估計(jì)。()

A:對(duì)B:錯(cuò)

答案:對(duì)貝葉斯網(wǎng)絡(luò)是一個(gè)()。

A:有向環(huán)形圖B:無向無環(huán)圖C:有向無環(huán)圖D:無向環(huán)形圖

答案:有向無環(huán)圖

第四章單元測(cè)試

下面的說法錯(cuò)誤的是()

A:線性支持向量機(jī)中,最大間隔分類面是唯一的。B:支持向量機(jī)的最終模型僅與支持向量有關(guān)。C:支持向量機(jī)是一種無監(jiān)督的模式識(shí)別方法。D:線性支持向量機(jī)所獲得的劃分超平面是使間隔最大的超平面。

答案:支持向量機(jī)是一種無監(jiān)督的模式識(shí)別方法。支持向量機(jī)被廣泛地應(yīng)用于統(tǒng)計(jì)分類以及回歸分析,在解決小樣本、非線性及高維模式識(shí)別中表現(xiàn)出許多特有的優(yōu)勢(shì)。()

A:對(duì)B:錯(cuò)

答案:對(duì)對(duì)于“軟間隔”支持向量機(jī),KKT條件包括()

A:B:C:D:E:F:

答案:;;;;引入松弛變量的分類面稱為廣義分類面。()

A:錯(cuò)B:對(duì)

答案:對(duì)對(duì)于非線性問題,需要通過升維操作在高維空間求內(nèi)積來獲得線性分類超平面。而核函數(shù)可以使樣本在原始低維空間中通過核函數(shù)運(yùn)算達(dá)到高維空間中求內(nèi)積的相同結(jié)果,從而避免高維空間求內(nèi)積,簡化計(jì)算。()

A:錯(cuò)B:對(duì)

答案:對(duì)對(duì)于月面場(chǎng)景區(qū)域,提取的特征包括()

A:形狀B:紋理C:顏色D:邊緣

答案:紋理;顏色;邊緣決策樹利用樹結(jié)構(gòu)進(jìn)行決策,每一個(gè)非葉子節(jié)點(diǎn)是一個(gè)結(jié)論,每一個(gè)葉子節(jié)點(diǎn)是判斷條件。()

A:錯(cuò)B:對(duì)

答案:錯(cuò)決策樹的一個(gè)節(jié)點(diǎn)被拆分成多個(gè)節(jié)點(diǎn),這個(gè)被拆分的節(jié)點(diǎn)就叫做父節(jié)點(diǎn);其拆分后的節(jié)點(diǎn)叫做子節(jié)點(diǎn)。()

A:錯(cuò)B:對(duì)

答案:對(duì)僅僅使用多個(gè)準(zhǔn)確率僅比隨機(jī)猜測(cè)略高的分類器進(jìn)行集成即可獲得準(zhǔn)確率很高,并且能在多項(xiàng)式時(shí)間內(nèi)完成的分類器。()

A:對(duì)B:錯(cuò)

答案:對(duì)如何讓確定決策樹生長的深度()

A:使用與訓(xùn)練樣例截然不同的一套分離的樣例,來評(píng)估通過后修剪方法從樹上修剪節(jié)點(diǎn)的效用B:使用所有可用數(shù)據(jù)進(jìn)行訓(xùn)練,但進(jìn)行統(tǒng)計(jì)測(cè)試來估計(jì)擴(kuò)展(或修剪)一個(gè)特定的節(jié)點(diǎn)是否有可能改善在訓(xùn)練集合外的樣本上的性能C:使用一個(gè)明確的標(biāo)準(zhǔn)來衡量訓(xùn)練樣例和決策樹的復(fù)雜度,當(dāng)這個(gè)編碼的長度最大時(shí)停止樹增長D:使用一個(gè)明確的標(biāo)準(zhǔn)來衡量訓(xùn)練樣例和決策樹的復(fù)雜度,當(dāng)這個(gè)編碼的長度最小時(shí)停止樹增長

答案:使用與訓(xùn)練樣例截然不同的一套分離的樣例,來評(píng)估通過后修剪方法從樹上修剪節(jié)點(diǎn)的效用;使用所有可用數(shù)據(jù)進(jìn)行訓(xùn)練,但進(jìn)行統(tǒng)計(jì)測(cè)試來估計(jì)擴(kuò)展(或修剪)一個(gè)特定的節(jié)點(diǎn)是否有可能改善在訓(xùn)練集合外的樣本上的性能;使用一個(gè)明確的標(biāo)準(zhǔn)來衡量訓(xùn)練樣例和決策樹的復(fù)雜度,當(dāng)這個(gè)編碼的長度最小時(shí)停止樹增長決策樹的構(gòu)建算法包括()

A:CARTB:最小二乘法C:C4.5D:ID3

答案:CART;C4.5;ID3

第五章單元測(cè)試

模式識(shí)別系統(tǒng)的關(guān)鍵過程是()

A:特征提取B:特征計(jì)算C:特征分析D:特征選擇

答案:特征提?。惶卣饔?jì)算;特征選擇特征提取是通過映射(或變換)的方法將高維特征映射到低維空間,在低維空間表示樣本。()

A:錯(cuò)B:對(duì)

答案:對(duì)顏色特征常對(duì)圖像或目標(biāo)的旋轉(zhuǎn)、反轉(zhuǎn)、尺度變化等比較敏感。()

A:錯(cuò)B:對(duì)

答案:錯(cuò)下面哪個(gè)是特征選擇的方式()

A:最優(yōu)搜索B:LDAC:PCAD:流形學(xué)習(xí)

答案:最優(yōu)搜索選用PCA進(jìn)行特征提取時(shí),超平面所需滿足的性質(zhì)有()

A:最小可分性B:最近重構(gòu)性C:最大可分性D:最遠(yuǎn)重構(gòu)性

答案:最近重構(gòu)性;最大可分性總類內(nèi)離散度矩陣適合用于處理無類別標(biāo)簽樣本集。()

A:對(duì)B:錯(cuò)

答案:錯(cuò)以下哪些是LDA特征提取方式的特點(diǎn)()

A:在樣本分類信息依賴均值時(shí)效果更好B:得到有利于分類的投影方向C:無監(jiān)督,無法使用類別的先驗(yàn)知識(shí)D:有監(jiān)督,在降維過程中可以使用類別的先驗(yàn)知識(shí)

答案:在樣本分類信息依賴均值時(shí)效果更好;得到有利于分類的投影方向;有監(jiān)督,在降維過程中可以使用類別的先驗(yàn)知識(shí)流行學(xué)習(xí)是一種尋找低維嵌入結(jié)構(gòu)來發(fā)現(xiàn)映射關(guān)系的特征提取方式。()

A:對(duì)B:錯(cuò)

答案:對(duì)評(píng)價(jià)準(zhǔn)則的基本要求為()

A:判據(jù)應(yīng)該具有以下度量特性:

B:理想的判據(jù)應(yīng)該對(duì)特征具有單調(diào)性,即加入新的特征不會(huì)使判據(jù)減小C:判據(jù)應(yīng)該與錯(cuò)誤率(或錯(cuò)誤率的上界)有單調(diào)關(guān)系,這樣才能較好地反映分類目標(biāo)。D:當(dāng)特征獨(dú)立時(shí),判據(jù)對(duì)特征應(yīng)該具有可加性

答案:判據(jù)應(yīng)該具有以下度量特性:

;理想的判據(jù)應(yīng)該對(duì)特征具有單調(diào)性,即加入新的特征不會(huì)使判據(jù)減小;判據(jù)應(yīng)該與錯(cuò)誤率(或錯(cuò)誤率的上界)有單調(diào)關(guān)系,這樣才能較好地反映分類目標(biāo)。;當(dāng)特征獨(dú)立時(shí),判據(jù)對(duì)特征應(yīng)該具有可加性高維空間中的直線距離在低維嵌入流形上可達(dá)。()

A:錯(cuò)B:對(duì)

答案:錯(cuò)

第六章單元測(cè)試

K均值聚類、K-means++聚類、ISODATA聚類算法,它們的共同點(diǎn)是()

A:聚類結(jié)果不具有唯一性B:聚類數(shù)量確定C:采用誤差平方和準(zhǔn)則函數(shù)D:屬于動(dòng)態(tài)聚類方法

答案:聚類結(jié)果不具有唯一性;采用誤差平方和準(zhǔn)則函數(shù);屬于動(dòng)態(tài)聚類方法關(guān)于聚類算法,以下描述正確的是()

A:DBSCAN聚類算法不需要人為設(shè)定聚類數(shù)量B:K-Means++可有效緩解K-均值聚類中聚類數(shù)量預(yù)先設(shè)定的問題C:K-均值聚類對(duì)”非球形”樣本分布聚類效果不佳D:分級(jí)聚類算法是一種迭代算法

答案:DBSCAN聚類算法不需要人為設(shè)定聚類數(shù)量;K-均值聚類對(duì)”非球形”樣本分布聚類效果不佳關(guān)于DBSCAN算法,下面說法錯(cuò)誤的是()

A:由核心點(diǎn)和與其密度相連的所有對(duì)象構(gòu)成一個(gè)密度聚類簇B:核心點(diǎn)選擇順序會(huì)影響最終聚類結(jié)果C:樣本集中的異常點(diǎn)會(huì)對(duì)聚類結(jié)果產(chǎn)生影響D:可針對(duì)任意形狀的樣本分布進(jìn)行聚類

答案:由核心點(diǎn)和與其密度相連的所有對(duì)象構(gòu)成一個(gè)密度聚類簇;核心點(diǎn)選擇順序會(huì)影響最終聚類結(jié)果;樣本集中的異常點(diǎn)會(huì)對(duì)聚類結(jié)果產(chǎn)生影響聚類準(zhǔn)則函數(shù)中的誤差平方和準(zhǔn)則適用于不同類型的樣本數(shù)目相差很大的情況。()

A:錯(cuò)B:對(duì)

答案:錯(cuò)K均值聚類屬于基于層次的聚類方法。()

A:錯(cuò)B:對(duì)

答案:錯(cuò)分級(jí)聚類算法需要進(jìn)行多次迭代運(yùn)算。()

A:錯(cuò)B:對(duì)

答案:錯(cuò)

第七章單元測(cè)試

關(guān)于BP網(wǎng)絡(luò)說法正確的是()

A:BP網(wǎng)絡(luò)是基于誤差反向傳播算法訓(xùn)練的多層前饋神經(jīng)網(wǎng)絡(luò)B:BP網(wǎng)絡(luò)層數(shù)越多,分類效果越好C:BP算法由數(shù)據(jù)反向傳播和誤差正向傳播組成D:BP算法中數(shù)據(jù)正向傳播和誤差反向傳播交替進(jìn)行

答案:BP網(wǎng)絡(luò)是基于誤差反向傳播算法訓(xùn)練的多層前饋神經(jīng)網(wǎng)絡(luò);BP算法中數(shù)據(jù)正向傳播和誤差反向傳播交替進(jìn)行關(guān)于BP網(wǎng)絡(luò)的局限性說法正確的是()

A:只能處理淺層結(jié)構(gòu)B:易出現(xiàn)梯度彌散C:最優(yōu)的隱含層層數(shù)及隱含層神經(jīng)元數(shù)量難確定D:計(jì)算過程復(fù)雜且計(jì)算量大

答案:只能處理淺層結(jié)構(gòu);易出現(xiàn)梯度彌散;最優(yōu)的隱含層層數(shù)及隱含層神經(jīng)元數(shù)量難確定;計(jì)算過程復(fù)雜且計(jì)算量大單層前饋網(wǎng)絡(luò)中,如果有i個(gè)輸入,j個(gè)輸出,則連接權(quán)值W可以表示成一個(gè)ixj的矩陣。()

A:錯(cuò)B:對(duì)

答案:對(duì)自組織映射網(wǎng)絡(luò)(SOM網(wǎng)絡(luò))從某種程度上可看作一種降維算法。()

A:對(duì)B:錯(cuò)

答案:對(duì)經(jīng)典的全連接神經(jīng)網(wǎng)絡(luò)中,隱含層可以增加網(wǎng)絡(luò)深度和復(fù)雜度。()

A:對(duì)B:錯(cuò)

答案:對(duì)

第八章單元測(cè)試

輸入數(shù)據(jù)是27x27x4,卷積核是3x3,步長為1,且采用0填充,卷積核個(gè)數(shù)是8,則該輸出特征圖尺寸為()

A:25x25x8B:25x25x4C:27x27x8D:27x27x4

答案:27x27x8數(shù)據(jù)填充的常用方法包括()

A:無正確答案B:0填充C:重復(fù)填充D:常數(shù)填充

答案:0填充;重復(fù)填充;常數(shù)填充3x3卷積核需要幾次疊加可以達(dá)到與9x9卷積核相同的感受野()。

A:4次B:6次C:3次D:5次

答案:4次卷積神經(jīng)網(wǎng)絡(luò)中所提取的語義概念與神經(jīng)元之間的映射關(guān)系為()

A:一

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論