人工智能引論知到智慧樹章節(jié)測試課后答案2024年秋浙江大學(xué)_第1頁
人工智能引論知到智慧樹章節(jié)測試課后答案2024年秋浙江大學(xué)_第2頁
人工智能引論知到智慧樹章節(jié)測試課后答案2024年秋浙江大學(xué)_第3頁
人工智能引論知到智慧樹章節(jié)測試課后答案2024年秋浙江大學(xué)_第4頁
人工智能引論知到智慧樹章節(jié)測試課后答案2024年秋浙江大學(xué)_第5頁
免費(fèi)預(yù)覽已結(jié)束,剩余7頁可下載查看

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

人工智能引論知到智慧樹章節(jié)測試課后答案2024年秋浙江大學(xué)第一章單元測試

為保證形式化系統(tǒng)的有效性,下面哪個選項(xiàng)不是形式化系統(tǒng)需要具有的性質(zhì)()

A:可靠性B:完備性C:可判定性D:一致性

答案:可靠性Deepmind研制的AlphaGo算法沒有使用哪個人工智能方法()

A:強(qiáng)化學(xué)習(xí)B:蒙特卡洛樹搜索C:邏輯推理D:深度學(xué)習(xí)

答案:邏輯推理圖靈獎獲得者JudeaPearl將推理按照由易到難程度分成三個層次()

A:干預(yù)、關(guān)聯(lián)、反事實(shí)B:反事實(shí)、干預(yù)、關(guān)聯(lián)C:關(guān)系、干預(yù)、反事實(shí)D:關(guān)聯(lián)、干預(yù)、反事實(shí)

答案:關(guān)聯(lián)、干預(yù)、反事實(shí)以下哪一種算法不屬于監(jiān)督學(xué)習(xí)算法()

A:支持向量機(jī)B:聚類C:隱馬爾科夫鏈D:決策樹

答案:聚類以下哪種學(xué)習(xí)方法的學(xué)習(xí)目標(biāo)是學(xué)習(xí)同一類數(shù)據(jù)的分布模式()

A:強(qiáng)化學(xué)習(xí)B:博弈對抗C:監(jiān)督學(xué)習(xí)D:無監(jiān)督學(xué)習(xí)

答案:無監(jiān)督學(xué)習(xí)

第二章單元測試

和均是原子命題,“如果那么”是由和組合得到的復(fù)合命題。下面對“如果那么”這一復(fù)合命題描述不正確的是()

A:“如果那么”意味著命題包含著命題,即是的子集B:當(dāng)不成立時,“如果那么”恒為真C:無法用真值表來判斷“如果那么”的真假D:“如果那么”定義的是一種蘊(yùn)涵關(guān)系(即充分條件)

答案:無法用真值表來判斷“如果那么”的真假下面哪個邏輯等價(jià)關(guān)系是不成立的()

A:B:C:D:

答案:下面對一階歸納推理(FOIL)中信息增益值(informationgain)闡釋不正確的是()

A:在算法結(jié)束前,每次向推理規(guī)則中加入一個前提約束謂詞,該前提約束謂詞得到的新推理規(guī)則具有最大的信息增益值。B:信息增益值用來判斷向推理規(guī)則中所加入前提約束謂詞的質(zhì)量C:在計(jì)算信息增益值過程中,需要利用所得到的新推理規(guī)則和舊推理規(guī)則分別涵蓋的正例和反例數(shù)目D:信息增益值大小與背景知識樣例數(shù)目直接相關(guān)

答案:信息增益值大小與背景知識樣例數(shù)目直接相關(guān)下面哪個描述的問題不屬于因果分析的內(nèi)容()

A:如果商品價(jià)格漲價(jià)一倍,預(yù)測銷售量(sales)的變化B:如果廣告投入增長一倍,預(yù)測銷售量(sales)的變化C:如果放棄吸煙,預(yù)測癌癥(cancer)的概率D:購買了一種商品的顧客是否會購買另外一種商品

答案:購買了一種商品的顧客是否會購買另外一種商品判斷下列句子是命題()

A:今天的天氣真好??!B:x>2。C:浙江大學(xué)始創(chuàng)于1897年。D:y<10。

答案:浙江大學(xué)始創(chuàng)于1897年。

第三章單元測試

以下關(guān)于用搜索算法求解最短路徑問題的說法中,不正確的是()。

A:假設(shè)狀態(tài)數(shù)量有限,當(dāng)所有單步代價(jià)都相同且大于0時,廣度優(yōu)先的圖搜索是最優(yōu)的。B:圖搜索算法通常比樹搜索算法的時間效率更高。C:給定兩個狀態(tài),可能不存在兩個狀態(tài)之間的路徑;也可能存在兩個狀態(tài)之間的路徑,但不存在最短路徑(如考慮存在負(fù)值的回路情況)。D:假設(shè)狀態(tài)數(shù)量有限,當(dāng)所有單步代價(jià)都相同且大于0時,深度優(yōu)先的圖搜索是最優(yōu)的。

答案:假設(shè)狀態(tài)數(shù)量有限,當(dāng)所有單步代價(jià)都相同且大于0時,深度優(yōu)先的圖搜索是最優(yōu)的。以下關(guān)于啟發(fā)函數(shù)和評價(jià)函數(shù)的說法中正確的是()。

A:如果啟發(fā)函數(shù)滿足可容性,那么在樹搜索A*算法中節(jié)點(diǎn)的評價(jià)函數(shù)值按照擴(kuò)展順序單調(diào)非減;啟發(fā)函數(shù)滿足一致性時圖搜索A*算法也滿足該性質(zhì)。B:評價(jià)函數(shù)通常是對當(dāng)前節(jié)點(diǎn)到目標(biāo)節(jié)點(diǎn)距離的估計(jì)。C:取值恒為0的啟發(fā)函數(shù)必然是可容的。D:啟發(fā)函數(shù)不會過高估計(jì)從當(dāng)前節(jié)點(diǎn)到目標(biāo)結(jié)點(diǎn)之間的實(shí)際代價(jià)。

答案:如果啟發(fā)函數(shù)滿足可容性,那么在樹搜索A*算法中節(jié)點(diǎn)的評價(jià)函數(shù)值按照擴(kuò)展順序單調(diào)非減;啟發(fā)函數(shù)滿足一致性時圖搜索A*算法也滿足該性質(zhì)。假如可以對圍棋的規(guī)則做出如下修改,其中哪個修改方案不影響使用本章介紹的Minimax算法求解該問題?()

A:終局時黑方所占的每目(即每個交叉點(diǎn))計(jì)1分,且事先給定了白方在棋盤上每個位置取得一目所獲取的分?jǐn)?shù),假設(shè)這些分?jǐn)?shù)各不相同。雙方都以取得最高得分為目標(biāo)。B:由雙方輪流落子,改為黑方連落兩子后白方落一子。C:雙方互相不知道對方落子的位置。D:由兩人對弈改為三人對弈。

答案:由雙方輪流落子,改為黑方連落兩子后白方落一子。下列關(guān)于探索與利用的說法中,不正確的是()。

A:在多臂賭博機(jī)問題中,過度利用可能導(dǎo)致算法對部分臂膀額獎勵期望估計(jì)不準(zhǔn)確。B:在多臂賭博機(jī)問題中,某時刻UCB1算法選擇的臂膀置信上界為R,則此時任意搖動一個臂膀,得到的硬幣數(shù)量不會超過R。C:在多臂賭博機(jī)問題中,過度探索會導(dǎo)致算法很少主動去選擇比較好的搖臂。D:在貪心算法中,的值越大,表示算法越傾向于探索。

答案:在多臂賭博機(jī)問題中,某時刻UCB1算法選擇的臂膀置信上界為R,則此時任意搖動一個臂膀,得到的硬幣數(shù)量不會超過R。下列關(guān)于蒙特卡洛樹搜索算法的說法中,不正確的是()。

A:反向傳播只需要更新當(dāng)前路徑上已被擴(kuò)展的節(jié)點(diǎn)。B:模擬步驟采取的策略與選擇步驟不一定要相同。C:算法進(jìn)入擴(kuò)展步驟時,當(dāng)前節(jié)點(diǎn)的所有子節(jié)點(diǎn)必然都未被擴(kuò)展。D:選擇過程體現(xiàn)了探索與利用的平衡。

答案:算法進(jìn)入擴(kuò)展步驟時,當(dāng)前節(jié)點(diǎn)的所有子節(jié)點(diǎn)必然都未被擴(kuò)展。

第四章單元測試

線性判別分析是在最大化類間方差和類內(nèi)方差的比值()

A:對B:錯

答案:對在一個監(jiān)督學(xué)習(xí)任務(wù)中,每個數(shù)據(jù)樣本有4個屬性和一個類別標(biāo)簽,每種屬性分別有3、2、2和2種可能的取值,類別標(biāo)簽有3種不同的取值。請問可能有多少種不同的樣本?(注意,并不是在某個數(shù)據(jù)集中最多有多少種不同的樣本,而是考慮所有可能的樣本)()

A:48B:3C:6D:12E:72F:24

答案:72以下哪種方法不屬于監(jiān)督學(xué)習(xí)方法()

A:樸素貝葉斯B:決策樹C:線性回歸D:聚類

答案:聚類無監(jiān)督學(xué)習(xí)需要使用到數(shù)據(jù)的人工標(biāo)簽()

A:對B:錯

答案:錯在Adaboosting的迭代中,從第t輪到第t+1輪,某個被錯誤分類樣本的懲罰被增加了,可能因?yàn)樵摌颖荆ǎ?/p>

A:其他選項(xiàng)都正確B:被到第t輪為止訓(xùn)練的大多數(shù)弱分類器錯誤分類C:被第t輪后的集成分類器(強(qiáng)分類器)錯誤分類D:被第t輪訓(xùn)練的弱分類器錯誤分類

答案:被第t輪訓(xùn)練的弱分類器錯誤分類

第五章單元測試

可以從最小化每個類簇的方差這一視角來解釋K均值聚類的結(jié)果,下面對這一視角描述不正確的是()

A:最終聚類結(jié)果中每個聚類集合中所包含數(shù)據(jù)呈現(xiàn)出來差異性最小B:每個簇類的質(zhì)心累加起來最小C:每個簇類的方差累加起來最小D:每個樣本數(shù)據(jù)分別歸屬于與其距離最近的聚類質(zhì)心所在聚類集合

答案:每個簇類的質(zhì)心累加起來最小下面對相關(guān)性(correlation)和獨(dú)立性(independence)描述不正確的是()

A:獨(dú)立指兩個變量彼此之間不相互影響B(tài):“不相關(guān)”是一個比“獨(dú)立”要強(qiáng)的概念,即不相關(guān)一定相互獨(dú)立C:如果兩維變量線性不相關(guān),則皮爾遜相關(guān)系數(shù)等于0D:如果兩維變量彼此獨(dú)立,則皮爾遜相關(guān)系數(shù)等于0

答案:“不相關(guān)”是一個比“獨(dú)立”要強(qiáng)的概念,即不相關(guān)一定相互獨(dú)立下面對主成分分析的描述不正確的是()

A:在主成分分析中,所得低維數(shù)據(jù)中每一維度之間具有極大相關(guān)度B:主成分分析是一種特征降維方法C:主成分分析可保證原始高維樣本數(shù)據(jù)被投影映射后,其方差保持最大D:在主成分分析中,將數(shù)據(jù)向方差最大方向進(jìn)行投影,可使得數(shù)據(jù)所蘊(yùn)含信息沒有丟失,以便在后續(xù)處理過程中各個數(shù)據(jù)“彰顯個性”

答案:在主成分分析中,所得低維數(shù)據(jù)中每一維度之間具有極大相關(guān)度下面對特征人臉?biāo)惴枋霾徽_的是()

A:特征人臉之間的相關(guān)度要盡可能大B:每一個特征人臉的維數(shù)與原始人臉圖像的維數(shù)一樣大C:特征人臉方法是用一種稱為“特征人臉(eigenface)”的特征向量按照線性組合形式來表達(dá)每一張?jiān)既四槇D像D:特征人臉方法是一種應(yīng)用主成分分析來實(shí)現(xiàn)人臉圖像降維的方法

答案:特征人臉之間的相關(guān)度要盡可能大在潛在語義分析中,給定M個單詞和N個文檔所構(gòu)成的單詞-文檔矩陣(term-document)矩陣,對其進(jìn)行分解,將單詞或文檔映射到一個R維的隱性空間。下面描述不正確的是()

A:單詞和文檔映射到隱性空間后具有相同的維度B:隱性空間維度的大小由分解過程中所得對角矩陣中對角線上不為零的系數(shù)個數(shù)所決定C:這一映射過程中需要利用文檔的類別信息D:通過矩陣分解可重建原始單詞-文檔矩陣,所得到的重建矩陣結(jié)果比原始單詞-文檔矩陣更好捕獲了單詞-單詞、單詞-文檔、文檔-文檔之間的隱性關(guān)系

答案:這一映射過程中需要利用文檔的類別信息

第六章單元測試

下面對誤差反向傳播(errorbackpropagation,BP)描述不正確的是()

A:BP算法是一種將輸出層誤差反向傳播給隱藏層進(jìn)行參數(shù)更新的方法B:對前饋神經(jīng)網(wǎng)絡(luò)而言,BP算法可調(diào)整相鄰層神經(jīng)元之間的連接權(quán)重大小C:BP算法將誤差從后向前傳遞,獲得各層單元所產(chǎn)生誤差,進(jìn)而依據(jù)這個誤差來讓各層單元修正各單元參數(shù)D:在BP算法中,每個神經(jīng)元單元可包含不可偏導(dǎo)的映射函數(shù)

答案:在BP算法中,每個神經(jīng)元單元可包含不可偏導(dǎo)的映射函數(shù)以下關(guān)于梯度下降和隨機(jī)梯度下降的說明,哪些描述是正確的()

A:在每次迭代中,梯度下降使用所有數(shù)據(jù)或者部分訓(xùn)練數(shù)據(jù),用于更新模型參數(shù).B:在梯度下降和隨機(jī)梯度下降中,為了最小化損失函數(shù),通常使用循環(huán)迭代的方式不斷更新模型參數(shù);C:在每次迭代中,隨機(jī)梯度下降需要計(jì)算訓(xùn)練集所有樣本的誤差和,用于更新模型參數(shù);D:梯度下降是遺傳算法的一種參數(shù)優(yōu)化算法

答案:在每次迭代中,梯度下降使用所有數(shù)據(jù)或者部分訓(xùn)練數(shù)據(jù),用于更新模型參數(shù).;在梯度下降和隨機(jī)梯度下降中,為了最小化損失函數(shù),通常使用循環(huán)迭代的方式不斷更新模型參數(shù);關(guān)于sigmoid激活函數(shù),下列描述正確的是()

A:它無法配合交叉熵?fù)p失函數(shù)使用;B:它可以有負(fù)值;C:當(dāng)輸入值過大或者過小時,梯度趨近于0,容易造成梯度消失問題。D:它是凸函數(shù),凸函數(shù)無法解決非凸問題;

答案:當(dāng)輸入值過大或者過小時,梯度趨近于0,容易造成梯度消失問題。下面對前饋神經(jīng)網(wǎng)絡(luò)這種深度學(xué)習(xí)方法描述不正確的是()

A:隱藏層數(shù)目大小對學(xué)習(xí)性能影響不大B:是一種端到端學(xué)習(xí)的方法C:是一種監(jiān)督學(xué)習(xí)的方法D:實(shí)現(xiàn)了非線性映射

答案:隱藏層數(shù)目大小對學(xué)習(xí)性能影響不大激活函數(shù)的引入和增強(qiáng)模型的非線性擬合能力。()

A:錯B:對

答案:對

第七章單元測試

下面對強(qiáng)化學(xué)習(xí)、監(jiān)督學(xué)習(xí)和深度卷積神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)的描述正確的是()

A:無標(biāo)注學(xué)習(xí)、有標(biāo)注信息學(xué)習(xí)方式、端到端學(xué)習(xí)方式B:有標(biāo)注信息學(xué)習(xí)方式、端到端學(xué)習(xí)方式、端到端學(xué)習(xí)方式C:評估學(xué)習(xí)方式、端到端學(xué)習(xí)方式、端到端學(xué)習(xí)方式D:評估學(xué)習(xí)方式、有標(biāo)注信息學(xué)習(xí)方式、端到端學(xué)習(xí)方式

答案:評估學(xué)習(xí)方式、有標(biāo)注信息學(xué)習(xí)方式、端到端學(xué)習(xí)方式在強(qiáng)化學(xué)習(xí)中,通過哪兩個步驟的迭代,來學(xué)習(xí)得到最佳策略()

A:貪心策略優(yōu)化與Q-learningB:動態(tài)規(guī)劃與Q-LearningC:策略優(yōu)化與策略評估D:價(jià)值函數(shù)計(jì)算與動作-價(jià)值函數(shù)計(jì)算

答案:策略優(yōu)化與策略評估在強(qiáng)化學(xué)習(xí)中,哪個機(jī)制的引入使得強(qiáng)化學(xué)習(xí)具備了在利用與探索中尋求平衡的能力()

A:貪心策略B:貝爾曼方程C:動態(tài)規(guī)劃D:蒙特卡洛采樣

答案:貪心策略與馬爾可夫獎勵過程相比,馬爾可夫決策過程引入了哪一個新的元素()

A:反饋B:終止?fàn)顟B(tài)C:概率轉(zhuǎn)移矩陣D:動作

答案:動作在本章內(nèi)容范圍內(nèi),“在狀態(tài),按照某個策略行動后在未來所獲得回報(bào)值的期望”,這句話描述了狀態(tài)的價(jià)值函數(shù);“在狀態(tài),按照某個策略采取動作后在未來所獲得回報(bào)值的期望”,這句話描述了狀態(tài)的()

A:策略優(yōu)化B:動作-價(jià)值函數(shù)C:采樣函數(shù)D:價(jià)值函數(shù)

答案:動作-價(jià)值函數(shù)

第八章單元測試

標(biāo)志著現(xiàn)代博弈理論的初步形成的事件是()

A:馮·諾伊曼計(jì)算機(jī)的實(shí)現(xiàn)B:1944年馮·諾伊曼與奧斯卡·摩根斯特恩合著《博弈論與經(jīng)濟(jì)行為》的出版C:囚徒困境思想的提出D:納什均衡思想的提出

答案:1944年馮·諾伊曼與奧斯卡·摩根斯特恩合著《博弈論與經(jīng)濟(jì)行為》的出版下面對博弈研究分類不正確的是()

A:完全信息博弈與不完全信息博弈B:囚徒困境與納什均衡C:合作博弈與非合作博弈D:靜態(tài)博弈與動態(tài)博弈

答案:囚徒困境與納什均衡下面對納什均衡描述正確的是()

A:在一個策略組合上,當(dāng)所有其他人都改變策略時,也無法破壞先前的博弈平衡,則該策略組合就是一個納什均衡。B:參與者所作出的這樣一種策略組合,在該策略組合上,有且只有1個參與者改變策略后,其收益會增加。C:參與者所作出的這樣一種策略組合,在該策略組合上,若干參與者改變策略后,大家都不會得到更多好處。D:參與者所作出的這樣一種策略組合,在該策略組合上,任何參與者單獨(dú)改變策略都不會得到好處。

答案:參與者所作出的這樣一種策略組合,在該策略組合上,任何參與者單獨(dú)改變策略都不會得到好處。下面對混合策略納什均衡描述正確的是()

A:博弈過程中,博弈方通過概率形式隨機(jī)從可選策略中選擇一個策略而達(dá)到的納什均衡被稱為混合策略納什均衡。B:博弈過程中,博弈方以非概率形式隨機(jī)從可選收益中選擇一個收益,而達(dá)到的納什均衡被稱為混合策略納什均衡。C:博弈過程中,博弈方通過非概率形式隨機(jī)從可選策略中選擇一個策略而達(dá)到的納什均衡被稱為混合策略納什均衡。D:博弈過程中,博弈方以概率形式隨機(jī)從可選收益中選擇一個收益,而達(dá)到的納什均衡被稱為混合策略納什均衡。

答案:博弈過程中,博弈方通過概率形式隨機(jī)從可選策略中選擇一個策略而達(dá)到的納什均衡被稱為混合策略納什均衡。在遺憾最小化算法中,玩家i按照如下方法來計(jì)算其在每一輪產(chǎn)生的悔恨值()

A:其他玩家策略不變,只改變玩家i的策略后,所產(chǎn)生的收益之差。B:每個玩家策略不變,只改變收益函數(shù),所產(chǎn)生的收益之差。C:至少改變1個以上玩家的策略,所產(chǎn)生的收益之差。D:所有玩家策略均改變,所產(chǎn)生的收益之差。

答案:其他玩家策略不變,只改變玩家i的策略后,所產(chǎn)生的收益之差。

第九章單元測試

關(guān)于類腦計(jì)算下列說法正確的是()

A:類腦計(jì)算完全依賴現(xiàn)有的馮?諾依曼計(jì)算結(jié)構(gòu)B:類腦計(jì)算芯片是一種人工智能計(jì)算芯片C:類腦計(jì)算可以完全替代馮?諾依曼計(jì)算結(jié)構(gòu)D:類腦計(jì)算要復(fù)制人類大腦或建造一種模擬神經(jīng)元功能的芯片

答案:類腦計(jì)算芯片是一種人工智能計(jì)算芯片面向人工智能的非馮諾依曼計(jì)算架構(gòu)主要聚焦()

A:計(jì)算B:智能C:通訊D:內(nèi)存和存儲

答案:內(nèi)存和存儲評價(jià)人工智能芯片的指標(biāo)包括()

A:低延遲和安全性B:高吞吐量和安全性C:低延遲和高吞吐量D:低延遲和隱私性

答案:低延遲和高吞吐量建設(shè)人工智能生態(tài)所需的重中

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論