在線網(wǎng)課知道智慧《人工智能(復(fù)旦)》單元測(cè)試考核答案_第1頁(yè)
在線網(wǎng)課知道智慧《人工智能(復(fù)旦)》單元測(cè)試考核答案_第2頁(yè)
在線網(wǎng)課知道智慧《人工智能(復(fù)旦)》單元測(cè)試考核答案_第3頁(yè)
在線網(wǎng)課知道智慧《人工智能(復(fù)旦)》單元測(cè)試考核答案_第4頁(yè)
在線網(wǎng)課知道智慧《人工智能(復(fù)旦)》單元測(cè)試考核答案_第5頁(yè)
已閱讀5頁(yè),還剩6頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

注:僅客觀題緒論第一章單元測(cè)試第二章單元測(cè)試第三章單元測(cè)試第四章單元測(cè)試第五章單元測(cè)試第六章單元測(cè)試第七章單元測(cè)試第八章單元測(cè)試第九章單元測(cè)試第十章單元測(cè)試緒論1【單選題】(100分)針對(duì)智能體的思考是否合理,所引入的指標(biāo)叫做()A.嚴(yán)謹(jǐn)B.理性C.嚴(yán)密D.智慧第一章單元測(cè)試1【單選題】(20分)在下圖八數(shù)碼問(wèn)題中,需要通過(guò)移動(dòng)將雜亂的8個(gè)方塊按照右側(cè)的順序進(jìn)行排列,那么該問(wèn)題的狀態(tài)空間的大小是()?A.9*9B.9C.9!D.82.【多選題】(20分)正確答案:ABC以下無(wú)信息搜索算法中,同時(shí)具有完備性和最優(yōu)性的有()。A.一致代價(jià)搜索B.迭代加深搜索C.廣度優(yōu)先搜索D.深度優(yōu)先搜索3.【多選題】(20分)正確答案:ABD對(duì)于有限狀態(tài)圖上的搜索問(wèn)題,以下說(shuō)法正確的有()。A.一致代價(jià)搜索(UCS)不一定總能找到最優(yōu)解B.深度優(yōu)先圖搜索(BFS)可以保證找到解(如果存在至少一解)C.存在深度優(yōu)先樹(shù)搜索有解而廣度優(yōu)先樹(shù)搜索無(wú)解的案例D.存在廣度優(yōu)先樹(shù)搜索有解而深度優(yōu)先樹(shù)搜索無(wú)解的案例4【判斷題】(20分對(duì)于一個(gè)邊損耗非負(fù)的有限圖,采用廣度優(yōu)先樹(shù)搜索可以得到最優(yōu)解,并且對(duì)每條邊加上一個(gè)相同的非負(fù)損耗c>0之后,最優(yōu)路徑保持不變。()A.錯(cuò)B.對(duì)5【單選題】(20分)在下圖搜索問(wèn)題中,S為起始節(jié)點(diǎn),G1、G2、G3均為目標(biāo)節(jié)點(diǎn),則采用一致代價(jià)找到的解是()A.G1B.均不可能C.G3D.G2第二章單元測(cè)試1【判斷題】(20分假如一個(gè)搜索問(wèn)題(有限狀態(tài))至少有一個(gè)解,則當(dāng)A*圖搜索算法配備任意可采納的啟發(fā)式函數(shù)時(shí),一定能保證找到一解。()A.錯(cuò)B.對(duì)2【判斷題】(20分當(dāng)路徑損耗非負(fù)時(shí),一致代價(jià)搜索是A*算法的一種特例,其啟發(fā)式函數(shù)既是可采納的,又是一致的。()A.對(duì)B.錯(cuò)4.【多選題】(20分)正確答案:ACD在如圖所示的八數(shù)碼問(wèn)題中,如果A格與B格相鄰且B為空,則A可以移動(dòng)至B。以下可以作為八數(shù)碼問(wèn)題的一致啟發(fā)式函數(shù)的有()。A.各數(shù)碼到目標(biāo)位置的曼哈頓距離總和B.都不正確C.不在目標(biāo)位置的數(shù)碼總數(shù)D.數(shù)碼1、2、3、4移動(dòng)到正確位置的步數(shù)5【單選題】(20分)在上述八數(shù)碼問(wèn)題中,有兩種啟發(fā)式函數(shù),其中h1(n)為不在目標(biāo)位置的數(shù)碼總數(shù),h2(n)為各數(shù)碼到目標(biāo)位置的曼哈頓距離總和,則h3(n)=max(h1(n),h2(n)),具有以下什么性質(zhì)()。A.一致的B.其余兩項(xiàng)都不滿足C.其余兩項(xiàng)都滿足D.可采納的第三章單元測(cè)試1【判斷題】(20分對(duì)抗博弈是一種零和游戲。()A.錯(cuò)B.對(duì)2【判斷題】(20分極大極小值搜索算法相比于深度優(yōu)先,更接近廣度優(yōu)先搜索算法。()A.錯(cuò)B.對(duì)3【判斷題】(20分alpha-beta剪枝中,兒子節(jié)點(diǎn)的擴(kuò)展順序遵循效用值遞減對(duì)MIN節(jié)點(diǎn)的值計(jì)算更高效。()A.對(duì)B.錯(cuò)4【單選題】(20分)在期望最大搜索中,可能涉及什么類型的節(jié)點(diǎn)?()。A.兩種都有。B.隨機(jī)節(jié)點(diǎn)。C.兩種都無(wú)。D.MAX節(jié)點(diǎn)。5.【多選題】(20分)正確答案:ACDalpha-beta剪枝中,哪些說(shuō)法是正確的()。A.對(duì)于MAX節(jié)點(diǎn)來(lái)說(shuō),當(dāng)前效用值大于beta時(shí)可以進(jìn)行剪枝。B.alpha在MIN節(jié)點(diǎn)上更新。C.中間節(jié)點(diǎn)的極大極小值在執(zhí)行完剪枝算法后可能是錯(cuò)誤的。D.alpha在MAX節(jié)點(diǎn)上更新。第四章單元測(cè)試1【判斷題】(20分約束滿足問(wèn)題關(guān)注動(dòng)作路徑。()A.錯(cuò)B.對(duì)2【判斷題】(20分約束滿足問(wèn)題的解是滿足所有約束的一組變量賦值。()A.對(duì)B.錯(cuò)3【判斷題】(20分任何N元約束滿足問(wèn)題都可以轉(zhuǎn)化為二元約束滿足問(wèn)題。()A.錯(cuò)B.對(duì)4【單選題】(20分)關(guān)于約束滿足問(wèn)題,說(shuō)法錯(cuò)誤的是()。A.一元約束僅涉及一個(gè)變量。B.對(duì)于任何類型的變量都可以通過(guò)枚舉的方式展現(xiàn)所有變量賦值情況。C.交通排班可以構(gòu)建成一個(gè)約束滿足問(wèn)題。D.變量賦值往往伴隨與傾向性相關(guān)的評(píng)價(jià)。5.【多選題】(20分)正確答案:AB關(guān)于約束滿足問(wèn)題的回溯搜索算法,以下說(shuō)法正確的是()。A.應(yīng)選擇剩余賦值選擇最少的變量進(jìn)行賦值。B.賦值時(shí),應(yīng)選擇最少限制的取值。C.應(yīng)選擇剩余賦值選擇最多的變量進(jìn)行賦值。D.賦值時(shí),應(yīng)選擇最多限制的取值。第五章單元測(cè)試1【判斷題】(10分假設(shè)馬爾可夫決策問(wèn)題(MDP)的狀態(tài)是有限的,則對(duì)于,如果我們只改變獎(jiǎng)勵(lì)函數(shù)R,最優(yōu)策略會(huì)保持不變。()A.錯(cuò)B.對(duì)2【判斷題】(10分假設(shè)馬爾可夫決策問(wèn)題(MDP)的狀態(tài)是有限的,若衰減因子滿足,則值迭代一定會(huì)收斂。()A.對(duì)B.錯(cuò)3【判斷題】(10分假設(shè)馬爾可夫決策問(wèn)題(MDP)的狀態(tài)是有限的,通過(guò)值迭代找到的策略優(yōu)于通過(guò)策略迭代找到的策略。()A.對(duì)B.錯(cuò)4【判斷題】(10分如果兩個(gè)MDP之間的唯一差異是衰減因子的值,那么它們一定擁有相同的最優(yōu)策略。()A.錯(cuò)B.對(duì)5【判斷題】(10分當(dāng)在一個(gè)MDP中只執(zhí)行有限數(shù)量的步驟時(shí),最優(yōu)策略是平穩(wěn)的。平穩(wěn)的策略是指在給定狀態(tài)下采取相同操作的策略,與智能體處于該狀態(tài)的時(shí)間無(wú)關(guān)。()A.對(duì)B.錯(cuò)第六章單元測(cè)試1【判斷題】(10分時(shí)序差分算法是一種在線學(xué)習(xí)的方法。()A.對(duì)B.錯(cuò)2【單選題】(15分)F-learning可以看作Q-learning的一種健忘選擇,也即Q-learning中的學(xué)習(xí)率。則F-learning在以下那種情況下收斂于固定的值:()A.具有隨機(jī)性的狀態(tài)轉(zhuǎn)移時(shí)B.相應(yīng)的Q-learning收斂時(shí)F-learning也會(huì)收斂C.具有確定性的狀態(tài)轉(zhuǎn)移時(shí)D.從不3【單選題】(15分)F-learning可以看作Q-learning的一種健忘選擇,,也即Q-learning中的學(xué)習(xí)率。則F-learning在以下那種情況下收斂于最優(yōu)q值:()A.從不B.具有確定性的狀態(tài)轉(zhuǎn)移時(shí)C.相應(yīng)的Q-learning收斂時(shí)F-learning也會(huì)收斂D.具有隨機(jī)性的狀態(tài)轉(zhuǎn)移時(shí)4【單選題】(15分)F-learning可以看作Q-learning的一種健忘選擇,,也即Q-learning中的學(xué)習(xí)率。則F-learning在以下那種情況下收斂于隨機(jī)策略的q值:()A.具有確定性的狀態(tài)轉(zhuǎn)移時(shí)B.具有隨機(jī)性的狀態(tài)轉(zhuǎn)移時(shí)C.相應(yīng)的Q-learning收斂時(shí)F-learning也會(huì)收斂D.從不第七章單元測(cè)試1.【多選題】(20分)正確答案:CD使用強(qiáng)化學(xué)習(xí)狀態(tài)的泛化表示的好處有()。A.復(fù)雜的計(jì)算獲得更精確的表示B.可以采樣更多的樣本C.可以減少采樣D.減少內(nèi)存的消耗2【單選題】(20分)在強(qiáng)化學(xué)習(xí)值函數(shù)近似中,蒙特卡洛方法對(duì)梯度計(jì)算是()。A.data-latex="a({G}_{t}({s}_{t})-x({{s}_{t})}^{T}w)*x({s}_{t})B.data-latex="a({G}_{t}({s}_{t})-x({{s}_{t})}^{T}w)*G({s}_{t})Cdata-latex="a({G}_{t}({s}_{t})-G({{s}_{t})}^{T}w)*x({s}_{t})D.data-latex="a({G}_{t}({s}_{t})+x{({s}_{t})}^{T}w)*x({s}_{t})3【單選題】(20分)在強(qiáng)化學(xué)習(xí)值函數(shù)近似中,時(shí)間差分方法對(duì)梯度計(jì)算是()。A.data-latex="a(r+γx({{s}^{'})}^{T}w-x({s)}^{T}w*x(s)B.data-latex="a(r-γx({{s}^{'})}^{T}w-x({s)}^{T}w*x(s)C.data-latex="a(r-γx({{s}^{'})}^{T}w+x({s)}^{T}w)*x(s)D.data-latex="a(r+γx({{s}^{'})}^{T}w+x({s)}^{T}w)*x(s)4【判斷題】(20分在強(qiáng)化學(xué)習(xí)值函數(shù)近似中,蒙特卡洛方法中可以使用SARSA和Q-learning進(jìn)行真值的學(xué)習(xí)()A.對(duì)B.錯(cuò)5【判斷題】(20分強(qiáng)化學(xué)習(xí)中有有模型的方法和無(wú)模型的方法()A.錯(cuò)B.對(duì)第八章單元測(cè)試1【單選題】(10分)隨機(jī)變量X的概率分布如下圖,則x等于()。A.0.1B.0.4C.0.2D.0.55【單選題】(10分)貝葉斯網(wǎng)絡(luò)中,節(jié)點(diǎn)的含義是什么()。A.概率值B.獨(dú)立性C.隨機(jī)變量D.變量關(guān)系6.【多選題】(10分)正確答案:CD在下面的貝葉斯網(wǎng)絡(luò)中,正確的選項(xiàng)有()。A.P(cavity,catch,-toothache)=P(cavity)P(catch|-cavity)P(toothache)|cavity)B.P(-cavity,catch,-toothache)=P(-cavity)P(catch)P(-toothache)C.P(cavity,-catch,-toothache)=P(cavity)P(-catch|(cavity)P(-toothache)|cavity)D.P(-cavity,catch,-toothache)=P(-cavity)P(catch|(-cavity)P(-toothache)|-cavity)7【單選題】(10分)在下面的貝葉斯網(wǎng)絡(luò)中,不給定Cavity和給定Cavity的情況下,Toothache和Catch的獨(dú)立性分別是()。A.不獨(dú)立,獨(dú)立B.獨(dú)立,獨(dú)立C.不獨(dú)立,不獨(dú)立D.獨(dú)立,不獨(dú)立第九章單元測(cè)試1.【多選題】(10分)正確答案:AB下面屬于精確推理的方法是():A.變量消元法B.枚舉推理法C.拒絕采樣法D.似然加權(quán)法2.【多選題】(10分)正確答案:ABCD特征因子包括哪幾種():A.聯(lián)合分布B.多條件分布C.選定聯(lián)合分布D.單條件分布3【判斷題】(10分似然加權(quán)法是重要性采樣的特殊情況,可能會(huì)生成不符合證據(jù)變量的樣本()。A.對(duì)B.錯(cuò)4【判斷題】(10分貝葉斯網(wǎng)絡(luò)中精確推理的復(fù)雜度依賴于網(wǎng)絡(luò)結(jié)構(gòu)和網(wǎng)絡(luò)規(guī)模()。A.錯(cuò)B.對(duì)1【單選題】(10分)對(duì)于隱馬爾可夫模型(HMM),設(shè)其觀察值空間為O={o1,o2,…,oN},狀態(tài)空間為:S={s1,s2,…,sK},

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論