人工智能智慧樹知到期末考試答案章節(jié)答案2024年復旦大學_第1頁
人工智能智慧樹知到期末考試答案章節(jié)答案2024年復旦大學_第2頁
人工智能智慧樹知到期末考試答案章節(jié)答案2024年復旦大學_第3頁
人工智能智慧樹知到期末考試答案章節(jié)答案2024年復旦大學_第4頁
免費預覽已結束,剩余6頁可下載查看

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權,請進行舉報或認領

文檔簡介

人工智能智慧樹知到期末考試答案+章節(jié)答案2024年復旦大學在alpha-beta剪枝算法中,對于MAX節(jié)點,當它的效用值比當前的alpha低時可以進行剪枝。()

答案:錯似然權重、馬爾可夫蒙特卡洛方法這樣的隨機近似技術,可以對網(wǎng)絡的真實后驗概率進行合理估計,并能夠比精確算法處理規(guī)模大得多的網(wǎng)絡。()

答案:錯alpha-beta剪枝一定比單純的極大極小值算法效率高。()

答案:錯強化學習中使用含參數(shù)的函數(shù)來估計狀態(tài),是從較小的空間映射到更大的空間。()

答案:錯

答案:消去V后得到的因子是f4(W,Y)###產(chǎn)生的最大因子維度是3在無模型設定的強化學習中,馬爾可夫決策過程的五元組已知部分有()

答案:在貝葉斯網(wǎng)絡中,下面說法正確的是()。

答案:構建貝葉斯網(wǎng)絡不一定要遵循因果關系###使用因果關系可以使貝葉斯網(wǎng)絡的構建更加簡單在估價函數(shù)中,對于g(x)和h(x)下面描述正確的是()。

答案:h(x)是從節(jié)點x到目標節(jié)點的最優(yōu)路徑的估計代價###g(x)是從初始節(jié)點到節(jié)點x的實際代價時序概率模型包含了()。

答案:描述觀察過程的傳感器模型###描述狀態(tài)演變的轉(zhuǎn)移模型如果回溯搜索算法運行弧相容檢查并應用MRV和LCV來選擇變量和值,那么回溯算法可能需要回溯的最大次數(shù)是多少?()。

答案:關于約束滿足問題回溯算法中的LCV方法,說法正確的是()。

答案:LCV提高了回溯算法的效率,因為它通常會減少搜索中的回溯次數(shù)。

答案:當h是可采納的,則存在常數(shù)c>0使得c*h是一致的。

答案:10%估值函數(shù)不滿足的特點是()。

答案:效用值的大小與贏得游戲的幾率無關。在強化學習值函數(shù)近似中,時序差分方法對參數(shù)的更新公式是()。

答案:在一個約束滿足問題中,有n個變量,每個變量有d個取值,求解這樣的樹結構約束滿足問題的計算復雜度是多少()。

答案:關于極大極小值搜索算法,以下說法正確的是()。

答案:狀態(tài)的效用值是指當前狀態(tài)下能得到的最大效用值。

答案:關于約束滿足問題,以下說法錯誤的是()。

答案:約束滿足問題存在最優(yōu)解?;谀P偷膹娀瘜W習涉及純離線計算,而模型無關的強化學習需要與環(huán)境進行在線交互。()

答案:錯在求解約束滿足問題時應用MRV和LCV來選擇變量和值,可以在線性時間內(nèi)求解問題。()

答案:錯極小的衰減因子(接近0)會促使智能體選擇貪心策略。()

答案:對深度優(yōu)先搜索的空間復雜度更小,而廣度優(yōu)先算法的時間復雜度更小,而且更健壯。()

答案:對在圖搜索算法中,如果按估價函數(shù)f(x)=g(x)+h(x)作為Frontier中的結點排序的依據(jù),則該算法就是深度優(yōu)先算法。()

答案:錯

答案:錯在貝葉斯網(wǎng)絡中,當前節(jié)點條件獨立于序號比它小的非父親節(jié)點。()

答案:錯馬爾可夫過程一定存在穩(wěn)態(tài)分布(不動點)。()

答案:錯

答案:配備H-1的A*搜索###配備H-1的貪心搜索若一搜索樹的樹高有限且所有單步損耗均非負,則為每條邊增加一正損耗c>0,以下樹搜索算法中()所得搜索路徑保持不變。

答案:BFS###DFS寬度優(yōu)先搜索與深度優(yōu)先搜索有何區(qū)別是()?

答案:寬度優(yōu)先搜索的特點是先生成的節(jié)點先擴展###深度優(yōu)先搜索的特點是先擴展最新產(chǎn)生的節(jié)點以下關于啟發(fā)式函數(shù)和A*算法的描述正確的是()

答案:UCS圖搜索和樹搜索都是最優(yōu)的###UCS是A*算法的一個特殊情況###如果啟發(fā)式函數(shù)是可采納的,則A*樹搜索是最優(yōu)的###如果啟發(fā)式函數(shù)是一致的,則A*圖搜索是最優(yōu)的下列關于圖搜索策略說法正確的是()。

答案:搜索過程中必須記住哪些點走過了###搜索過程中必須記住從目標返回的路徑###是一種在圖中尋找路徑的方法###圖的每個節(jié)點對應一個狀態(tài),每條連線對應一個操作符若一搜索樹的樹高有限且所有單步損耗均非負,則為每條邊的損耗乘上一正常數(shù)w>0,以下樹搜索算法中()所得搜索路徑保持不變。

答案:BFS###DFS###UCS在有模型的強化學習中,屬于動態(tài)規(guī)劃求解的是()。

答案:策略迭代方法###值迭代方法

答案:+a?b?c+d;+a?b?c+d;+a?b+c+d;###+a?b?c+d;+a?b?c?d;+a+b?c?d強化學習中,泛化表示的特點有()。

答案:減少對經(jīng)驗的需求###降低內(nèi)存消耗時序概率模型的推理任務主要有(),其中每一個人物都可以通過遞歸實現(xiàn),運行時間與序列長度呈線性關系。

答案:預測###平滑###最可能解釋###濾波在一個約束滿足問題中,有n個變量,每個變量有d個取值,回溯算法在找到解決方案或得出不存在任何可行方案的結論之前,可能需要回溯的最大次數(shù)(即它生成的違反約束的部分或完整賦值方案的次數(shù))是多少?()。

答案:理性的傾向選擇不滿足的條件是()。

答案:行為的效用值不一定是最大化的。

答案:

答案:E若轉(zhuǎn)移矩陣是一個稀疏矩陣,且任何一個隱藏狀態(tài)只能轉(zhuǎn)移到M個可能的狀態(tài),使用維特比算法求最可能狀態(tài)序列時可以忽略那些轉(zhuǎn)移概率為0的路徑,這時時間復雜度和空間復雜度為()。

答案:O(TMX),O(TX)我們可以使用監(jiān)督學習或強化學習解決決策問題,則使用哪種方法時需要已知MDP的轉(zhuǎn)移概率()

答案:兩者都不需要在alpha-beta剪枝中,關于alpha、beta的初始化的說法正確的是()。

答案:alpha、beta的初始值分別為負無窮和正無窮。

答案:在采用樹搜索求解八數(shù)碼問題中,啟發(fā)函數(shù)f(x)=g(x)+h(x)中的常使用()來定義g(x)。

答案:節(jié)點x所在層數(shù)下列關于馬爾可夫決策問題(MDP)的說法中,正確的是()

答案:在等代價搜索算法中,總是選擇()的節(jié)點進行擴展。

答案:代價最小我們可以使用監(jiān)督學習或強化學習解決決策問題,則使用哪種方法需要來自接近最優(yōu)策略(例如人類專家)的數(shù)據(jù)才能正常工作()

答案:監(jiān)督學習關于零和游戲,以下說法錯誤的是()。

答案:玩家效用值的和為0。

答案:1/3,1/3

答案:若消元順序為C->S時,求和消元后產(chǎn)生的最大因子維度為3.貝葉斯網(wǎng)絡是()。

答案:有向無環(huán)圖對于隱馬爾可夫模型(HMM),設其觀察值空間為O={o1,o2,…,oN},狀態(tài)空間為:S={s1,s2,…,sK},觀測值序列為Y={y1,y2,…,yT}。如果用維特比算法(Viterbialgorithm)進行解碼,時間復雜為()。

答案:O(TK2)任何二階馬爾可夫過程都可以轉(zhuǎn)化為一個擴大了狀態(tài)變量集合的一階馬爾可夫過程。()

答案:對維特比算法的空間復雜度是O(TK)。()

答案:對下面屬于精確推理的方法是():

答案:枚舉推理法###變量消元法貝葉斯網(wǎng)絡中精確推理的復雜度依賴于網(wǎng)絡結構和網(wǎng)絡規(guī)模()。

答案:對特征因子包括哪幾種():

答案:聯(lián)合分布###選定聯(lián)合分布###多條件分布###單條件分布似然加權法是重要性采樣的特殊情況,可能會生成不符合證據(jù)變量的樣本()。

答案:錯

答案:不獨立,獨立

答案:P(-cavity,catch,-toothache)=P(-cavity)P(catch|(-cavity)P(-toothache)|-cavity)###P(cavity,-catch,-toothache)=P(cavity)P(-catch|(cavity)P(-toothache)|cavity)貝葉斯網(wǎng)絡中,節(jié)點的含義是什么()。

答案:隨機變量

答案:0.5使用強化學習狀態(tài)的泛化表示的好處有()。

答案:減少內(nèi)存的消耗###可以減少采樣在強化學習值函數(shù)近似中,蒙特卡洛方法對梯度計算是()。

答案:強化學習中有有模型的方法和無模型的方法()

答案:對在強化學習值函數(shù)近似中,時間差分方法對梯度計算是()。

答案:在強化學習值函數(shù)近似中,蒙特卡洛方法中可以使用SARSA和Q-learning進行真值的學習()

答案:錯時序差分算法是一種在線學習的方法。()

答案:對

答案:從不

答案:具有確定性的狀態(tài)轉(zhuǎn)移時

答案:具有確定性的狀態(tài)轉(zhuǎn)移時當在一個MDP中只執(zhí)行有限數(shù)量的步驟時,最優(yōu)策略是平穩(wěn)的。平穩(wěn)的策略是指在給定狀態(tài)下采取相同操作的策略,與智能體處于該狀態(tài)的時間無關。()

答案:錯假設馬爾可夫決策問題(MDP)的狀態(tài)是有限的,通過值迭代找到的策略優(yōu)于通過策略迭代找到的策略。()

答案:錯

答案:錯

答案:對如果兩個MDP之間的唯一差異是衰減因子的值,那么它們一定擁有相同的最優(yōu)策略。()

答案:錯約束滿足問題關注動作路徑。()

答案:錯關于約束滿足問題,說法錯誤的是()。

答案:對于任何類型的變量都可以通過枚舉的方式展現(xiàn)所有變量賦值情況。關于約束滿足問題的回溯搜索算法,以下說法正確的是()。

答案:賦值時,應選擇最少限制的取值。###應選擇剩余賦值選擇最少的變量進行賦值。任何N元約束滿足問題都可以轉(zhuǎn)化為二元約束滿足問題。()

答案:對約束滿足問題的解是滿足所有約束的一組變量賦值。()

答案:對alpha-beta剪枝中,哪些說法是正確的()。

答案:中間節(jié)點的極大極小值在執(zhí)行完剪枝算法后可能是錯誤的。###alpha在MAX節(jié)點上更新。###對于MAX節(jié)點來說,當前效用值大于beta時可以進行剪枝。在期望最大搜索中,可能涉及什么類型的節(jié)點?()。

答案:兩種都有。alpha-beta剪枝中,兒子節(jié)點的擴展順序遵循效用值遞減對MIN節(jié)點的值計算更高效。()

答案:錯對抗博弈是一種零和游戲。()

答案:對極大極小值搜索算法相比于深度優(yōu)先,更接近廣度優(yōu)先搜索算法。()

答案:錯

答案:各數(shù)碼到目標位置的曼哈頓距離總和###數(shù)碼1、2、3、4移動到正確位置的步數(shù)###不在目標位置的數(shù)碼總數(shù)在上述八數(shù)碼問題中,有兩種啟發(fā)式函數(shù),其中h1(n)為不在目標位置的數(shù)碼總數(shù),h2(n)為各數(shù)碼到目標位置的曼哈頓距離總和,則h3(n)=max(h1(n),h2(n)),具有以下什么性質(zhì)()。

答案:其余兩項都滿足假如一個搜索問題(有限狀態(tài))至少有一個解,則當A*圖搜索算法配備任意可采納的啟發(fā)式函數(shù)時,一定能保證找到一解。()

答案:對當路徑損耗非負時,一致代價搜索是A*算法的一種特例,其啟發(fā)式函數(shù)既是可采納的,又是一致的。()

答案:對

答案:G2以下無信息搜索算法中,同時具有完備性和最優(yōu)性的有()。

答案:廣度優(yōu)先搜索###一致代

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論