智能控制理論與技術(shù)精彩試題_第1頁
智能控制理論與技術(shù)精彩試題_第2頁
智能控制理論與技術(shù)精彩試題_第3頁
已閱讀5頁,還剩13頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

1、理工大學(xué)課程名稱:智能控制理論與技術(shù)簡(jiǎn)答題(40分,每小題10分)1. 智能控制由哪幾部分組成?各自的作用是什么?答:智能控制系統(tǒng)一般由五部分組成:廣義對(duì)象、感知信息處理、 認(rèn)知部分、規(guī)劃和控制部分、常規(guī)控制器及執(zhí)行器。其作用如下:各種傳感器執(zhí)行器廣義對(duì)象?廣義對(duì)象:通常意義下的控制對(duì)象和所處的環(huán)境。?感知信息處理:將傳感器得到的原始信息加以處理,并與部 環(huán)境模型產(chǎn)生的期望信息進(jìn)行比較,完成信息的獲取、辨識(shí)、 整理及更新的功能。?認(rèn)知部分:主要用來接收和存儲(chǔ)信息、知識(shí)、經(jīng)驗(yàn)和數(shù)據(jù), 并對(duì)他們進(jìn)行分析、推理做出行動(dòng)的決策,送至規(guī)劃和控制部分。?規(guī)劃和控制部分:是整個(gè)系統(tǒng)的核心,它根據(jù)給定的任務(wù)要

2、 求,反饋信息以及經(jīng)驗(yàn)知識(shí),進(jìn)行信息自動(dòng)搜索、推理決策、 動(dòng)作規(guī)劃,最終產(chǎn)生具體的控制作用。?常規(guī)控制器及執(zhí)行器:作用于控制對(duì)象。2. 智能控制和傳統(tǒng)控制差異是什么?答:在應(yīng)用領(lǐng)域方面,傳統(tǒng)控制著重解決不太復(fù)雜的過程控制和 大系統(tǒng)的控制問題;而智能控制主要解決高度非線性、 不確定性和復(fù) 雜系統(tǒng)控制問題。在理論方法上,傳統(tǒng)控制理論通常采用定量方法進(jìn)行處理, 而智 能控制系統(tǒng)大多采用符號(hào)加工的方法;傳統(tǒng)控制通常捕獲精確知識(shí)來 滿足控制指標(biāo),而智能控制通常是學(xué)習(xí)積累非精確知識(shí); 傳統(tǒng)控制通 常是用數(shù)學(xué)模型來描述系統(tǒng),而智能控制系統(tǒng)則是通過經(jīng)驗(yàn)、規(guī)則用 符號(hào)來描述系統(tǒng)。在性能指標(biāo)方面,傳統(tǒng)控制有著嚴(yán)格

3、的性能指標(biāo)要求,智能控制 沒有統(tǒng)一的性能指標(biāo),而主要關(guān)注其目的和行為是否達(dá)到。但是,智能控制與傳統(tǒng)的或常規(guī)的控制有密切的關(guān)系,互相取長(zhǎng) 補(bǔ)短,而并非互相排斥?;谥悄芸刂婆c傳統(tǒng)控制在應(yīng)用領(lǐng)域方面、 理論方法上和性能指標(biāo)等方面的差異,往往將常規(guī)控制包含在智能控 制之中,智能控制也利用常規(guī)控制的方法來解決“低級(jí)”的控制問題, 力圖擴(kuò)充常規(guī)控制方法并建立一系列新的理論與方法來解決更具有 挑戰(zhàn)性的復(fù)雜控制問題。控制方案?jìng)鹘y(tǒng)控制智能控制控制過程較精確的模型,固定的控制 算法仿人智能控制決策控制模型模型框架控制理論的方法和人工智能的靈活框架結(jié)合起來控制性能缺之靈活性和應(yīng)變能力改變控制策略去適應(yīng) 對(duì)象的復(fù)雜

4、性和不確 定性控制對(duì)象線性、時(shí)不變,簡(jiǎn)單系統(tǒng)復(fù)雜,包括不確定性 的控制過程3. 人工神經(jīng)元網(wǎng)絡(luò)的拓?fù)浣Y(jié)構(gòu)主要有哪幾種?答:人工神經(jīng)網(wǎng)絡(luò)從拓?fù)浣Y(jié)構(gòu)上來說,主要分為層狀和網(wǎng)狀結(jié)構(gòu) 層狀結(jié)構(gòu)。網(wǎng)絡(luò)由若干層組成,每層中有一定數(shù)量的神經(jīng)元, 相鄰層中神經(jīng)元單向聯(lián)接,一般同層神經(jīng)元不能聯(lián)接。?前向網(wǎng)絡(luò):只有前后相鄰兩層之間神經(jīng)元相互聯(lián)接,各神經(jīng) 元之間沒有反饋。每個(gè)神經(jīng)元從前一層接收輸入,發(fā)送輸出 給下一層。網(wǎng)狀結(jié)構(gòu):網(wǎng)絡(luò)中任何兩個(gè)神經(jīng)元之間都可能雙向聯(lián)接。?反饋網(wǎng)絡(luò):從輸出層到輸入層有反饋,每一個(gè)神經(jīng)元同時(shí)接 收外來輸入和來自其它神經(jīng)元的反饋輸入,其中包括神經(jīng)元 輸出信號(hào)引回自身輸入的自環(huán)反饋。?混合型

5、網(wǎng)絡(luò):前向網(wǎng)絡(luò)的同一層神經(jīng)元之間有互聯(lián)的網(wǎng)絡(luò)4. 設(shè)計(jì)智能控制系統(tǒng)的主要步驟有哪些;1. 建立被控系統(tǒng)的模型;2如果需要,可以簡(jiǎn)化模型;3分析模型,確定其性質(zhì);4確定性能指標(biāo);5確定所采用的控制器類型;6如果可能,設(shè)計(jì)控制器滿足性能指標(biāo);不能的話,修改性能指 標(biāo)或者拓寬控制器的類型。計(jì)算題(10分)設(shè)論域U 4,比,出,5,生,且A 02 04 AU| u20.90.5U3U4U5試求A B,AB,AC(補(bǔ)集),B答:?0.2+ ?04 +史+丄+蘭 佻?0.10.710.3+ -+ ? =0.80.60.10.5+?:0.910.30.7+?10.3U5U4C (補(bǔ)集)B 0.10.7UiU

6、3三、作圖題(10分)1. 畫出以下應(yīng)用場(chǎng)合下適當(dāng)?shù)碾`屬函數(shù):(a) 我們絕對(duì)相信-附近的e(t)是“正小”,只有當(dāng)e(t)足夠遠(yuǎn)離-時(shí),44我們才失去e(t)是“正小”的信心;(b) 我們相信2附近的e(t)是“正大”,而對(duì)于遠(yuǎn)離2的e(t)我們很快 失去信心;(c) 隨著e(t)從-向左移動(dòng),我們很快失去信心,而隨著 e(t)從-向44右移動(dòng),我們較慢失去信心。? ?答:(a)假設(shè)偏離? 士?算足夠遠(yuǎn)離,選擇鐘形隸屬度函數(shù),參數(shù)設(shè)為:gbellmf(x,2 1.5 0.785),圖像如圖 3.1 所示。劑-2ji/4-曲0和4盼再A 4 亂 ma.圖3.1鐘形隸屬度函數(shù)曲線(b)假設(shè)“很快

7、失去信心”表示偏離?? 士?處隸屬度降為零,選擇三24角形隸屬度函數(shù),參數(shù)設(shè)為trimf(x,0.785, 1.570, 2.356),圖像如圖3.2所示。d-cE 匸屯rF = 口t右 Ltzur圖3.2三角形隸屬度函數(shù)曲線-pj/2-n-M0鳳3-M開5 耳Met(C)假設(shè)“很快失去信心”表示偏離?±?處隸屬度降為零,“較慢失44?3?去信心”表示偏離丁士丁處隸屬度降為零,選擇三角形隸屬度函數(shù),44參數(shù)設(shè)置為trimf(x,O, 0.785, 3.141),圖像如圖3.3所示。1D-6圖3.3三角形隸屬度函數(shù)曲線2. 畫出以下兩種情況的隸屬函數(shù):(a) 精確集合A x| 8 X2

8、的隸屬函數(shù);(b) 寫出單一模糊(singleton fuzzification )隸屬函數(shù)的數(shù)學(xué)表達(dá)形式,并畫出隸屬函數(shù)圖。答:(a)選取梯形隸屬度函數(shù),參數(shù)設(shè)置為trapmf(x, pi/8, pi/8,pi/2, pi/2),曲線如圖3.4所示。trapmfS/a7/8TT圖3.4梯形隸屬度函數(shù)曲線(b)單一模糊的數(shù)學(xué)表達(dá)式如下:1, ?= ? ?)= 0,?隸屬度函數(shù)圖像如圖3.5所示:J e3 4圖3.5單一模糊隸屬度函數(shù)曲線四、利用靜態(tài)多層前向人工神經(jīng)網(wǎng)絡(luò)(BP網(wǎng)絡(luò))(40分)1. 實(shí)現(xiàn) y 1.5cos(314x 0.5sin(2106x)2. 結(jié)合1研究變學(xué)習(xí)因子算法對(duì)網(wǎng)絡(luò)收斂

9、性能的影響4.1函數(shù)逼近此時(shí)BP神經(jīng)網(wǎng)絡(luò)用作逼近器,可以取圖 4.1所示的結(jié)構(gòu)。圖中 k為網(wǎng)絡(luò)的迭代次數(shù),u(k)為逼近器的輸入,y(k)為實(shí)際輸出,??(?) 為BP網(wǎng)絡(luò)的輸出。誤差信號(hào)作為網(wǎng)絡(luò)的調(diào)整信號(hào)。圖4.1 BP神經(jīng)網(wǎng)絡(luò)逼近網(wǎng)絡(luò)的學(xué)習(xí)算法BP算法的學(xué)習(xí)過程由前向傳播和反向傳播組成前向傳播:計(jì)算網(wǎng)絡(luò)的輸出隱層神經(jīng)元的輸入為:?= ?采用S形激發(fā)函數(shù),隱層神經(jīng)元的輸出為:, 1? = ?(?= 1 + ?-?, ,希=? (1 - ?)輸出層神經(jīng)元的輸出為(輸出層采用線性激發(fā)函數(shù))?(?)=刀??>?誤差信號(hào)為:?(?= ?(?) ?2(?) ?誤差性能指標(biāo)函數(shù)為:?=1 ?(?)

10、反向傳播:采用?學(xué)習(xí)算法,并引入動(dòng)量項(xiàng),調(diào)整各層權(quán)系數(shù) 輸出層及隱層的連接權(quán)系數(shù)?jk學(xué)習(xí)算法為:? Wjk = -? = -? ?(?號(hào)二?(?)?'式中?為學(xué)習(xí)速率,??> 0?+ 1時(shí)刻網(wǎng)絡(luò)的權(quán)值為:?%(?+ 1) = ?%(?)+ Wjk + ?(?(?)- ?jk (?- 1)式中?釣動(dòng)量因子,?0,1隱層及輸入層連接權(quán)值學(xué)習(xí)算法為:ij?ij?'ij式中篙=需需=?o (1-? ) ?+ 1時(shí)刻網(wǎng)絡(luò)的權(quán)值為:? (?+ 1) = ?(?)+ Wlj (?)+ ?(?j?)- ? (?- 1)BP神經(jīng)網(wǎng)絡(luò)算法的計(jì)算流程如圖 4.2所示,MATLAB代碼參見 附

11、錄。圖4.3用于逼近的BP網(wǎng)絡(luò)(1-10-1)選擇的BP網(wǎng)絡(luò)逼近器結(jié)構(gòu)為1-10-1,如圖4.3所示,含有一個(gè) 隱層,其中有程序中各參數(shù)設(shè)置如下:學(xué)習(xí)速率net. lr = 0.1;動(dòng)量因子net. mc = 0.8;隱層神經(jīng)元個(gè)數(shù)net. nHidden = 10 ; 訓(xùn)練樣本數(shù)trainNum二1e4 ; 最大訓(xùn)練代數(shù)net.epochs = 1e2; 期望訓(xùn)練誤差net.goal二1e - 4 ; 程序運(yùn)行結(jié)果如圖4.4和4.5所示。WHIM I門世圖4.4神經(jīng)網(wǎng)絡(luò)訓(xùn)練結(jié)果圖4.5神經(jīng)網(wǎng)絡(luò)訓(xùn)練誤差變化曲線從上圖中可以看出,BP網(wǎng)絡(luò)的輸出曲線和理想輸出曲線基本重 合,訓(xùn)練誤差在第二代就已經(jīng)

12、達(dá)到目標(biāo)要求。但是對(duì)網(wǎng)絡(luò)進(jìn)行測(cè)試的結(jié)果卻非常不盡人意,測(cè)試數(shù)據(jù)仍然選用訓(xùn)練網(wǎng)絡(luò)時(shí)的輸入數(shù)據(jù),結(jié)果如圖 4.6所示。1.50.5-0.5 -1 -1.5 1100.0050.010.0160.020.0250.030.0350.04test in put圖4.6網(wǎng)絡(luò)測(cè)試結(jié)果從上圖可以看出,網(wǎng)絡(luò)輸出特性十分糟糕。BP網(wǎng)絡(luò)實(shí)現(xiàn)非線性函數(shù)逼近要達(dá)到的效果我想是這樣的:對(duì)于 已訓(xùn)練好的網(wǎng)絡(luò),各連接關(guān)系的權(quán)值已經(jīng)調(diào)整到最優(yōu),對(duì)給定的輸入便會(huì)產(chǎn)生期望的輸出,而不需要再去調(diào)整權(quán)值了。按這樣的理解,上述輸出結(jié)果很差的原因可能有:1.網(wǎng)絡(luò)結(jié)構(gòu)不合適。只要有足夠多的隱層和隱層節(jié)點(diǎn),BP網(wǎng)絡(luò)可以逼近任意的非線性映射關(guān)

13、系1。此處網(wǎng)絡(luò)結(jié)構(gòu)為1-10-1,較為簡(jiǎn) 單,而要逼近的函數(shù)非線性程度較為嚴(yán)重,選擇更為復(fù)雜的網(wǎng)絡(luò)也許可以改善測(cè)試結(jié)果。經(jīng)測(cè)試如果要逼近的是正弦函數(shù)的話,能得到一 個(gè)比較好的測(cè)試結(jié)果,如圖4.7所示。test input圖4.7正弦函數(shù)的測(cè)試結(jié)果(前3秒為測(cè)試數(shù)據(jù))2.學(xué)習(xí)算法還有待改進(jìn),BP網(wǎng)絡(luò)的學(xué)習(xí)算法為最速梯度下降法, 這里引入了動(dòng)量項(xiàng)加以改進(jìn)??梢愿倪M(jìn)的措施還有:1) 變尺度法,它采用的是二階梯度法,相較于一階梯度法收斂 要快,因而可以選擇更小的誤差進(jìn)行訓(xùn)練;2) 變步長(zhǎng)法,這種方法的學(xué)習(xí)速率在訓(xùn)練過程中可以自適應(yīng)地 調(diào)整,以比較合適的學(xué)習(xí)速率逼近目標(biāo),也可以加快算法收斂速度。使用MA

14、TLAB 的神經(jīng)網(wǎng)絡(luò)工具箱如果使用MATLAB神經(jīng)網(wǎng)絡(luò)工具箱逼近所需的非線性函數(shù),可 以輸入以下代碼:clear;rng('default');rng(O);% Data to betrai ned %train Num = 1e4;in put = lin space(0, 0.04, tra inN um);targets = 1.5 * cos(314 * in put + 0.5 * si n(2 * pi * 1e6 * in put);% Set netparameters % hidde nLayers = 10;net = fit net(hidde nLaye

15、rs);n et, tr = tra in(n et, in put, targets);figure; plotperform(tr);% Test network %testIn = lin space(0, 0.08, trai nN um);testTargets = 1.5 * cos(314 * testIn + 0.5 * si n(2 * pi * 1e6 * testI n); testOut = sim(net, testIn);figure; plot(test In, testTargets, testI n, testOut);所采用的網(wǎng)絡(luò)結(jié)構(gòu)如圖4.8所示。Hidd

16、enOutput10 1圖4.8 MATLAB默認(rèn)的網(wǎng)絡(luò)結(jié)構(gòu)網(wǎng)絡(luò)結(jié)構(gòu)為1-10-1,每個(gè)神經(jīng)元還有一個(gè)基權(quán)值 b,學(xué)習(xí)算法為L(zhǎng)even berg-Marquardt算法,可以得到如下結(jié)果:Bast Validation Performance l» 0.0001 9262 at epoch 9id2 .VfihidintPDnTest一a>苣auUJp<uEnbsE:豊15 Epochs圖4.9網(wǎng)絡(luò)訓(xùn)練誤差變化曲線圖4.10網(wǎng)絡(luò)測(cè)試結(jié)果(前0.04秒為訓(xùn)練數(shù)據(jù))可以看出在第15代算法收斂,對(duì)于訓(xùn)練過的數(shù)據(jù),網(wǎng)絡(luò)能給出 很好的輸出結(jié)果。4.2學(xué)習(xí)率對(duì)網(wǎng)絡(luò)收斂性能的影響學(xué)習(xí)速率對(duì)網(wǎng)絡(luò)收斂性能的影響體現(xiàn)為:學(xué)習(xí)率越小,收斂越慢; 學(xué)習(xí)率越大,收斂越快,但是有可能導(dǎo)致振蕩甚至發(fā)散1。對(duì)于手寫代碼,選擇學(xué)習(xí)速率為 0.1,精度為1e-4時(shí),網(wǎng)絡(luò)在第 2代收斂。表4.1是學(xué)習(xí)率從0.1遞增到1訓(xùn)練的結(jié)果。表4.1學(xué)習(xí)率對(duì)網(wǎng)絡(luò)收斂性能的影響n et.lr0.10.20.30.40.50.60.70.80.91.0epoch222228265434041表4.2學(xué)習(xí)率和收斂性能的關(guān)系(正弦)n et.lr0.10.20.30.40.50.60.70.80.91.0epoch>1000896454221277929>10

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論