智能控制chap11PPT課件_第1頁
智能控制chap11PPT課件_第2頁
智能控制chap11PPT課件_第3頁
智能控制chap11PPT課件_第4頁
智能控制chap11PPT課件_第5頁
已閱讀5頁,還剩54頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

第十一章迭代學習控制實際控制中存在一類軌跡跟蹤問題 它的控制任務(wù)是尋找控制律 使得被控對象輸出在有限時間上沿著整個期望軌跡實現(xiàn)零誤差軌跡跟蹤 這列跟蹤問題是具有挑戰(zhàn)性的控制問題 人們在處理實際場合中的重復操作任務(wù)時 往往依據(jù)對象的可重復動態(tài)行為與期望行為的差距來調(diào)整決策 通過重復操作 使得對象行為與期望行為的配合達到要求 這時 衡量動態(tài)行為的指標是某種滿意指標 迭代學習控制 ILC IterativeLearningControl 的思想最初由日本學者Uchiyama于1978年提出 23 于1984年由Arimoto等人 24 做出了開創(chuàng)性的研究 這些學者借鑒人們在重復過程中追求滿意指標達到期望行為的簡單原理 成功地使得具有強耦合非線性多變量的工業(yè)機器人快速高精度地執(zhí)行軌跡跟蹤任務(wù) 其基本做法是對于一個在有限時間區(qū)間上執(zhí)行軌跡跟蹤任務(wù)的機器人 利用前一次或前幾次操作時測得的誤差信息修正控制輸入 使得該重復任務(wù)在下一次操作過程中做得更好 如此不斷重復 直至在整個時間區(qū)間上輸出軌跡跟蹤上期望軌跡 迭代學習控制適合于具有重復運動性質(zhì)的被控對象 通過迭代修正達到某種控制目標的改善 迭代學習控制方法不依賴于系統(tǒng)的精確數(shù)學模型 能在給定的時間范圍內(nèi) 以非常簡單的算法實現(xiàn)不確定性高的非線性強耦合動態(tài)系統(tǒng)的控制 并高精度跟蹤給定期望軌跡 因而一經(jīng)推出 就在運動控制領(lǐng)域得到了廣泛的運用 迭代學習控制方法具有很強的工程背景 這些背景包括 執(zhí)行諸如焊接 噴涂 裝配 搬運等重復任務(wù)的工業(yè)機器人 指令信號為周期函數(shù)的伺服系統(tǒng) 數(shù)控機床 磁盤光盤驅(qū)動系統(tǒng) 機械制造中使用的坐標測量機等 由于迭代學習控制模擬了人腦學習和自我調(diào)節(jié)的功能 因而是一種典型的智能控制方法 25 經(jīng)歷了三十多年的發(fā)展 迭代學習控制已成為智能控制中具有嚴格數(shù)學描述的一個分支 目前 迭代學習控制在學習算法 收斂性 魯棒性 學習速度及工程應(yīng)用研究上取得了很大的進展 11 1基本原理設(shè)被控對象的動態(tài)過程為 11 1 式中 分別為系統(tǒng)的狀態(tài) 輸出和輸入變量 為適當維數(shù)的向量函數(shù) 其結(jié)構(gòu)與參數(shù)均未知 若期望控制存在 則迭代學習控制的目標為 給定期望輸出和每次運行的初始狀態(tài) 要求在給定的時間內(nèi) 按照一定的學習控制算法通過多次重復的運行 使控制輸入 而系統(tǒng)輸出第k次運行時 式 11 1 表示為 11 2 跟蹤誤差為 11 3 迭代學習控制可分為開環(huán)學習和閉環(huán)學習 開環(huán)學習控制的方法是 第k 1次的控制等于第k次控制再加上第k次輸出誤差的校正項 即 11 4 閉環(huán)學習策略是 取第K 1次運行的誤差作為學習的修正項 即 11 5 式中 L為線性或非線性算子 11 2基本迭代學習控制算法Arimoto等首先給出了線性時變連續(xù)系統(tǒng)的D型迭代學習控制律 24 11 6 式中 為常數(shù)增益矩陣 在D型算法的基礎(chǔ)上 相繼出現(xiàn)了P型 PI型 PD型迭代學習控制律 從一般意義來看它們都是PID型迭代學習控制律的特殊形式 PID迭代學習控制律表示為 11 7 式中 為學習增益矩陣 算法中的誤差信息使用稱為開環(huán)迭代學習控制 如果使用則稱為閉環(huán)迭代學習控制 如果同時使用和則稱為開閉環(huán)迭代學習控制 此外 還有高階迭代學習控制算法 最優(yōu)迭代學習控制算法 遺忘因子迭代學習控制算法和反饋 前饋迭代學習控制算法等 11 3迭代學習控制的關(guān)鍵技術(shù)11 3 1學習算法的穩(wěn)定性和收斂性穩(wěn)定性與收斂性問題是研究當學習律與被控系統(tǒng)滿足什么條件時 迭代學習控制過程才是穩(wěn)定收斂的 算法的穩(wěn)定性保證了隨著學習次數(shù)的增加 控制系統(tǒng)不發(fā)散 但是 對于學習控制系統(tǒng)而言 僅僅穩(wěn)定是沒有實際意義的 只有使學習過程收斂到真值 才能保證得到的控制為某種意義下最優(yōu)的控制 收斂是對學習控制的最基本的要求 多數(shù)學者在提出新的學習律的同時 基于被控對象的一些假設(shè) 給出了收斂的條件 例如 Arimoto在最初提出PID型學習控制律時 僅針對線性系統(tǒng)在D型學習律下的穩(wěn)定性和收斂條件作了證明 11 3 2初始值問題運用迭代學習控制技術(shù)設(shè)計控制器時 只需要通過重復操作獲得的受控對象的誤差或誤差導數(shù)信號 在這種控制技術(shù)中 迭代學習總要從某初始點開始 初始點指初始狀態(tài)或初始輸出 幾乎所有的收斂性證明都要求初始條件是相同的 解決迭代學習控制理論中的初始條件問題一直是人們追求的目標之一 目前已提出的迭代學習控制算法大多數(shù)要求被控系統(tǒng)每次運行時的初始狀態(tài)在期望軌跡對應(yīng)的初始狀態(tài)上 即滿足初始條件 11 8 當系統(tǒng)的初始狀態(tài)不在期望軌跡上 而在期望軌跡的某一很小的鄰域內(nèi)時 通常把這類問題歸結(jié)為學習控制的魯棒性問題研究 11 3 3學習速度問題在迭代學習算法研究中 其收斂條件基本上都是在學習次數(shù)下給出的 而在實際應(yīng)用場合 學習次數(shù)顯然是沒有任何實際意義的 因此 如何使迭代學習過程更快地收斂于期望值是迭代學習控制研究中的另一個重要問題 迭代學習控制本質(zhì)上是一種前饋控制技術(shù) 大部分學習律盡管證明了學習收斂的充分條件 但收斂速度還是很慢 可利用多次學習過程中得到的知識來改進后續(xù)學習過程的速度 例如 采用高階迭代控制算法 帶遺忘因子的學習律 利用當前項或反饋配置等方法來構(gòu)造學習律 可使收斂速度大大加快 11 3 4魯棒性問題迭代學習控制理論的提出有濃厚的工程背景 因此僅僅在無干擾條件下討論收斂性問題是不夠的 還應(yīng)討論存在各種干擾的情形下系統(tǒng)的跟蹤性能 一個實際運行的迭代學習控制系統(tǒng)除了存在初始偏移外 還或多或少存在狀態(tài)擾動 測量噪聲 輸入擾動等各種干擾 魯棒性問題討論存在各種干擾時迭代學習控制系統(tǒng)的跟蹤性能 具體地說 一個迭代學習控制系統(tǒng)是魯棒的 是指系統(tǒng)在各種有界干擾的影響下 其迭代軌跡能收斂到期望軌跡的鄰域內(nèi) 而當這些干擾消除時 迭代軌跡會收斂到期望軌跡 11 4機械手軌跡跟蹤迭代學習控制仿真實例11 4 1控制器設(shè)計考慮一個關(guān)節(jié)的機器人 其動態(tài)性能可以由以下二階非線性微分方程描述 11 9 式中 為關(guān)節(jié)角位移量 為機器人的慣性矩陣 表示離心力和哥氏力 為重力項 為控制力矩 為各種誤差和擾動 設(shè)系統(tǒng)所要跟蹤的期望軌跡為 系統(tǒng)第次輸出為令 在學習開始時 系統(tǒng)的初始狀態(tài)為 學習控制的任務(wù)為通過學習控制律設(shè)計 使第次運動誤差減少 采用三種基于反饋的迭代學習控制律 1 閉環(huán)D型 11 10 2 閉環(huán)PD型 11 11 3 指數(shù)變增益D型 11 12 11 4 2仿真實例針對二關(guān)節(jié)機械手 介紹一種機器人PD型反饋迭代學習控制的仿真設(shè)計方法 針對二關(guān)節(jié)機器人控制系統(tǒng)式 11 9 各項表示為 干擾項為機器人系統(tǒng)參數(shù)為 采用三種閉環(huán)迭代學習控制律 其中為D型迭代學習控制 為PD型迭代學習控制 為變增益指數(shù)D型迭代學習控制 兩個關(guān)節(jié)的位置指令分別為和 為了保證被控對象初始輸出與指令初值一致 取被控對象的初始狀態(tài)為 取PD型迭代學習控制 即 仿真結(jié)果如圖11 1至圖11 3所示 圖11 120次迭代學習的跟蹤過程 圖11 2第20次迭代學習的位置跟蹤 圖11 320次迭代過程中誤差范數(shù)的收斂過程 11 5線性時變連續(xù)系統(tǒng)迭代學習控制11 5 1系統(tǒng)描述Arimoto等 24 給出了線性時變連續(xù)系統(tǒng) 11 13 的開環(huán)PID型迭代學習控制律 11 14 其中 為學習增益矩陣 11 5 2控制器設(shè)計及收斂性分析定理1若由式 11 13 和式 11 14 式描述的系統(tǒng)滿足如下條件 24 1 2 每次迭代初始條件一致 即則當時 有 證明 由式 11 13 及條件式 2 得則 即系統(tǒng)滿足初始條件 非齊次一階線性微分方程的解為 取 則由于 則 即將PID型控制律式 11 14 代入上式 則第k 1次輸出的誤差為 11 15 利用分部積分公式 令 有 11 16 將式 11 16 代入式 11 15 得 11 17 將式 11 17 兩端取范數(shù) 有 11 18 式中根據(jù)范數(shù)的定義可知 函數(shù)的范數(shù)為 將式 11 18 兩端同乘以 并考慮到有 11 19 根據(jù)范數(shù)的定義 函數(shù)的范數(shù)為 由于 則有 將式 11 19 的結(jié)果應(yīng)用于下式 得 其中 即 11 20 則 11 19 和 11 20 代入 11 18 得 11 21 其中 由于 則當取足夠大時 可以使 因此 定理得證 如果將控制律式 11 14 中的改為 則為閉環(huán)PID型迭代學習控制律 同定理1的證明過程 可證明閉環(huán)PID迭代學習控制律 11 5 3仿真實例考慮2輸入2輸出線性系統(tǒng) 期望跟蹤軌跡為 由于 取 可滿足定理1中的條件 1 在控制律式 11 14 中取 系統(tǒng)的初始狀態(tài)為 在chap11 2sim mdl程序中 選擇Simulink的ManualSwitch開關(guān) 將開關(guān)向下 取PD型開環(huán)迭代學習控制律 仿真結(jié)果見圖11 4至11 6所示 將開關(guān)向上 采用PD型閉環(huán)迭代學習控制律 仿真結(jié)果見圖11 7至11 9所示 可見 閉環(huán)收斂速度好于開環(huán)收斂速度 圖11 430次迭代學習的跟蹤過程 開環(huán)PD控制 圖11 5第30次迭代學習的位置跟蹤 開環(huán)PD控制 圖11 630次迭代過程中誤差最大絕對值的收斂過程 開環(huán)PD控制 圖11 730次迭代學習的跟蹤過程 閉環(huán)PD控制 圖11 8第30次迭代學習的位置跟蹤 閉環(huán)PD控制 圖11 930次迭代過程中誤差最大絕對值的收斂過程 閉環(huán)PD控制 11 6移動機器人軌跡跟蹤迭代學習控制移動機器人是一種在復雜的環(huán)境下工作的具有自規(guī)劃 自組織 自適應(yīng)能力的機器人 在移動機器人的相關(guān)技術(shù)研究中 控制技術(shù)是其核心技術(shù) 也是其實現(xiàn)真正的智能化和完全的自主移動的關(guān)鍵技術(shù) 移動機器人具有時變 強耦合和非線性的動力學特征 由于測量和建模的不精確 加上負載的變化以及外部擾動的影響 實際上無法得到移動機器人精確 完整的運動模型 通過對文 27 的控制方法進行詳細推導及仿真分析 研究一類移動機器人迭代學習離散控制的設(shè)計及仿真方法 11 6 1數(shù)學基礎(chǔ)代表N維歐氏空間 定義向量范數(shù)為 11 22 其中為 階實數(shù)矩陣 定義矩陣范數(shù)為 11 23 其中為矩陣的最大特征值 取 定義范數(shù)為 11 24 11 6 2系統(tǒng)描述圖11 10為移動機器人運動模型 它在同一根軸上有兩個獨立的推進輪 機器人在二維空間移動 點代表機器人的當前位置 廣義坐標定義為 和為直角坐標系下的坐標 為機器人的方位角 當機器人的標定方向為地理坐標系的橫軸正半軸時 定義為0 移動機器人受不完全約束的影響而只能在驅(qū)動輪軸的方向運動 點的線速度和角速度定義為和 圖11 10移動機器人運動模型 根據(jù)圖11 10 針對P點 移動機器人的離散運動學方程可由下式描述 11 25 其中為采樣時間 機器人狀態(tài)向量為 速度向量為 式 11 25 可寫為 11 26 其中 11 27 如圖11 10所示 期望軌跡為 運動軌跡跟蹤的控制問題就是為確定 使跟蹤 線速度和角速度誤差分別為 11 28 11 29 移動機器人迭代學習控制系統(tǒng)結(jié)構(gòu)如圖11 11所示 圖11 11移動機器人迭代學習控制系統(tǒng)結(jié)構(gòu)移動機器人離散運動學方程可描述如下 11 30 11 31 其中為狀態(tài)干擾 為輸出測量噪聲 為系統(tǒng)輸出 考慮迭代過程 由 11 30 和 11 31 可得 11 32 11 33 其中為迭代次數(shù) 為離散時間 分別代表第次迭代的狀態(tài) 輸入 輸出 狀態(tài)干擾和輸出噪聲 機器人運動方程 11 32 和 11 33 滿足下列性質(zhì)和假設(shè) 性質(zhì)1 考慮理想情況 取均為零 則期望軌跡的方程可寫為 11 34 11 35 性質(zhì)2 矩陣函數(shù)滿足Lipschitz條件 為正常數(shù) 11 36 性質(zhì)3 矩陣是有界的 為正常數(shù) 矩陣為的滿秩矩陣 假設(shè)1 假設(shè)2 干擾和噪聲有界 11 37 其中 為正常數(shù) 假設(shè)3 在每一次迭代中 軌跡都是從的鄰域開始 即 11 6 3控制律設(shè)計及收斂性分析迭代學習控制律設(shè)計為 11 38 對于第i次迭代 跟蹤誤差信號為 和為學習的增益矩陣 滿足 通過控制律 11 38 使狀態(tài)變量 控制輸入 系統(tǒng)輸出分別收斂于期望值 定理1 考慮離散系統(tǒng) 11 32 和 11 33 滿足假設(shè)1 3 采用控制律 11 38 則 11 39 對于所有都成立 如果忽略狀態(tài)干擾 輸出噪聲和初始狀態(tài)誤差 即 則分別收斂于期望值 如果考慮干擾 噪聲和誤差的存在 則 有界 且收斂于的函數(shù) 證明 由式 11 34 和 11 32 得 11 40 考慮性質(zhì)2和3及假設(shè)1和2 得令 則對上式進行遞推并考慮假設(shè)3 得 11 41 由 11 38 式得 利用性質(zhì)2和假設(shè)2 得令 則將 11 39 和 11 41 代入上式 得 因此上式兩端同乘 取范數(shù) 得 取 得 即 11 42 其中 根據(jù)等比數(shù)列有 11 43 令 則 11 42 變?yōu)?11 44 其中 對 11 44 式進行遞推 得取足夠大 使 可得 11 45 同理 11 41 式兩端同時乘以 得由于 并利用 11 43 式 得將式 11 45 代入上式 得 11 46 將 11 35 式減 11 33 式 得 將 11 35 式減 11 33 式 得將上式兩端同時乘以得到將 11 46 代入上式 得 11 47 由 11 45 11 47 式 可得結(jié)論為 當時 收斂于零 否則 按基于的函數(shù)有界收斂 11 6 4仿真實例針對移動機器人離散系統(tǒng) 11 32

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論