模糊聯(lián)想記憶.ppt_第1頁
模糊聯(lián)想記憶.ppt_第2頁
模糊聯(lián)想記憶.ppt_第3頁
模糊聯(lián)想記憶.ppt_第4頁
模糊聯(lián)想記憶.ppt_第5頁
已閱讀5頁,還剩10頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領

文檔簡介

模糊聯(lián)想記憶 outline 引言模糊hebbfams添加fam規(guī)則聯(lián)想輸出與清晰化fam系統(tǒng)結(jié)構(gòu) 引言 hebb假設 donaldo hebb在 theorganizationofbehavior 一書中提出 當細胞a的軸突到細胞b的距離近到足夠激勵它 且反復地或持續(xù)地刺激b 那么在這兩個細胞或一個細胞中將會發(fā)生某種增長過程或代謝反應 增加a對細胞b的刺激效果 1987年美國bartkosko教授提出了一種稱為模糊聯(lián)想記憶神經(jīng)網(wǎng)絡 fuzzyassociativememory fam 這種聯(lián)想記憶神經(jīng)網(wǎng)絡是將模糊控制的規(guī)則隱含地分布在整個網(wǎng)絡中 在神經(jīng)網(wǎng)絡的基礎上通過學習訓練產(chǎn)生模糊規(guī)則 一次模糊聯(lián)想記憶就是一次模糊邏輯推理 在模糊控制 知識推理和模式匹配等領域有著廣泛的應用前景 模糊hebbfams 經(jīng)典的hebb學習 作為一種非監(jiān)督訓練 有 對于一對給定的雙極值行向量 x y 神經(jīng)網(wǎng)絡要把他們對應起來用外積關系矩陣編碼 一種用最小關系編碼的模糊hebb關系矩陣 上述法則可叫做模糊外積 或最小關系編碼 模糊hebbfams 可以看出 每列的元素是每個bj相對與a的最小值 每行是每個ai相對與b的最小值 如果a中的某個元素比b中的所有元素都大 則m矩陣中的該行就是b行向量 如果b中的某個元素比a中的所有元素都大 則m矩陣中的該列就是整個a向量的轉(zhuǎn)置 這就是后面要提出的向量的高度h a 模糊hebbfams 對任意的 對任意的 當且僅當 當且僅當 如果 則有 用最小關系編碼構(gòu)造的模糊hebbfam進行聯(lián)想記憶時其精度依賴于h a h b 它們的關系在以下定理中體現(xiàn) a是一個模糊集 令 把h a 叫做模糊集a的高度 a是一個模糊集 若h a 1 則稱a是正則的 模糊hebbfams 相關積編碼與相關最小編碼的差別在于不取最小 而是一般的向量相乘運算 模糊hebbfams 由上計算可以看出 對于構(gòu)造的m 對于一個輸入向量 則 這個fam系統(tǒng)最大強度的響應輸出b 若 這個fam系統(tǒng)響應輸出b的程度為0 3 0 24 0 12 0 12 模糊hebbfams 如果h a 1 則 a b是非空的隸屬度向量 若 對任意的 對任意的 乘積關系雙向fam定理 如果h b 1 則 添加fam規(guī)則 神經(jīng)網(wǎng)絡方法是將他們相加或取最大值 但這種方案對模糊hebb編碼是失敗的 假定我們有m個fam規(guī)則或聯(lián)想 a1 b1 am bm 用模糊hebb編碼 可得到m個fam矩陣m1 mm 當m增加時 該式逐漸變?yōu)榈仁?因為最大項都趨向于1 這就是說m將變成一個元素全部為1的矩陣 就失去了聯(lián)想信息 ak bk 添加fam規(guī)則 用模糊集的方法是將聯(lián)想輸出的向量作相加性處理 而不是將mk作相加性處理 這里 這是通過對規(guī)則庫中每個規(guī)則并行處理而得到的 所以這種方法要求分開儲存m個聯(lián)想 ak bk 或者說用每一個單獨的前饋神經(jīng)網(wǎng)絡存儲一個聯(lián)想 這雖然消耗內(nèi)存空間 但不會發(fā)生規(guī)則間的 撞車 用戶可直接決定哪個規(guī)則對結(jié)論輸出起多大作用 分開存儲也提供了知識庫的可調(diào)性 用戶可增加或消除fam結(jié)構(gòu)的知識而不影響已存儲的知識 這種分開存儲使一個模糊向量a并行激活所有fam規(guī)則 以不同的程度 若a只是部分地滿足前件ak 則結(jié)論bk只是部分程度地被激活 聯(lián)想輸出與清晰化 聯(lián)想輸出向量b是對每條規(guī)則所產(chǎn)生的向量 的加權(quán)和 這里的權(quán)重非負 表示第k個fam規(guī)則 ak bk 的可信度或力度 可通過自適應調(diào)節(jié)而產(chǎn)生 在實際當中 一般取 1從原理上說 要求最后的聯(lián)想輸出是經(jīng)過歸一化處理的 這樣可保證b的每個元素在單位區(qū)間內(nèi)取值 聯(lián)想輸出與清晰化 兩種清晰化方法 1 最大隸屬清晰化方法 2 重心清晰化方法 這是最簡單的清晰化方法 它是選擇隸屬度最大的那點為輸出y 如果這個具有最大隸屬度的點不唯一 則取其平均值 中心值 最大隸屬清晰化方法有一個缺點 那就是它忽略了不少信息 因為它忽視了那些隸屬度不是最大的那些點 模糊重心清晰化方法是模糊推理中最常用的方法

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論