人機(jī)協(xié)同演化算法研究_第1頁
人機(jī)協(xié)同演化算法研究_第2頁
人機(jī)協(xié)同演化算法研究_第3頁
全文預(yù)覽已結(jié)束

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

人機(jī)協(xié)同演化算法研究現(xiàn)實(shí)世界中大量的應(yīng)用問題可看成優(yōu)化問題來解決,演化算法一直是解決此類問題的有效方法之一。對(duì)于顯式目標(biāo)優(yōu)化問題,演化算法表現(xiàn)出極大的優(yōu)勢,不要求目標(biāo)函數(shù)滿足連續(xù)、可微、凸等限制條件。然而,對(duì)于隱式目標(biāo)優(yōu)化問題,傳統(tǒng)的演化算法顯得有些力不從心。實(shí)際上,現(xiàn)實(shí)世界中有很多問題都可以看成是隱式目標(biāo)優(yōu)化問題。例如,藝術(shù)創(chuàng)作、CAD設(shè)計(jì)、圖像檢索等等。這類問題的優(yōu)化目標(biāo)一般取決于用戶的藝術(shù)修養(yǎng)、偏好、經(jīng)驗(yàn)、直覺等各種主觀因素,很難被量化,表示成函數(shù)作為優(yōu)化目標(biāo)幾乎不太可能。交互式演化算法是解決隱式目標(biāo)優(yōu)化問題的主要方法,引起了國內(nèi)外學(xué)者的廣泛關(guān)注。然而,在“狹義”的范疇,交互式演化算法中用戶只充當(dāng)了適應(yīng)值函數(shù)的功能,用戶干預(yù)的潛力無法得到有效釋放。對(duì)于更加“廣義”的范疇,即人為干預(yù)作用于演化算法的多個(gè)方面,近年來才得到學(xué)者們的關(guān)注。如何在交互式演化算法中融入更多人為干預(yù)因素,提高算法求解效率的同時(shí)又能極大限度的減輕用戶疲勞,這是非常有意義的研究課題。本文將“廣義”的交互式演化算法及其相關(guān)技術(shù)定義為“人機(jī)協(xié)同演化計(jì)算(User-systemCooperativeEvolutionaryComputation,USCEC)"?;诓罘盅莼惴▽?shí)現(xiàn)了USCEC系統(tǒng)框架,允許用戶在種群、個(gè)體和基因三個(gè)層次進(jìn)行干預(yù)。USCEC摒棄了適應(yīng)值賦值交互方式,使用成對(duì)比較選擇和基因直接編輯兩種人機(jī)交互方式,引入多種工作模式,并能自由切換,從而有效利用人和算法各自的優(yōu)勢。本文的主要研究工作有以下幾個(gè)方面:(1)提出了兩種減少編輯特征數(shù)目的方法,分別為基于區(qū)間熵和基于辨別因子的可編輯特征提取方法?;趨^(qū)間熵的可編輯特征的提取主要分析用戶滿意解中的特征分布情況,而基于辨別因子的方法則需要同時(shí)分析滿意解和不滿意解。實(shí)驗(yàn)結(jié)果表明,在高維特征向量上,采用辨別因子的編輯特征提取方法效果要好于基于區(qū)間熵的方法,能在保證算法效率的同時(shí)減少可編輯特征的數(shù)目,減輕用戶疲勞。(2)提出了一種局部搜索策略,基于SVM建立了能區(qū)分滿意解和非滿意解的決策超平面,通過評(píng)價(jià)積累的樣本不斷調(diào)整此超平面的位置,從候選解集中選擇離超平面距離最遠(yuǎn)的若干個(gè)體作為精英,并在人為操作下用于劣質(zhì)解的替換。實(shí)驗(yàn)表明此方法能減少基因編輯的次數(shù)。換言之,就是解的評(píng)價(jià)操作代替了解的編輯操作,從而減輕用戶由于過多的編輯行為產(chǎn)生的疲勞。(3)提出了一種基于透鏡成像原理的反學(xué)習(xí)策略,在USCEC系統(tǒng)評(píng)價(jià)交互界面上增加了一個(gè)反向解窗口,為每個(gè)演化個(gè)體提供了一次接近最優(yōu)目標(biāo)區(qū)域的機(jī)會(huì)。此方法通過引入“搜索半徑”和“縮放因子”兩個(gè)參數(shù),實(shí)現(xiàn)了算法在搜索區(qū)域廣度和深度上的一種平衡,可以看成是當(dāng)前種群在用戶的作用下與反向種群之間的“較量”。實(shí)驗(yàn)表明,該方法加速了算法的收斂,能在較少的迭代次數(shù)內(nèi)找到滿意解。(4)為進(jìn)一步減輕USCEC中的用戶疲勞問題,本文構(gòu)造了用戶評(píng)價(jià)代理模型,在一定程度上代替用戶評(píng)價(jià)。由于USCEC使用了成對(duì)比較選擇的評(píng)價(jià)交互方式,代理模型被設(shè)計(jì)成比較器。本文使用有向圖表示用戶偏好信息,并基于極限學(xué)習(xí)機(jī)建立分類器模型,使用改進(jìn)的粒子群算法優(yōu)化極限學(xué)習(xí)機(jī)的相關(guān)參數(shù)。實(shí)驗(yàn)表明,相對(duì)于傳統(tǒng)的基于神經(jīng)網(wǎng)絡(luò)的模型,本文提出的代理模型能獲得較好的精度,并且通過與反向?qū)W習(xí)策略的結(jié)合,在少量的迭代次數(shù)下就能獲得較多的樣本用于訓(xùn)練模型。本文的研究成果分別在人臉卡通圖像設(shè)計(jì)和基于內(nèi)容的圖像檢索問題中得到了驗(yàn)證。研究結(jié)果表明,本文的研究成果為交互式演化計(jì)算提供了

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論