AdaBoost算法及提升樹_第1頁
AdaBoost算法及提升樹_第2頁
AdaBoost算法及提升樹_第3頁
AdaBoost算法及提升樹_第4頁
AdaBoost算法及提升樹_第5頁
已閱讀5頁,還剩12頁未讀 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認(rèn)領(lǐng)

文檔簡介

1、提升方法(Boosting)方法的思想: 改變訓(xùn)練樣本的權(quán)重(改變訓(xùn)練數(shù)據(jù)的概率分布)學(xué)習(xí)多個分類器,將分類器進行線性組合,提高分類性能。1需要解決的問題如何在每一輪改變訓(xùn)練數(shù)據(jù)的權(quán)值如何將弱分類器組合成一個強分類器2AdaBoost算法的解決方案如何在每一輪改變訓(xùn)練數(shù)據(jù)的權(quán)值 提高前一輪弱分類器錯誤分類樣本的權(quán)值,降低被正確分類樣本的權(quán)值如何將弱分類器組合成強分類器 增加分類誤差率小的弱分類器的權(quán)值,使其起較大的決定作用,同時減小分類誤差率大的弱分類器的權(quán)值。3AdaBoost算法4系數(shù)5權(quán)值更新當(dāng)正確分類時, ,相應(yīng)的權(quán)值會降低,相反相應(yīng)的權(quán)值會增大6AdaBoost誤差分析AdaBoos

2、t算法最終分類器的訓(xùn)練誤差界為7AdaBoost誤差分析對于二分類問題AdaBoost訓(xùn)練誤差界為其中8不等式的證明,等價于證明只需證明采用做差、求導(dǎo)的方法即可證明上式說明,AdaBoost的訓(xùn)練誤差是以指數(shù)速率下降的!AdaBoost誤差分析910前向分步算法AdaBoost算法中的基本分類器的線性組合為這是一個加法模型。在給定訓(xùn)練數(shù)據(jù)及損失函數(shù)L(y,f(x)條件下,學(xué)習(xí)加法模型f(x)成為損失函數(shù)極小化問題11前向分步算法但是求解這個問題非常復(fù)雜。而前向分步算法的思想是每次只學(xué)習(xí)一組參數(shù),保證每一輪都最優(yōu),然后逐步逼近最優(yōu)目標(biāo)函數(shù),即注意前后兩個公式的差別12前向分步算法定理8.3的證明中,8.21、8.22。13提升樹模型以決策樹為基函數(shù)的提升方法稱為提升樹。二叉分類樹二叉決策樹14提升樹算法仍然采用前向分步算法不同問題的提升樹學(xué)習(xí)算法,主要區(qū)別在于使用損失函數(shù)不同比如回歸樹,采用平方誤差損失函數(shù),因此引

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論