




版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
1、多元線性回歸和BP神經(jīng)網(wǎng)絡(luò)及決策向量機(jī)之間的比較,個(gè)人理解:多元線性回歸:就是多個(gè)屬性的線性組合,在組合時(shí),通過不斷調(diào)節(jié)每個(gè)屬性的權(quán)重來使多元線性回歸函數(shù)更多的適用于多個(gè)樣本。BP神經(jīng)網(wǎng)絡(luò):通過使用最快速下降法,通過反向傳播來不斷調(diào)整網(wǎng)絡(luò)中的權(quán)值和閾值,使網(wǎng)絡(luò)的誤差平方和最小。決策向量機(jī):它仍是對(duì)每個(gè)樣本操作,使得所有樣本距離最終生成的擬合曲線的間隔最小化。算法比較:BP目標(biāo)函數(shù): J1pmm22j i(yj dj)權(quán)值調(diào)整:wk1決策向量機(jī)目標(biāo)函數(shù):min1/2wA2支持向量機(jī)(Supportvectormachines,SVM療神經(jīng)網(wǎng)絡(luò)類似,都是學(xué)習(xí)型的機(jī)制,但與神經(jīng)網(wǎng)絡(luò)不同的是SVM使用
2、的是數(shù)學(xué)方法和優(yōu)化技術(shù)。學(xué)習(xí)效率的比較:導(dǎo)入數(shù)據(jù):File->importdata參數(shù)優(yōu)化常用方法:train_pca,test_pca=pcaForSVM(train_data,test_data,97);函數(shù)為RBF核函數(shù)時(shí):優(yōu)化前:train_label=data(1:50,1);train_data=data(1:50,2:14);model=svmtrain(train_label,train_data,'-s3-t2-c-g-p');predict_label,mse,dec_value=svmpredict(train_label,train_data,mo
3、del);%±一行利用自身的值和預(yù)測(cè)值進(jìn)行比較,求得模型實(shí)際結(jié)果和預(yù)測(cè)結(jié)果的均方值test_label=data(51:100,1);test_data=data(51:100,2:14);predict_label,mse,dec_value=svmpredict(test_label,test_data,model);優(yōu)化后:train_label=data(1:50,1);train_data=data(1:50,2:14);bestmse,bestc,bestg=SVMcgForRegress(train_label,train_data)%優(yōu)化方法暫定為網(wǎng)格尋優(yōu)cmd=
4、39;-c',num2str(bestc),'-g',num2str(bestg),'-s3-t2-p'model=svmtrain(train_label,train_data,cmd);ptrain,mse,dec_value=svmpredict(train_label,train_data,model);figure;%畫圖比較預(yù)測(cè)值和實(shí)際值subplot(2,1,1);plot(train_label,'-o');holdon;plot(ptrain,'r-s');gridon;legend('origi
5、nal','predict');title('TrainSetRegressionPredictbySVM');2 .核函數(shù)為多項(xiàng)式核函數(shù)時(shí)train_label=data(1:50,1);train_data=data(1:50,2:14);bestmse,bestc,bestg=SVMcgForRegress(train_label,train_data);cmd='-c',num2str(bestc),'-g',num2str(bestg),'-s3-t1-p'model=svmtrain(train
6、_label,train_data,cmd);ptrain,mse=svmpredict(train_label,train_data,model);figure;%畫圖比較預(yù)測(cè)值和實(shí)際值subplot(2,1,1);plot(train_label,'-o');holdon;plot(ptrain,'r-s');gridon;legend('original','predict');title('TrainSetRegressionPredictbySVM');Meansquarederror=(regressi
7、on)Squaredcorrelationcoefficient=(regression)3 .核函數(shù)為線性乘積0-linear:u'*vtrain_label=data(1:50,1);train_data=data(1:50,2:14);bestmse,bestc,bestg=SVMcgForRegress(train_label,train_data);cmd='-c',num2str(bestc),'-g',num2str(bestg),'-s3-t0-p'model=svmtrain(train_label,train_data
8、,cmd);ptrain,mse=svmpredict(train_label,train_data,model);figure;%畫圖比較預(yù)測(cè)值和實(shí)際值subplot(2,1,1);plot(train_label,'-o');holdon;plot(ptrain,'r-s');gridon;legend('original','predict');title('TrainSetRegressionPredictbySVM');Meansquarederror=14537(regression)Squaredco
9、rrelationcoefficient=(regression)4 .核函數(shù)為sigmoid:tanh(gamma*u'*v+coef0)神經(jīng)元的非線性作用函數(shù)train_label=data(1:50,1);train_data=data(1:50,2:14);bestmse,bestc,bestg=SVMcgForRegress(train_label,train_data);cmd='-c',num2str(bestc),'-g',num2str(bestg),'-s3-t3-p'model=svmtrain(train_labe
10、l,train_data,cmd);ptrain,mse=svmpredict(train_label,train_data,model);figure;%畫圖比較預(yù)測(cè)值和實(shí)際值subplot(2,1,1);plot(train_label,'-o');holdon;plot(ptrain,'r-s');gridon;legend('original','predict');title('TrainSetRegressionPredictbySVM');注意:第一部分在建模時(shí)僅采用的是前50組數(shù)據(jù)生成的測(cè)試效率-因
11、素模型,當(dāng)選取的訓(xùn)練集越多(接近100)時(shí),他的效果是越差的,舉例說明如下:核函數(shù)為 RBFMean squared error = (regression)Squared correlation coefficient = (regression)下圖為江良學(xué)長(zhǎng)的測(cè)試成本-因素結(jié)果Mean squared error = (regression)Squared correlation coefficient = (regression)選取的樣本越多,得到的MS喇大(雖然mse增加,但對(duì)樣本的預(yù)測(cè)效果肯定會(huì)更好,因?yàn)殡S著樣本數(shù)增加,學(xué)習(xí)能力肯定提高),而相關(guān)系數(shù)反而有所提高(接近于1最佳);
12、問題提出:為什么 bestmse =+004與實(shí)際訓(xùn)練出來的 Mean squared error = (regression) 相距甚選-變神錘網(wǎng)絡(luò)的摘T-昵神蛭網(wǎng)絡(luò)實(shí)際材據(jù)r多元雄壯回歸加何r-密而續(xù)住回心實(shí)際收搪Part2:從參數(shù)優(yōu)化方法選取不同上比較那種參數(shù)選取更優(yōu)此比較基于RBF核函數(shù)而言1.基于網(wǎng)格尋優(yōu)方法FnrlPuinpJSIfitRflJI 撒把:評(píng)本笫 線建,潮流?;虺杀綯iflir 95 R自/白匕&自。上 1 by 口丫獨(dú)白一口13 ! -61- prrdKf(ran hjagrcsiiETiBy M品 1r代碼:train_label=data(1:50,1)
13、;train_data=data(1:50,2:14);bestmse,bestc,bestg=SVMcgForRegress(train_label,train_data)%優(yōu)化方法暫定為網(wǎng)格尋優(yōu)cmd='-c',num2str(bestc),'-g',num2str(bestg),'-s3-t2-p'model=svmtrain(train_label,train_data,cmd);ptrain,mse,dec_value=svmpredict(train_label,train_data,model);結(jié)果:bestmse=+004bes
14、tc=bestg=Meansquarederror=(regression)Squaredcorrelationcoefficient=(regression)1t卻匕k砧串.仁'LKffili.-J.-.Thrvtr.d目MtC=:'=576?=口口口+4口63CVfflW=15541尊犯工2 .基于遺傳算法尋優(yōu)train_label=data(1:50,1);train_data=data(1:50,2:14);bestCVmse,bestc,bestg,ga_option=gaSVMcgForRegress(train_label,train_data)cmd='
15、-c',num2str(bestc),'-g',num2str(bestg),'-s3-t2-p'model=svmtrain(train_label,train_data,cmd);ptrain,mse,dec_value=svmpredict(train_label,train_data,model);結(jié)果:bestCVmse=+004bestc=bestg=ga_option=maxgen:200sizepop:20ggap:cbound:0100gbound:01000v:5Meansquarederror=(regression)Squared
16、correlationcoefficient=(regression)口或初六小江:好般打必(?rib靖=1沖和珞決Sp姓初3 .基于pso尋優(yōu)(在這里使用啟發(fā)式算法PSO來進(jìn)行參數(shù)尋優(yōu),用網(wǎng)格劃分(gridsearch)來尋找最佳的參數(shù)c和g,雖然采用網(wǎng)格搜索能夠找到在CV意義下的最高的分類準(zhǔn)確率,即全局最優(yōu)解,但有時(shí)候如果想在更大的范圍內(nèi)尋找最佳的參數(shù)c和g會(huì)很費(fèi)時(shí),采用啟發(fā)式算法就可以不必遍歷網(wǎng)格內(nèi)的所有的參數(shù)點(diǎn),也能找到全局最優(yōu)解)代碼:train_label=data(1:50,1);train_data=data(1:50,2:14);bestCVmse,bestc,bestg,p
17、so_option=psoSVMcgForRegress(train_label,train_data)cmd='-c',num2str(bestc),'-g',num2str(bestg),'-s3-t2-p'model=svmtrain(train_label,train_data,cmd);ptrain,mse,dec_value=svmpredict(train_label,train_data,model);結(jié)果:+004bestc=bestg=pso_option=c1:c2:maxgen:200sizepop:20k:wV:1wP:
18、1v:5popcmax:100popcmin:popgmax:1000popgmin:Meansquarederror=(regression)Squaredcorrelationcoefficient=(regression)注意:仍是以前50組樣本為例Part3:主元分析仍然以RBF為核函數(shù),進(jìn)行主元分析之后參數(shù)優(yōu)化,最終得到MSE代碼:train_label=data(1:50,1);train_data=data(1:50,2:14);test_label=data(51:100,1);test_data=data(51:100,2:14);train_pca,test_pca=pcaForSVM(train_data,test_
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 6-甲酰基-5-(三氟甲基)煙酸乙酯hplc
- 5年級(jí)下冊(cè)英語第4單元單詞跟讀
- 5年級(jí)上冊(cè)簡(jiǎn)易方程
- 4年級(jí)下冊(cè)日積月累1~8單元
- 地下建筑火災(zāi)案例
- 2025年云南旅游職業(yè)學(xué)院?jiǎn)握新殬I(yè)傾向性測(cè)試題庫帶答案
- 2025年天津?yàn)I海職業(yè)學(xué)院?jiǎn)握新殬I(yè)傾向性測(cè)試題庫完美版
- 2025年南充文化旅游職業(yè)學(xué)院?jiǎn)握新殬I(yè)技能測(cè)試題庫及答案1套
- 2025年重慶資源與環(huán)境保護(hù)職業(yè)學(xué)院?jiǎn)握新殬I(yè)技能測(cè)試題庫1套
- 陜西省漢中市漢臺(tái)區(qū)部分學(xué)校 2024-2025學(xué)年七年級(jí)下學(xué)期第一次月考道德與法治試題(原卷版+解析版)
- 自然環(huán)境及特征(考向3:自然環(huán)境的地域差異(雪線、林線)) 【知識(shí)精講精研】 高考地理二輪核心考點(diǎn)突破課堂
- GB/T 43200-2023機(jī)器人一體化關(guān)節(jié)性能及試驗(yàn)方法
- 園林噴灌工程施工方案
- 紅樓夢(mèng)第二回極好課件
- 混凝土回彈數(shù)據(jù)自動(dòng)計(jì)算表格
- 家庭節(jié)約用水
- 《材料性能學(xué)》教案
- 道路交通事故現(xiàn)場(chǎng)勘查與處置
- 電噴系統(tǒng)原理及故障維修手冊(cè)
- 環(huán)境影響評(píng)價(jià)報(bào)告公示-全椒縣水務(wù)全椒縣第二自來水廠擴(kuò)建工程環(huán)境影響報(bào)告書公示全環(huán)評(píng)報(bào)告
- 名班主任工作室成員成長(zhǎng)檔案
評(píng)論
0/150
提交評(píng)論