大數(shù)據(jù)分析方法與應(yīng)用 課件 第8章 支持向量機_第1頁
大數(shù)據(jù)分析方法與應(yīng)用 課件 第8章 支持向量機_第2頁
大數(shù)據(jù)分析方法與應(yīng)用 課件 第8章 支持向量機_第3頁
大數(shù)據(jù)分析方法與應(yīng)用 課件 第8章 支持向量機_第4頁
大數(shù)據(jù)分析方法與應(yīng)用 課件 第8章 支持向量機_第5頁
已閱讀5頁,還剩37頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

大數(shù)據(jù)分析方法與應(yīng)用上海理工大學(xué)主講人:耿秀麗

教授第8章支持向量機8.1支持向量機的原理目錄CONTENTS8.2支持向量機算法8.3支持向量機算法參數(shù)優(yōu)化8.4算法應(yīng)用及案例分析8.5課后習(xí)題第8章支持向量機8.1.1支持向量機的由來8.1.2支持向量機的發(fā)展8.1支持向量機的原理8.1支持向量機原理

支持向量機是什么?支持向量機(SupportVectorMachine,SVM)是一種以統(tǒng)計學(xué)習(xí)為基礎(chǔ)的強大的監(jiān)督學(xué)習(xí)算法,通常用于分類和回歸問題。SVM在機器學(xué)習(xí)領(lǐng)域非常流行,并被廣泛應(yīng)用于各種領(lǐng)域,如文本分類、圖像識別、生物信息學(xué)和金融預(yù)測等。SVM的核心思想是在特征空間中找到一個最優(yōu)的超平面,將不同類別的數(shù)據(jù)點分開,并且使得超平面與最近的數(shù)據(jù)點之間的間隔盡可能大。這些最近的數(shù)據(jù)點被稱為“支持向量”,因為它們對于定義分類邊界非常重要。8.1支持向量機原理

8.1.1支持向量機的由來SVM的早期發(fā)展始于統(tǒng)計學(xué)習(xí)理論,該理論是一種使用統(tǒng)計的方法專門研究小樣本情況下機器學(xué)習(xí)規(guī)律的理論并且針對小樣本問題建立了一套全新的理論體系,其統(tǒng)計推理規(guī)則不僅考慮了對漸進性能的要求,而且追求在現(xiàn)有有限信息的條件下得到最后結(jié)果Vapnik在該理論中提出了結(jié)構(gòu)風(fēng)險最小化(StructuralRiskMinimization,SRM)的概念,該概念強調(diào)在進行模型選擇時需要平衡模型的經(jīng)驗誤差和模型的復(fù)雜性,以實現(xiàn)更好的泛化性能。具體來說結(jié)構(gòu)化風(fēng)險可以分為結(jié)構(gòu)風(fēng)險和置信風(fēng)險。結(jié)構(gòu)風(fēng)險指的是給定樣本上的分類誤差,而置信風(fēng)險是指在未知樣本的分類誤差。我們在訓(xùn)練模型時會讓結(jié)構(gòu)風(fēng)險變得很小,但是這個模型能否預(yù)測未知樣本則需關(guān)注置信風(fēng)險。訓(xùn)練樣本數(shù)越多置信風(fēng)險也越小。而分類函數(shù)越復(fù)雜,則會導(dǎo)致其普適性變差,增加置信風(fēng)險。SVM的研究意義就是讓結(jié)構(gòu)風(fēng)險和置信風(fēng)險的和最小。8.1支持向量機原理

8.1.2支持向量機的發(fā)展最早的SVM是用于線性可分數(shù)據(jù)的,研究主要集中在找到最大間隔超平面和支持向量的數(shù)學(xué)推導(dǎo)與算法優(yōu)化上。Vapnik和Cortes首次提出了現(xiàn)代形式的線性SVM,其基本思想是通過拉格朗日乘數(shù)法將線性可分問題轉(zhuǎn)化為凸優(yōu)化問題,并利用對偶問題求解得到支持向量為了應(yīng)對現(xiàn)實世界中存在的線性不可分數(shù)據(jù),研究者又提出了軟間隔SVM,引入松弛變量來容忍一定的誤分類1995年為了應(yīng)對現(xiàn)實世界中存在的線性不可分數(shù)據(jù)8.1支持向量機原理

8.1.2支持向量機的發(fā)展提出了一對多(One-vs-Rest)和一對一(One-vs-One)等策略來處理多類別分類問題。開始的SVM是針對二分類問題的,但實際中存在多類別分類的需求研究者提出了核函數(shù)的概念,將數(shù)據(jù)映射到高維特征空間,并在高維空間中尋找線性可分的超平面由于實際數(shù)據(jù)往往是復(fù)雜的、非線性可分的8.1支持向量機原理

8.1.1支持向量機的由來8.1支持向量機原理

8.1.1支持向量機的由來支持向量機原理這些豆子叫做data,把線叫做classifier,最大間隙trick叫做optimization,拍桌子叫做kernelling核函數(shù),那張紙叫做hyperplane超平面8.2.1支持向量機的模型算法8.2.2支持向量機模型優(yōu)化算法8.2支持向量機算法8.2.3核函數(shù)8.2.4支持向量機算法的計算機實現(xiàn)8.2支持向量機算法

8.2.1支持向量機的模型算法給定訓(xùn)練樣本集:

D={(x1,y1),…,(xm,ym)}其中xi∈Rn,yi∈{-1,+1},i=1,...,m,Rn表示n維歐式空間。劃分超平面的線性方程描述:分類學(xué)習(xí)最基本的思想就是基于訓(xùn)練樣本集D在樣本空間中找到一個超平面,將不同的樣本分開。找到最大間隔則可以找到最優(yōu)超平面。如圖8?1所示,由此SVM優(yōu)化模型表述如下:

圖8?1

支持向量機示意圖對于一個線性可分的訓(xùn)練集,SVM認為存在(ω·b)使得yi[ωTxi+b]≥0。同時根據(jù)點到平面之間距離的公式,可以得出樣本空間中任意一點到超平面的距離為:距離超平面最近的幾個點被稱為支持向量,兩類異類向量的距離則為樣本中的間隔D,可以用如下公式描述:8.2支持向量機算法

8.2.1支持向量機的模型算法對于非線性問題來說,往往無法在原始樣本空間中尋找到一個超平面把訓(xùn)練樣本正確分類。SVM的做法是在將原始樣本空間映射到一個更高的特征空間,以期可以找到一個超平面,使得樣本集在這個空間內(nèi)可分。具體做法是令φ(x)表示x映射在特征空間的向量。

特征空間的超平面可以表示為:

則有SVM優(yōu)化模型:

而高維映射φ(x)的線性表達式不易求出,往往使用如下核函數(shù):

同時訓(xùn)練集中可能存在一些特異點,在特征空間中也找不到線性可分的超平面的情況下,去掉這些特異點后,剩下的大部分訓(xùn)練數(shù)集是線性可分的。8.2支持向量機算法

8.2.1支持向量機的模型算法線性不可分意味著某些樣本點(xi,yi)不能滿足間隔大于等于1的條件,樣本點落在超平面與邊界之間。為解決這一問題,可以對每個樣本點引入一個松弛變量ξi≥0,使得間隔加上松弛變量大于等于1

這樣約束條件變?yōu)椋?/p>

SVM的優(yōu)化模型則變成:

其中C>0為懲罰參數(shù),C值大時對誤分類的懲罰增大,C值小時對誤分類的懲罰減小。C主要作用在于使得間隔足夠大,同時使誤分類點的個數(shù)盡量少,用于調(diào)和兩者的系數(shù)。8.2支持向量機算法

8.2.2支持向量機的模型優(yōu)化算法VM的優(yōu)化模型本身是一個凸的二次型問題,使用原問題的對偶問題可以使得優(yōu)化模型可解。原問題的模型描述如下所示。

原問題的對偶問題定義如下所示。

對偶問題的優(yōu)化模型如下所示。

8.2支持向量機算法

8.2.2支持向量機的模型優(yōu)化算法根據(jù)對偶問題的原問題,SVM的優(yōu)化模型如下所示。其對應(yīng)的對偶問題優(yōu)化模型如下所示。而后根據(jù)強對偶關(guān)系定理,若f(w)為凸函數(shù),且g(w)=Aw+b,g(w)=Cw+d,則此優(yōu)化問題的原問題與對偶問題的間距為0,即:SVM的最終優(yōu)化模型為:

8.2支持向量機算法

8.2.3核函數(shù)核函數(shù)是什么?

核函數(shù)是SVM中的重要概念,它允許我們在低維空間中進行計算,這樣做的好處是避免了直接在高維空間中進行復(fù)雜計算,從而節(jié)省了計算資源和時間。

數(shù)學(xué)上,核函數(shù)是一個將原始特征空間映射到高維特征空間的函數(shù)。在高維特征空間中,數(shù)據(jù)更有可能是線性可分的。核函數(shù)可以將原始特征空間中的點對應(yīng)到高維空間中,然后在高維空間中計算數(shù)據(jù)之間的內(nèi)積,從而實現(xiàn)在原始特征空間中的非線性分類。核函數(shù)有什么種類?在SVM的最終優(yōu)化模型中,K(xi,yi)被稱為核函數(shù),它滿足Mercer條件的任何對稱的核函數(shù)對應(yīng)于樣本空間的點積。核函數(shù)的種類較多,常用的有:1)線性核(LinearKernel):K(xi,yi)=xTy,這是最簡單的核函數(shù),適用于線性可分問題。2)多項核(PolynomialKernel):K(xi,yi)=(xTy+c)α,其中c是一個常數(shù)項,α是多項式的階數(shù)。多項式核函數(shù)可以用于處理一些簡單的非線性問題。3)徑向基核(RadialBasiaFunctionKernel)Rbf(高斯徑向基函數(shù)核):RBF核函數(shù)是非常常用的核函數(shù),適用于各種非線性問題。4)Sigmoid核(SigmoidKernel):K(xi,yi)=tanh(βxTy+θ),這個核函數(shù)的形式基于Sigmoid函數(shù),其中β和θ是參數(shù)。Sigmoid核函數(shù)可以用于神經(jīng)網(wǎng)絡(luò)的模擬,在SVM中被用來解決二分類問題8.2支持向量機算法

8.2.4支持向量機算法的計算機實現(xiàn)支持向量機(SVM)進行分類的Python代碼如下所示。1)首先需要在pycharm中添加相應(yīng)的第三方庫,即在文件>設(shè)置>Python解釋器中單擊“+”,如圖8-2所示。圖8?2pycharm中添加第三方庫8.2支持向量機算法

8.2.4支持向量機算法的計算機實現(xiàn)2)在新建的python文件中,書寫相應(yīng)的代碼,如圖8-3所示。圖8?3代碼示例8.2支持向量機算法

8.2.4支持向量機算法的計算機實現(xiàn)3)最后單擊運行得到分類結(jié)果,如圖8-4所示。圖8?4運行代碼8.3.1模糊支持向量機8.3.2最小二乘支持向量機8.3支持向量機算法參數(shù)優(yōu)化8.3.3粒子群算法優(yōu)化支持向量機8.3支持向量機算法參數(shù)優(yōu)化

8.3.1模糊支持向量機(FuzzySupportVectorMachine,FSVM)是什么?

由于支持向量機對于離群點和噪點的敏感性,Lin和Wang提出了FSVM,用于有噪聲或離群點的分類。

其中FSVM的關(guān)鍵問題在于如何確定隸屬度函數(shù),目前沒有統(tǒng)一的標(biāo)準(zhǔn)去選擇一個相對較為合適的隸屬度,往往需要依據(jù)經(jīng)驗來選擇較為合適的隸屬度函數(shù)。通過對每個輸入的樣本點賦予模糊隸屬度值,使不同的樣本點對最優(yōu)分類超平面的構(gòu)建具有不同的貢獻,降低了噪聲或離群點對最優(yōu)決策面的影響。8.3支持向量機算法參數(shù)優(yōu)化

8.3.1模糊支持向量機(FuzzySupportVectorMachine,FSVM)對于給定的一組訓(xùn)練樣本集S={(x1,y1,S1),(x2,y2,S2),…,(xm,ym,Sm)},其中xm是樣本空間的樣本點,ym是樣本對應(yīng)的標(biāo)簽,Sm是模糊隸屬度值,代表著樣本點xm歸屬于某一類ym的權(quán)重。與標(biāo)準(zhǔn)的SVM算法一樣,模糊支持向量機也是尋找一個能最大化分類間隔的超平面ωTφ(x)+b=0,使得高維的求解最優(yōu)解分類問題轉(zhuǎn)化成如下所示的最優(yōu)化問題。其中ξi是松弛變量,C是正則化參數(shù)用于平衡分類最大間隔和分類誤差之間的平衡。ξiSm為重要性不同變量的錯分程度。當(dāng)Sm越小,ξi的影響越小,則對應(yīng)的φ(x)對于分類的作用就越小。SmC則是衡量樣本xi在訓(xùn)練FSVM算法時的重要程度,SmC的值越大,代表樣本xi被正確分類的可能性越大,反之表示樣本xi被正確分類的可能性越小。要解決上述優(yōu)化問題,如同SVM的標(biāo)準(zhǔn)型一樣,構(gòu)造出原問題的對偶問題,如下所示。8.3支持向量機算法參數(shù)優(yōu)化

8.3.1模糊支持向量機(FuzzySupportVectorMachine,FSVM)根據(jù)強對偶關(guān)系定理,最后得出:8.3支持向量機算法參數(shù)優(yōu)化

8.3.1模糊支持向量機(FuzzySupportVectorMachine,FSVM)那么我們?nèi)绾未_定隸屬度?1)基于距離確定隸屬度函數(shù)該方法是將樣本分為正類和負類,分別在兩個類找到中心,通過各個樣本到類中心的距離來確定隸屬度。樣本點到類中心的距離越小,表示該樣本點的隸屬度越大,反之,則表示該樣本點的隸屬度越小。找到兩個類的中心后,基于類中心的超平面到各個樣本點的距離來度量隸屬度函數(shù)的大小。2)基于K近鄰法(KNN)確定隸屬度函數(shù)該方法是在樣本數(shù)據(jù)中找到一個集合包含其附近的K個點,計算樣本點到這個集合中所有點的距離的平均值di,找到其中的最遠距離dmax和最近距離dmin,帶入如下函數(shù),即為隸屬度函數(shù)。8.3支持向量機算法參數(shù)優(yōu)化

8.3.2最小二乘支持向量機LSSVM(LeastSquareSupportVectorMachine,LSSVM)

由于支持向量機在大規(guī)模訓(xùn)練樣本時,存在訓(xùn)練速度慢、穩(wěn)定性差等缺點,且學(xué)習(xí)過程中需要求解二次規(guī)劃問題,從而制約了使用范圍。1999年,Suykens和Vandewalle等人在SVM的基礎(chǔ)上提出LSSVM,該算法的計算復(fù)雜度大大降低,使得訓(xùn)練速度得到提高。LSSVM方法是在標(biāo)準(zhǔn)支持向量機的基礎(chǔ)上的一種擴展,該算法將支持向量機的求解從二次規(guī)劃問題轉(zhuǎn)化為線性方程組。它與支持向量機的不同之處在于它把不等式約束改成等式約束,并把經(jīng)驗風(fēng)險由偏差的一次方改為二次方。

給定訓(xùn)練樣本集D={(x1,y1),(x2,y2),…,(xm,ym)},yi∈{-1,+1},首先用非線性φ(x)把樣本空間映射到高維特征空間之中,在這個高維空間中,劃分樣本空間的超平面用ωTφ(x)+b=0表示。根據(jù)最小二乘支持向量機,利用結(jié)構(gòu)風(fēng)險最小化原則,將傳統(tǒng)的支持向量機中的不等式約束問題轉(zhuǎn)化為等式約束問題,將二次規(guī)劃問題轉(zhuǎn)化為線性方程組來求解,具體如下所示。

最小二乘支持向量機是一個帶有等式約束的二次規(guī)劃問題,根據(jù)強對偶關(guān)系定理變形化簡,最后得出最小二乘法支持向量機的非線性預(yù)測模型如下所示。8.3支持向量機算法參數(shù)優(yōu)化

8.3.3粒子群算法優(yōu)化支持向量機8.3.3.1粒子群算法粒子群優(yōu)化算法的數(shù)學(xué)描述為,在假定的D維空間中,有M個粒子,每個粒子代表一個解。設(shè)第i個粒子的坐標(biāo)為Xid=(xi1,xi2,xi3,…,xid);第i個粒子的速度(粒子移動的距離和方向)為Vid=(vi1,vi2,vi3,…,vid);第i個粒子搜索到的最優(yōu)位置為:Pid=(pi1,pi2,pi3,…,pid);群體搜索到的最優(yōu)位置為Pgd=(pg1,pg2,pg3,…,pgd),則,粒子下一步迭代的速度和粒子坐標(biāo)結(jié)果表示為:其中:ω為慣性因子;c1,c2表示學(xué)習(xí)因子,一般取c1=c2;r1,r2表示隨機參數(shù)數(shù)據(jù)處理給定初始數(shù)據(jù)集及相關(guān)參數(shù)計算適應(yīng)度更新粒子的位置和速度計算粒子平均最優(yōu)位置迭代次數(shù)是否達到上限獲得最優(yōu)SVM參數(shù)8.3支持向量機算法參數(shù)優(yōu)化

8.3.3粒子群算法優(yōu)化支持向量機8.3.3.2粒子群優(yōu)化SVM由于SVM的分類效果對核函數(shù)因子б和懲罰因子C這兩個參數(shù)的選取有著極高的依賴性,且支持向量機無法對這兩個參數(shù)閾值進行定義,而g趨于∞或g趨于0均不會產(chǎn)生優(yōu)質(zhì)的學(xué)習(xí)效果,且當(dāng)C的取值不恰當(dāng)時,會引起模型訓(xùn)練失敗。為了取得更好的效果,通過PSO算法優(yōu)化SVM模型中的懲罰因子C和核函數(shù)因子б。最后將最優(yōu)參數(shù)代入到SVM模型中進行分類預(yù)測。PSO優(yōu)化SVM參數(shù)過程如圖8-5所示,具體步驟如下:是否當(dāng)數(shù)據(jù)集的數(shù)量級相差較大,需進行標(biāo)準(zhǔn)化處理8.4算法應(yīng)用和案例分析8.4.1

案例背景8.4.2數(shù)據(jù)集的收集8.4.3劃分訓(xùn)練集和測試集8.4.4基于SVM的模型預(yù)測與建立8.4.5結(jié)果分析8.4算法應(yīng)用和案例分析8.4.1

案例背景A公司是國內(nèi)一家大型電器制造商,專注于空調(diào)產(chǎn)品。他們面臨市場份額下降和智能化趨勢的挑戰(zhàn)。為了完成企業(yè)轉(zhuǎn)型,公司首先將產(chǎn)品和服務(wù)進行升級,以滿足智能化需求。但在這個過程中,他們面臨幾個問題:1)智能化推薦方法不成熟,仍然使用傳統(tǒng)的人工推薦方法。2)服務(wù)模塊中的售后維修和保養(yǎng)等基本服務(wù)與競爭對手相比沒有明顯優(yōu)勢。3)缺乏系統(tǒng)性的產(chǎn)品和服務(wù)設(shè)計,整合經(jīng)驗有限。4)傳統(tǒng)機器學(xué)習(xí)算法推薦精度低,模型性能差,缺乏研發(fā)和優(yōu)化。

為了實現(xiàn)智能化服務(wù)化,A公司需要解決這些問題。在產(chǎn)品配置方面,他們不僅要提供滿意的產(chǎn)品,還要優(yōu)化相關(guān)服務(wù)。此外,公司還需加強技術(shù)人員培訓(xùn)和招聘,提高推薦精度,研發(fā)新的配置模型,增強客戶滿意度,加強與客戶的聯(lián)系。

為了進一步推進智能化服務(wù)化轉(zhuǎn)型,他們需要優(yōu)化空調(diào)產(chǎn)品配置方案,使其更加靈活和可持續(xù)。同時,與人工推薦方案進行對比,驗證機器學(xué)習(xí)算法的推薦準(zhǔn)確性,為未來將機器學(xué)習(xí)算法作為輔助推薦工具做準(zhǔn)備。8.4算法應(yīng)用和案例分析8.4.2數(shù)據(jù)集的收集根據(jù)公司相關(guān)手冊、產(chǎn)品目錄以及以往客戶的需求條件,共收集了8種關(guān)于空調(diào)的客戶需求。包括環(huán)保性、穩(wěn)定性、智能性、簡便性、適應(yīng)性、可靠性、舒適性、能耗性。每種需求的具體描述如表8-1所示。8.4算法應(yīng)用和案例分析8.4.2數(shù)據(jù)集的收集其中每種需求有五個等級{L,ML,M,MH,H},具體意義為{低,較低,中,較高,高},為了便于計算機解讀,用{-2,-1,0,1,2}進行代替。具體的需求特征描述如表8-2所示。8.4算法應(yīng)用和案例分析8.4.2數(shù)據(jù)集的收集為了編碼產(chǎn)品,首先要確定產(chǎn)品模塊和服務(wù)模塊。通過查找相關(guān)的資料,我們了解到中央空調(diào)包括了9個產(chǎn)品組件,每個組件都有一個或多個實例,如表8-3所示。8.4算法應(yīng)用和案例分析8.4.2數(shù)據(jù)集的收集在服務(wù)模塊中,一共有5個模塊,每個模塊都有多個實例如表8-4所示。不同的產(chǎn)品模塊和服務(wù)模塊組成不同的產(chǎn)品配置方案。由于客戶的需求各異,最終確定了6種產(chǎn)品配置方案以滿足不同客戶的需求。例如,產(chǎn)品配置方案“1”可表示為:{A3,B2,C2,D2,E,F1,G,H2,I1,J2,K1,L1,M1,N1}。8.4算法應(yīng)用和案例分析8.4.3劃分訓(xùn)練集和測試集首先,從公司設(shè)計和銷售數(shù)據(jù)庫中提取52個數(shù)據(jù)樣本,具體數(shù)據(jù)如表8-5所示將52個樣本劃分為訓(xùn)練集和測試集,訓(xùn)練集的樣本數(shù)量為40個,測試集的數(shù)量為12。利用粒子群優(yōu)化算法找出SVM模型的最優(yōu)核函數(shù)參數(shù)和懲罰因子參數(shù),最后將最優(yōu)參數(shù)代入SVM模型中進行預(yù)測。SVM模型的輸入為需求特征,輸出為產(chǎn)品服務(wù)系統(tǒng)配置方案。8.4算法應(yīng)用和案例分析8.4.4基于SVM的模型預(yù)測與建立通過OVO(OneVsOne,一對一)方法構(gòu)造多類SVM模型。對于由OVO方法創(chuàng)建的每個可能的二進制SVM模型,將高斯RBF函數(shù)選擇為內(nèi)核函數(shù)。然后,利用粒子群優(yōu)化(PSO)算法并進行5-foldCV的參數(shù)尋優(yōu),找出最優(yōu)參數(shù)對(C,б)帶入多分類SVM模型對產(chǎn)品配置進行預(yù)測。在PSO算法中,參數(shù)設(shè)置為:種群數(shù)量為50,粒子維度為2,由于樣本不多,并通過多次試驗,迭代次數(shù)設(shè)置為100次能夠?qū)ふ页鲎顑?yōu)參數(shù),若數(shù)據(jù)樣本過多,可以增加迭代次數(shù),因此迭代次數(shù)設(shè)置為100次,適應(yīng)度函數(shù)為5-foldCV下的分類精度,算法停止條件為迭代次數(shù)大于100次。通過每一次迭代得出一個參數(shù)對(C,б),反復(fù)迭代到最大的迭代次數(shù)輸出最優(yōu)的參數(shù)對(C,б)。量子粒子群優(yōu)化算法的具體參數(shù)設(shè)置如表8-6所示。8.4算法應(yīng)用和案例分析8.4.4基于SVM的模型預(yù)測與建立構(gòu)建PSO-SVM模型后,為了能夠找出最優(yōu)的核函數(shù)參數(shù)和懲罰因子,使用訓(xùn)練精度作為評價指標(biāo),訓(xùn)練精度最高情況下對應(yīng)的核函數(shù)參數(shù)值和懲罰因子值為最優(yōu)值,模型訓(xùn)練結(jié)果如圖8-6所示。8.4算法應(yīng)用和案例分析8.4.4基于SVM的模型預(yù)測與建立通過粒子群優(yōu)化算法得出,當(dāng)?shù)螖?shù)到95次的時候,5-foldCV下的分類精度(即88.84%)達到最高,此時得出最優(yōu)參數(shù)值=15.1922,=0.2264。將最優(yōu)的參數(shù)帶入多分類SVM模型中,將12個用于測試集的樣本輸入模型中來測試模型的分類精度,測試結(jié)果如圖8-7所示。8.4算法應(yīng)用和案例分析8.4.4基于SVM的模型預(yù)測與建立從圖8-7可以看出,只有一個最初歸類為“2”的樣本被誤歸類為“4”,其分類的精度為91.67%。為了驗證該模型解決實際問題的可靠性,將測試兩個新客戶的需求所提供的產(chǎn)品配置與實際的吻合性。第一個新客戶需要為醫(yī)院配置中央空調(diào),其需求是能夠除菌,噪聲低(即環(huán)保性非常高),由于考慮到病人,所以舒適性也要求非常高。其輸入為{3,3,2,1,-2,3,2

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論