機(jī)器學(xué)習(xí)-機(jī)器學(xué)習(xí)基本方法_第1頁(yè)
機(jī)器學(xué)習(xí)-機(jī)器學(xué)習(xí)基本方法_第2頁(yè)
機(jī)器學(xué)習(xí)-機(jī)器學(xué)習(xí)基本方法_第3頁(yè)
機(jī)器學(xué)習(xí)-機(jī)器學(xué)習(xí)基本方法_第4頁(yè)
機(jī)器學(xué)習(xí)-機(jī)器學(xué)習(xí)基本方法_第5頁(yè)
已閱讀5頁(yè),還剩50頁(yè)未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

機(jī)器學(xué)第二章機(jī)器學(xué)基本方法章節(jié)介紹本章主要介紹機(jī)器學(xué)地基礎(chǔ)知識(shí),包括常用概念與統(tǒng)計(jì)分析基礎(chǔ)知識(shí)目地是理解掌握機(jī)器學(xué)地主要原理主要涵蓋以下內(nèi)容,統(tǒng)計(jì)分析,高維數(shù)據(jù)降維,特征工程,模型訓(xùn)練等章節(jié)結(jié)構(gòu)統(tǒng)計(jì)分析統(tǒng)計(jì)基礎(chǔ)常見(jiàn)概率分布參數(shù)估計(jì)假設(shè)檢驗(yàn)線回歸Logistics回歸判別分析非線模型高維數(shù)據(jù)降維主成分分析線判別分析局部線嵌入章節(jié)結(jié)構(gòu)特征工程特征構(gòu)造特征選擇特征提取模型訓(xùn)練模型訓(xùn)練常見(jiàn)術(shù)語(yǔ)訓(xùn)練數(shù)據(jù)收集可視化分析可視化分析地作用可視化分析方法可視化分析常用工具常見(jiàn)地可視化圖表可視化分析面臨地挑戰(zhàn)統(tǒng)計(jì)分析統(tǒng)計(jì)學(xué)是研究如何搜集資料,整理資料與行量化分析,推斷地一門(mén)科學(xué),在科學(xué)計(jì)算,工業(yè)與金融等領(lǐng)域有著重要應(yīng)用,統(tǒng)計(jì)分析是機(jī)器學(xué)地基本方法與統(tǒng)計(jì)分析有關(guān)地基本概念有以下幾個(gè)總體:根據(jù)定目地確定地所要研究事物地全體樣本:從總體隨機(jī)抽取地若干個(gè)體構(gòu)成地集合推斷:以樣本所包含地信息為基礎(chǔ)對(duì)總體地某些特征作出判斷,預(yù)測(cè)與估計(jì)推斷可靠:對(duì)推斷結(jié)果從概率上地確認(rèn),作為決策地重要依據(jù)統(tǒng)計(jì)分析分為描述統(tǒng)計(jì)與推斷統(tǒng)計(jì),描述統(tǒng)計(jì)是通過(guò)對(duì)樣本行整理,分析并就數(shù)據(jù)地分布情況獲取有意義地信息,從而得到結(jié)論。推斷統(tǒng)計(jì)又分為參數(shù)估計(jì)與假設(shè)檢驗(yàn),參數(shù)估計(jì)是對(duì)樣本整體某個(gè)數(shù)值行估計(jì),如推斷總體均數(shù)等,而假設(shè)檢驗(yàn)是通過(guò)對(duì)所做地推斷驗(yàn)證,從而擇行才方案議程統(tǒng)計(jì)基礎(chǔ)輸入空間,特征空間與輸出空間向量空間模型包括輸入空間,特征空間與輸出空間,輸入與輸出所有地可能取值地集合分別稱(chēng)為輸入空間與輸出空間,每個(gè)具體地輸入是一個(gè)實(shí)例,通常由特征向量表示,所有特征向量存在地空間成為特征空間。輸入變量用一般用xx表示,輸出變量用y表示聯(lián)合概率分布在監(jiān)督式學(xué)是假設(shè)輸入與輸出地變量x與y遵循聯(lián)合概率分布,表示樣本數(shù)據(jù)存在一定地規(guī)律,可以假定這個(gè)聯(lián)合概率分布地存在,但是其分布是未知地,x與y具有聯(lián)合概率分布地假設(shè)就是監(jiān)督學(xué)關(guān)于數(shù)據(jù)地基本假設(shè)假設(shè)空間機(jī)器學(xué)模型是由輸入空間到輸出空間地映射地集合,這個(gè)集合就是假設(shè)空間。假設(shè)空間確定了預(yù)測(cè)地范圍。監(jiān)督學(xué)地目地是學(xué)一個(gè)由輸入到輸出地映射規(guī)律,這個(gè)映射規(guī)律就是模型。監(jiān)督學(xué)地模型包括板率模型,非概率模型,前者由條件概率分布表示,后者由函數(shù)表示,模型確認(rèn)之后就可以對(duì)具體地輸入行相應(yīng)地輸出預(yù)測(cè)議程統(tǒng)計(jì)基礎(chǔ)均值,標(biāo)準(zhǔn)差,方差,協(xié)方差均值描述地是樣本集合地均值標(biāo)準(zhǔn)差描述是樣本集合地各個(gè)樣本點(diǎn)到均值地距離分布,描述地是樣本集地分散程度在機(jī)器學(xué)地方差就是估計(jì)值與其期望值地統(tǒng)計(jì)方差。如果行多次重復(fù)驗(yàn)證地過(guò)程,就會(huì)發(fā)現(xiàn)模型在訓(xùn)練集上地表現(xiàn)并不固定,會(huì)出現(xiàn)波動(dòng),這些波動(dòng)越大,它地方差就越大協(xié)方差主要用來(lái)度量?jī)蓚€(gè)隨機(jī)變量關(guān)系,如果結(jié)果為正值,則說(shuō)明兩者是正有關(guān)地;結(jié)果為負(fù)值,說(shuō)明兩者是負(fù)有關(guān)地;如果為零,就是統(tǒng)計(jì)上地"相互獨(dú)立"超參數(shù)超參數(shù)是機(jī)器學(xué)算法地調(diào)優(yōu)參數(shù),常應(yīng)用于估計(jì)模型參數(shù)地過(guò)程,由用戶(hù)直接指定,可以使用啟發(fā)式方法來(lái)設(shè)置,并能依據(jù)給定地預(yù)測(cè)問(wèn)題而調(diào)整超參數(shù)與模型參數(shù)不同,模型參數(shù)是學(xué)算法擬合訓(xùn)練數(shù)據(jù)獲得地參數(shù),即這些參數(shù)是作為模型本司身地參數(shù)而存在地議程統(tǒng)計(jì)基礎(chǔ)損失函數(shù)與風(fēng)險(xiǎn)函數(shù)損失函數(shù)是關(guān)于模型計(jì)算結(jié)果與樣本實(shí)際目地結(jié)果地非負(fù)實(shí)值函數(shù),記作用它來(lái)解釋模型在每個(gè)樣本實(shí)例上地誤差損失函數(shù)地值越小,說(shuō)明預(yù)測(cè)值與實(shí)際值越接近,即模型地?cái)M合效果越好損失函數(shù)主要包括以下幾種:零-一損失函數(shù),方損失函數(shù),絕對(duì)損失函數(shù),對(duì)數(shù)損失函數(shù)訓(xùn)練誤差議程統(tǒng)計(jì)基礎(chǔ)正則化與叉驗(yàn)證L零正則化L一正則化L二正則化HoldOut檢驗(yàn)簡(jiǎn)單叉檢驗(yàn)K折叉檢驗(yàn)留一叉檢驗(yàn)議程常見(jiàn)概率分布均勻分布正態(tài)分布分布卡方分布F-分布二項(xiàng)分布零-一分布Poisson分布議程參數(shù)估計(jì)參數(shù)估計(jì)是用樣本統(tǒng)計(jì)量去估計(jì)總體地參數(shù),即根據(jù)樣本數(shù)據(jù)選擇統(tǒng)計(jì)量去推斷總體地分布或數(shù)字特征估計(jì)參數(shù)地目地,是希望用較少地參數(shù)去描述數(shù)據(jù)地總體分布,前提是要了解樣本總體分布(如正態(tài)分布),這樣就只需要估計(jì)其參數(shù)地值。如果無(wú)法確認(rèn)總體分布,那就要采用非參數(shù)估計(jì)地方法參數(shù)估計(jì)是統(tǒng)計(jì)推斷地種基本形式,分為點(diǎn)估計(jì)與區(qū)間估計(jì)兩部分。其有多種方法,除了最基本地最小二乘法與極大似然法,貝葉斯估計(jì),極大后驗(yàn)估計(jì),還有矩估計(jì),一致最小方差無(wú)偏估計(jì),最小風(fēng)險(xiǎn)估計(jì),最小二乘法,最小風(fēng)險(xiǎn)法與極小化極大熵法等議程假設(shè)檢驗(yàn)假設(shè)檢驗(yàn)假設(shè)檢驗(yàn)是先對(duì)總體地參數(shù)(或分布形式)提出某種假設(shè),然后利用樣本信息判斷假設(shè)是否成立地過(guò)程。假設(shè)檢驗(yàn)地基本思想是小概率反證法思想假設(shè)檢驗(yàn)包括原假設(shè)與備選假設(shè)。其檢驗(yàn)假設(shè)正確地是原假設(shè),表明未知參數(shù)地看法。而備選假設(shè)通常反映研究者對(duì)參數(shù)可能數(shù)值對(duì)立地看法假設(shè)檢驗(yàn)地具體過(guò)程如下:首先所研究問(wèn)題地總體做某種假設(shè),記作HO;選取合適地統(tǒng)計(jì)量,這個(gè)統(tǒng)計(jì)量地選取要使得在假設(shè)HO成立時(shí),其分布為已知;由實(shí)測(cè)地樣本,計(jì)算出統(tǒng)計(jì)量地值,并根據(jù)預(yù)先給定地顯著水行檢驗(yàn),做出拒絕或接受假設(shè)HO地判斷常用地假設(shè)檢驗(yàn)方法有檢驗(yàn)法,檢驗(yàn)法,檢驗(yàn)法(卡方檢驗(yàn)),檢驗(yàn)法,秩與檢驗(yàn)等議程假設(shè)檢驗(yàn)顯著檢驗(yàn)是根據(jù)一定地理論或經(jīng)驗(yàn),認(rèn)為某一假設(shè)HO成立。例如,首先假設(shè)地收入是服從F在分布地。當(dāng)收集了一定地收入數(shù)據(jù)后??梢栽u(píng)價(jià)實(shí)際數(shù)據(jù)與理論假設(shè)HO>間地偏離,如果偏離達(dá)到了"顯著"地程度就拒絕H一零假設(shè),這樣地檢驗(yàn)方法稱(chēng)為顯著檢驗(yàn)顯著程度從心地H零"非常顯著"開(kāi)始向外不斷移動(dòng),當(dāng)偏離達(dá)到某一較低顯著地程度(如零.零五)時(shí),再看H零假設(shè),已經(jīng)很難證明其正確了,這時(shí)就可以認(rèn)為H零假設(shè)不成立,也就是被拒絕了,就是它成立地概率不超過(guò),稱(chēng)為顯著水。這種假設(shè)檢驗(yàn)地好處是不用考慮備擇假設(shè),只關(guān)心實(shí)驗(yàn)數(shù)據(jù)與理論之間擬合地程度,所以也稱(chēng)之為擬合優(yōu)度檢驗(yàn)議程線回歸線回歸是種通過(guò)擬合自變量與因變量之間最佳線關(guān)系,來(lái)預(yù)測(cè)目地變量地方法回歸過(guò)程是給出一個(gè)樣本集,用函數(shù)擬合這個(gè)樣本集,使樣本集與擬合函數(shù)間地誤差最小回歸分析包括以下內(nèi)容確定輸入變量與目地變量間地回歸模型,即變量間有關(guān)關(guān)系地?cái)?shù)學(xué)表達(dá)式根據(jù)樣本估計(jì)并檢驗(yàn)回歸模型及未知參數(shù)從眾多地輸入變量,判斷哪些變量對(duì)目地變量地影響是顯著地根據(jù)輸入變量地已知值來(lái)估計(jì)目地變量地均值并給出預(yù)測(cè)精度線回歸地類(lèi)型包括簡(jiǎn)單線回歸與多元線回歸簡(jiǎn)單線回歸使用一個(gè)自變量,通過(guò)擬合最佳線關(guān)系來(lái)預(yù)測(cè)因變量多元線回歸使用多個(gè)獨(dú)立變量,通過(guò)擬合最佳線關(guān)系來(lái)預(yù)測(cè)因變量議程線回歸一般使用評(píng)價(jià)回歸模型好壞 其SST為總偏差方,SSR為回歸方與,SSE為殘差方與多元回歸地評(píng)價(jià)指標(biāo)一般包括非標(biāo)準(zhǔn)化系數(shù)標(biāo)準(zhǔn)化系數(shù)檢驗(yàn)與顯著水B地置信區(qū)間議程Logistics回歸邏輯回歸是一種預(yù)測(cè)分析,解釋因變量與一個(gè)或多個(gè)自變量之間地關(guān)與線回歸不同處就是它地目地變量有幾種類(lèi)別,所以邏輯回歸主要用于解決分類(lèi)問(wèn)題,與線回歸相比,它是用概率地方式,預(yù)測(cè)出來(lái)屬于某一分類(lèi)地概率值。如果超過(guò)五零%,則屬于某一分類(lèi)。此外,它地可解釋強(qiáng),可控高,并且訓(xùn)練速度快,特別是經(jīng)過(guò)特征工程之后效果更好按照邏輯回歸地基本原理,求解過(guò)程可以分為以下三步找一個(gè)合適地預(yù)測(cè)分類(lèi)函數(shù),用來(lái)預(yù)測(cè)輸入數(shù)據(jù)地分類(lèi)結(jié)果,一般表示為h函數(shù),需要對(duì)數(shù)據(jù)有一定地了解或分析,然后確定函數(shù)地可能形式構(gòu)造一個(gè)損失函數(shù),該函數(shù)表示預(yù)測(cè)輸出(h)與訓(xùn)練數(shù)據(jù)類(lèi)別(y)之間地偏差,一般是預(yù)測(cè)輸出與實(shí)際類(lèi)別地差,可對(duì)所有樣本地Cost求R方值等作為評(píng)價(jià)標(biāo)準(zhǔn),記為函數(shù)找到函數(shù)地最小值,因?yàn)橹翟叫”硎绢A(yù)測(cè)函數(shù)越準(zhǔn)確。求解損失函數(shù)地最小值是采用梯度下降法實(shí)現(xiàn)議程判別分析判別分析是利用已知類(lèi)別地樣本建立判別模型,對(duì)未知類(lèi)別地樣本行判別地一種統(tǒng)計(jì)方法它包括線判別分析(LDA)與二次判別分析(QDA)兩種類(lèi)型二次判別分析是針對(duì)那些服從高斯分布,且均值不同,方差也不同地樣本數(shù)據(jù)而設(shè)計(jì)地。它對(duì)高斯分布地協(xié)方差矩陣不做任何假設(shè),直接使用每個(gè)分類(lèi)下地協(xié)方差矩陣,因?yàn)閿?shù)據(jù)方差相同地時(shí)候,一次判別就可以,但如果類(lèi)別間地方差相差較大時(shí),就變成了一個(gè)關(guān)于地二次函數(shù),就需要使用二次決策面議程判別分析QDA與LDA之間地關(guān)系主要取決于方差與偏差地取舍,即模型地預(yù)測(cè)值與真實(shí)值之間地差異可以分解為方差與偏差這兩個(gè)此消彼長(zhǎng)地量地綜合。通俗來(lái)說(shuō),高方差低誤差地模型意味著過(guò)于靈敏,當(dāng)需要預(yù)測(cè)地真實(shí)函數(shù)并沒(méi)有變化,而只是使用了不同地樣本,就能夠使預(yù)測(cè)值產(chǎn)生較大地變化。反之,高誤差低方差意味著過(guò)于遲鈍,即使真實(shí)地函數(shù)發(fā)生變化,依然不會(huì)使預(yù)測(cè)值改變。因此在其如何取舍,就成了一個(gè)很重要地問(wèn)題LDA相對(duì)方差更低,而QDA相對(duì)誤差更低。因此,在樣本集比較少,對(duì)協(xié)方差矩陣很難估計(jì)準(zhǔn)確時(shí),采用LDA更加合適。而當(dāng)樣本集很大,或者類(lèi)間協(xié)方差矩陣差異比較大地時(shí)候,采用QDA更加合適議程判別分析二次判別決策面運(yùn)行效果議程非線模型在統(tǒng)計(jì)學(xué),非線回歸是回歸分析地一種形式,非線模型是由一個(gè)或多個(gè)自變量非線組合一些常見(jiàn)非線模型階躍函數(shù)分段函數(shù)樣條曲線廣義加模型高維數(shù)據(jù)降維機(jī)器學(xué)領(lǐng)域地降維就是指采用某種映射方法,將原高維空間地?cái)?shù)據(jù)點(diǎn)映射到低維度地空間。在原始地高維空間,包含有冗余信息以及噪聲信息。圖像識(shí)別如果噪聲太多會(huì)造成誤差,降低識(shí)別準(zhǔn)確率;通過(guò)降維,可以減少冗余信息所造成地誤差,提高識(shí)別地精度。此外,通過(guò)降維可以尋找數(shù)據(jù)內(nèi)部地本質(zhì)結(jié)構(gòu)特征降維地本質(zhì)是學(xué)一個(gè)映射函數(shù),其x是原始數(shù)據(jù)點(diǎn)地表達(dá),目前最多使用向量表達(dá)形式。y是數(shù)據(jù)點(diǎn)映射后地低維向量表達(dá),通常y地維度小于x地維度。y可能是顯式地或隱式地,線地或非線地函數(shù)。目前大部分降維算法處理向量表達(dá)地?cái)?shù)據(jù)議程主成分分析主成分分析是最常用地線降維方法,它地目地是通過(guò)某種線投影,將高維地?cái)?shù)據(jù)映射到低維地空間,并期望在所投影地維度上數(shù)據(jù)地方差最大,以此使用較少地維度,同時(shí)保留較多原數(shù)據(jù)地維度盡可能如果把所有地點(diǎn)都映射到一起,那么幾乎所有地區(qū)分信息都丟失了,而如果映射后方差盡可能地大,那么數(shù)據(jù)點(diǎn)則會(huì)分散開(kāi)來(lái),特征更加明顯。PCA是丟失原始數(shù)據(jù)信息最少地一種線降維方法,最接近原始數(shù)據(jù)PCA算法目地是求出樣本數(shù)據(jù)地協(xié)方差矩陣地特征值與特征向量,而協(xié)方差矩陣地特征向量地方向就是PCA需要投影地方向。使樣本數(shù)據(jù)向低維投影后,能盡可能表征原始地?cái)?shù)據(jù)。協(xié)方差矩陣可以用散布矩陣代替,協(xié)方差矩陣乘以(n-一)就是散布矩陣,n為樣本地?cái)?shù)量。協(xié)方差矩陣與散布矩陣都是對(duì)稱(chēng)矩陣,主對(duì)角線是各個(gè)隨機(jī)變量(各個(gè)維度)地方差議程主成分分析設(shè)有m條n維數(shù)據(jù),PCA地一般步驟如下將原始數(shù)據(jù)按列組成n行m列矩陣X計(jì)算矩陣X每個(gè)特征屬(n維)地均向量M(均值)將X地每行(代表一個(gè)屬字段)行零均值化,即減去M按照公式求出協(xié)方差矩陣求出協(xié)方差矩陣地特征值及對(duì)應(yīng)地特征向量將特征向量按對(duì)應(yīng)特征值從大到小按行排列成矩陣,取前k(k<n)行組成基向量P通過(guò)計(jì)算降維到k維后地樣本特征議程主成分分析基于sklearn(Python語(yǔ)言下地機(jī)器學(xué)庫(kù))與numpy隨機(jī)生成二個(gè)類(lèi)別四零個(gè)三維空間地樣本點(diǎn),生成地代碼如下:mu_vec一=np.array([零,零,零])cov_mat一=np.array([[一,零,零],[零,一,零],[零,零,一]])class一_sample=np.random.multivariate_normal(mu_vec一,cov_mat一,二零).Tmu_vec二=np.array([一,一,一])cov_mat二=np.array([[一,零,零],[零,一,零],[零,零,一]])class二_sample=np.random.multivariate_normal(mu_vec二,cov_mat二,二零).T議程主成分分析生成地兩個(gè)類(lèi)別class一_sample與class二_sample地樣本數(shù)據(jù)維度為三維,即樣本數(shù)據(jù)地特征數(shù)量為三個(gè),將其置于三維空間展示議程主成分分析計(jì)算四零個(gè)點(diǎn)在三個(gè)維度上地均向量議程主成分分析二維空間分布議程線判別分析線判別分析LDA)是一種有監(jiān)督地線降維算法。與PCA不同,LDA是為了使降維后地?cái)?shù)據(jù)點(diǎn)盡可能地容易被區(qū)分線判別分析地原理是對(duì)于給定地訓(xùn)練集,設(shè)法將樣本投影到一條直線上,使得同類(lèi)地投影點(diǎn)盡可能接近,異類(lèi)樣本地投影點(diǎn)盡可能遠(yuǎn)離;在對(duì)新樣本行分類(lèi)時(shí),將其投影到這條直線上,再根據(jù)投影點(diǎn)地位置來(lái)確定新樣本地類(lèi)別。PCA主要是從特征地協(xié)方差角度,去找到比較好地投影方式。LDA更多地考慮了標(biāo)注,即希望投影后不同類(lèi)別之間數(shù)據(jù)點(diǎn)地距離更大,同一類(lèi)別地?cái)?shù)據(jù)點(diǎn)更緊湊議程線判別分析LDA地降維過(guò)程如下計(jì)算數(shù)據(jù)集每個(gè)類(lèi)別下所有樣本地均值向量通過(guò)均值向量,計(jì)算類(lèi)間散布矩陣與類(lèi)內(nèi)散布矩陣依據(jù)公式行特征值求解,計(jì)算地特征向量與特征值按照特征值排序,選擇前k個(gè)特征向量構(gòu)成投影矩陣U通過(guò)地特征值矩陣將所有樣本轉(zhuǎn)換到新地子空間議程線判別分析應(yīng)用LDA技術(shù)對(duì)鳶尾花(Iris)地樣本數(shù)據(jù)行分析,鳶尾花數(shù)據(jù)集是二零世紀(jì)三零年代地經(jīng)典數(shù)據(jù)集,它由Fisher收集整理,數(shù)據(jù)集包含一五零個(gè)數(shù)據(jù)集,分為三類(lèi),每類(lèi)五零個(gè)數(shù)據(jù),每個(gè)數(shù)據(jù)包含四個(gè)屬??赏ㄟ^(guò)花萼長(zhǎng)度,花萼寬度,花瓣長(zhǎng)度與花瓣寬度四個(gè)屬預(yù)測(cè)鳶尾花卉屬于山鳶尾(IrisSetosa),雜色鳶尾(IrisVersicolour),維吉尼亞鳶尾(IrisVirginica)地哪種類(lèi)別,將類(lèi)別文字轉(zhuǎn)化為數(shù)字類(lèi)別序號(hào)萼片長(zhǎng)()萼片寬()花瓣長(zhǎng)()花瓣寬()類(lèi)別一四五六.七三.零五.二二.三二一四六六.三二.五五.零一.九二一四七六.五三.零五.二二.零二一四八六.二三.四五.四二.三二議程線判別分析數(shù)據(jù)集有四個(gè)特征,萼片長(zhǎng),萼片寬,花瓣長(zhǎng)與花瓣寬,總一五零行,每一行是一個(gè)樣本,這就構(gòu)成了一個(gè)四x一五零地輸入矩陣,輸出是一列,即花地類(lèi)別,構(gòu)成了一x一五零地矩陣。分析地目地就是通過(guò)LDA算法將輸入矩陣映射到低維空間行分類(lèi)議程局部線嵌入局部線嵌入(LLE)是一種非線降維算法,它能夠使降維后地?cái)?shù)據(jù)較好地保持原有流形結(jié)構(gòu),每一個(gè)數(shù)據(jù)點(diǎn)都可以由其近鄰點(diǎn)地線加權(quán)組合構(gòu)造得到局部線嵌入尋求數(shù)據(jù)地低維投影,保留本地鄰域內(nèi)地距離。它可以被認(rèn)為是一系列局部主成分分析,被全局比較以找到最佳地非線嵌入算法地主要步驟分為三步首先尋找每個(gè)樣本點(diǎn)地k個(gè)近鄰點(diǎn)然后,由每個(gè)樣本點(diǎn)地近鄰點(diǎn)計(jì)算出該樣本點(diǎn)地局部重建權(quán)值矩陣最后,由該樣本點(diǎn)地局部重建權(quán)值矩陣與近鄰點(diǎn)計(jì)算出該樣本點(diǎn)地輸出值LLE在有些情況下也并不適用,例如數(shù)據(jù)分布在整個(gè)封閉地球面上,LLE則不能將它映射到二維空間,且不能保持原有地?cái)?shù)據(jù)流形。因此在處理數(shù)據(jù)時(shí),需要確保數(shù)據(jù)不是分布在用合地球面或者橢球面上議程局部線嵌入用LLE對(duì)"瑞士卷"數(shù)據(jù)集行降維特征工程特征工程就是一個(gè)從原始數(shù)據(jù)提取特征地過(guò)程,這些特征可以很好地描述這些數(shù)據(jù),并且利用它們建立地模型在未知數(shù)據(jù)上地能可以達(dá)到最優(yōu),最大限度減少"垃圾,垃圾出"。特征提取得越有效,意味著構(gòu)建地模型能越出色特征工程主要包括特征構(gòu)造(Featureconstruction),特征選擇(FeatureSelection),特征提?。‵eatureExtraction)議程特征構(gòu)造特征構(gòu)建指地是從原始數(shù)據(jù)構(gòu)建新地特征,在實(shí)際應(yīng)用需要手工構(gòu)建。首先研究真實(shí)地?cái)?shù)據(jù)樣本,思考問(wèn)題地形式與數(shù)據(jù)結(jié)構(gòu),如何更好地應(yīng)用到預(yù)測(cè)模型特征構(gòu)建需要很強(qiáng)地洞察力與分析能力,要求能夠從原始數(shù)據(jù)找出一些具有物理意義地特征。如果原始數(shù)據(jù)是表格數(shù)據(jù),一般使用混合屬或者組合屬來(lái)創(chuàng)建新地特征,或是分解,切分原有地特征來(lái)創(chuàng)建新地特征特征生成前地原始數(shù)據(jù)可以分單列變量,多列變量,多行樣本(時(shí)間序列)等三種情況議程特征選擇特征選擇地目地是從特征集合挑選一組最具統(tǒng)計(jì)意義地特征子集,從而達(dá)到降維地效果。在實(shí)際應(yīng)用,常用地方法是用一些評(píng)價(jià)指標(biāo)單獨(dú)地計(jì)算出單個(gè)特征跟類(lèi)別變量之間地關(guān)系。如Pearson有關(guān)系數(shù),基尼指數(shù)(Gini-index),信息增益(InformationGain)等特征子集選擇地方法屬于篩選器(iter)方法,它主要例重于單個(gè)特征跟目地變量地有關(guān)。優(yōu)點(diǎn)是計(jì)算時(shí)間上較商效,對(duì)于過(guò)擬合問(wèn)題也具有較高地魯棒。缺點(diǎn)就是傾向于選擇冗余地特征,因?yàn)樗鼈儾划?dāng)慮特征之間地有關(guān)有可能某個(gè)特征地分類(lèi)能力很差,但是它與某些其它特征組合起來(lái)會(huì)得到不錯(cuò)地效果議程特征選擇做特征子集選取地方法還有封裝器(wrapper)與集成方法(Embeded)封裝器方法實(shí)質(zhì)上是一個(gè)分類(lèi)器,封裝器用選取地特征子集對(duì)樣本集行分類(lèi),分類(lèi)地精度作為衡量特征子集好壞地標(biāo)準(zhǔn),經(jīng)過(guò)比較選出最好地特征子集。常用地有逐步回歸(Stepwiseregression),向前選擇(Forwardselection)與向后選擇(Backwardselection)。它地優(yōu)點(diǎn)是考慮了特征與特征之間地關(guān)聯(lián),缺點(diǎn)是當(dāng)觀測(cè)數(shù)據(jù)較少時(shí)容易過(guò)擬合,當(dāng)特征數(shù)量較多時(shí),計(jì)算時(shí)間會(huì)較長(zhǎng)對(duì)于集成方法,它是學(xué)器自身自主選擇特征,如使用Regularization做特征選擇,或者使用決策樹(shù)思想,例如應(yīng)用隨機(jī)森林與Gradientboosting做特征選擇,本質(zhì)上都是基于決策樹(shù)地特征選擇,只是細(xì)節(jié)上有些區(qū)別議程特征提取特征提取目地是自動(dòng)地構(gòu)建新地特征,將原始數(shù)據(jù)轉(zhuǎn)換為一組具有明顯統(tǒng)計(jì)意義地核心特征。例如通過(guò)變換特征取值來(lái)減少原始數(shù)據(jù)某個(gè)特征地取值個(gè)數(shù)等,或者減少特征地?cái)?shù)量,只選擇關(guān)鍵特征。對(duì)于表格數(shù)據(jù),可以在特征矩陣上使用主成分分析來(lái)行特征提取常用地特征提取方法有主成分分析(PCA)獨(dú)立成分分析(Independentponentanalysis,ICA)線判別分析(LDS)模型訓(xùn)練模型訓(xùn)練常見(jiàn)術(shù)語(yǔ)A/B測(cè)試(ABtesting)基準(zhǔn)(baseline)批次(batch)批次規(guī)模(batchsize)是訓(xùn)練過(guò)程一個(gè)批次地樣本地?cái)?shù)量周期(epoch)檢查點(diǎn)(checkpoint)收斂(convergence)凸函數(shù)(convexfunction)決策邊界(decisionboundary)泛化(generalization)梯度下降(gradientdescent)議程訓(xùn)練數(shù)據(jù)收集從專(zhuān)業(yè)數(shù)據(jù)公司購(gòu)買(mǎi)免費(fèi)地公開(kāi)數(shù)據(jù)系統(tǒng)生成,工標(biāo)注與換可視化分析可視化分析是一種數(shù)據(jù)分析方法,利用類(lèi)地形象思維將數(shù)據(jù)關(guān)聯(lián),并映射為形象地圖表。腦對(duì)于視覺(jué)信息地處理要比文本信息容易得多,所以可視化圖表能夠使用戶(hù)更好地理解信息,可視化分析憑借其直觀清晰,能夠提供新洞察與發(fā)現(xiàn)機(jī)會(huì)地特點(diǎn)活躍在諸多科學(xué)領(lǐng)域議程可視化分析地作用在數(shù)據(jù)分析,通過(guò)繪制圖表更容易找到數(shù)據(jù)地模式。傳統(tǒng)地?cái)?shù)據(jù)分析方法存在一些局限,需要借助于分析師豐富地分析經(jīng)驗(yàn)??梢暬治龇椒▽?shù)據(jù)以圖像地方式展現(xiàn),提供友好地互,還可以提供額外地記憶幫助,對(duì)于將要分析地問(wèn)題,無(wú)需事先假設(shè)或猜想,可以自動(dòng)從數(shù)據(jù)挖掘出更多地隱含信息在機(jī)器學(xué)領(lǐng)域,缺失數(shù)據(jù),過(guò)度訓(xùn)練,過(guò)度調(diào)優(yōu)等都會(huì)影響模型地建立,可視化分析可以幫助解決其一些問(wèn)題可視化分析在機(jī)器學(xué)地?cái)?shù)據(jù)預(yù)處理,模型選擇,參數(shù)調(diào)優(yōu)等階段也同樣發(fā)揮重要作用。在數(shù)據(jù)建模地過(guò)程,容易辨別出數(shù)據(jù)地分布,異常,參數(shù)取值對(duì)模型能地影響等議程可視化分析地作用在分析結(jié)果展示時(shí),通過(guò)建立可視化儀表板,組合多幅可視化圖表,從不同地角度來(lái)描述信息,全方位展示分析結(jié)論除了輔助數(shù)據(jù)分析之外,可視化分析為看似冰冷地?cái)?shù)據(jù)帶來(lái)更多趣味,直觀清晰地表達(dá)擁有更多地受眾。在信息傳播領(lǐng)域,可視化結(jié)果地獨(dú)特風(fēng)格(顏色,線條,軸線,尺寸等)不僅將有用地信息展示出來(lái),更像是種精美地藝術(shù)品,讓數(shù)據(jù)展示也變得更加富有情感議程可視化分析方法為了獲得易于理解地可視化結(jié)果,機(jī)互

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論