人工智能基礎(chǔ)及應(yīng)用 課件 第4章-機(jī)器學(xué)習(xí)_第1頁
人工智能基礎(chǔ)及應(yīng)用 課件 第4章-機(jī)器學(xué)習(xí)_第2頁
人工智能基礎(chǔ)及應(yīng)用 課件 第4章-機(jī)器學(xué)習(xí)_第3頁
人工智能基礎(chǔ)及應(yīng)用 課件 第4章-機(jī)器學(xué)習(xí)_第4頁
人工智能基礎(chǔ)及應(yīng)用 課件 第4章-機(jī)器學(xué)習(xí)_第5頁
已閱讀5頁,還剩91頁未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

人工智能基礎(chǔ)及應(yīng)用1第4章機(jī)器學(xué)習(xí)4.1機(jī)器學(xué)習(xí)概述4.2監(jiān)督學(xué)習(xí)4.3無監(jiān)督學(xué)習(xí)4.4弱監(jiān)督學(xué)習(xí)2本章學(xué)習(xí)目標(biāo)

理解機(jī)器學(xué)習(xí)的定義、基本術(shù)語及三個(gè)視角。掌握監(jiān)督學(xué)習(xí)、無監(jiān)督學(xué)習(xí)的基礎(chǔ)知識和典型算法。了解弱監(jiān)督學(xué)習(xí)的三種方法和應(yīng)用場景。344.1機(jī)器學(xué)習(xí)概述4.1.1

機(jī)器學(xué)習(xí)的定義機(jī)器學(xué)習(xí)主要有以下幾種定義。(1) 機(jī)器學(xué)習(xí)主要研究如何在經(jīng)驗(yàn)學(xué)習(xí)中改善計(jì)算機(jī)算法的性能。(2)機(jī)器學(xué)習(xí)是研究用數(shù)據(jù)或以往的經(jīng)驗(yàn)來優(yōu)化計(jì)算機(jī)程序性能的科學(xué)。(3)機(jī)器學(xué)習(xí)是一門研究機(jī)器獲取新知識和新技能,并識別現(xiàn)有知識的學(xué)問。(4)機(jī)器學(xué)習(xí)研究算法和數(shù)學(xué)模型,用以逐步提高計(jì)算機(jī)系統(tǒng)在特定任務(wù)上的性能。深度學(xué)習(xí)=大數(shù)據(jù)+高性能計(jì)算+靈巧的算法人工智能機(jī)器學(xué)習(xí)深度學(xué)習(xí)成功實(shí)現(xiàn)AI應(yīng)用的三要素:算法(菜譜)算力(廚具)數(shù)據(jù)(食材)AI、MachineLearning(ML)、DeepLearning(DL)的關(guān)聯(lián)64.1.1機(jī)器學(xué)習(xí)的定義目前為止,尚未有一個(gè)公認(rèn)的機(jī)器學(xué)習(xí)定義。而作者認(rèn)為:機(jī)器學(xué)習(xí)是研究如何使機(jī)器模擬或?qū)崿F(xiàn)人類的學(xué)習(xí)行為,以獲取知識和技能,并不斷改善系統(tǒng)自身性能的學(xué)科。機(jī)器學(xué)習(xí)是一門多領(lǐng)域交叉學(xué)科,涵蓋概率論、統(tǒng)計(jì)學(xué)、逼近論、凸分析、算法復(fù)雜度理論等多門學(xué)科的知識、理論和方法。它的根本任務(wù)是數(shù)據(jù)的智能分析與建模,并從數(shù)據(jù)中挖掘出有價(jià)值的信息。其目標(biāo)是要構(gòu)建可以從數(shù)據(jù)中學(xué)習(xí)、并對數(shù)據(jù)進(jìn)行預(yù)測的系統(tǒng)。74.1.1機(jī)器學(xué)習(xí)的定義機(jī)器學(xué)習(xí)是AI的一個(gè)分支,是其中最具智能特征、最前沿的研究領(lǐng)域之一,是AI的核心和研究熱點(diǎn)。機(jī)器學(xué)習(xí)是實(shí)現(xiàn)人工智能的關(guān)鍵和重要途徑。機(jī)器學(xué)習(xí)理論和方法在基于知識的系統(tǒng)、自然語言理解、語音識別、計(jì)算機(jī)視覺、機(jī)器人、模式識別、生物信息學(xué)等許多領(lǐng)域得到了廣泛應(yīng)用。一個(gè)系統(tǒng)是否具有學(xué)習(xí)能力已成為評判其是否具有“智能”的一個(gè)標(biāo)準(zhǔn)。機(jī)器學(xué)習(xí)的研究主要分為兩大類:基于統(tǒng)計(jì)學(xué)的傳統(tǒng)機(jī)器學(xué)習(xí):主要研究學(xué)習(xí)機(jī)制,注重探索模擬人的學(xué)習(xí)機(jī)制,研究方向包括:支持向量機(jī)、決策樹、隨機(jī)森林等?;诖髷?shù)據(jù)和人工神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí):主要研究如何充分利用大數(shù)據(jù)時(shí)代下的海量數(shù)據(jù),采用深度學(xué)習(xí)技術(shù)構(gòu)建深度神經(jīng)網(wǎng)絡(luò),從中獲取隱藏的、有效的、可理解的知識。人工智能與機(jī)器學(xué)習(xí)人類學(xué)習(xí)人類是從觀察中積累經(jīng)驗(yàn)來獲取技能。機(jī)器學(xué)習(xí)機(jī)器是從數(shù)據(jù)中積累或者計(jì)算的經(jīng)驗(yàn)中獲取技能。機(jī)器模擬人類的學(xué)習(xí)行為.Text,value,video,audio,image,etc894.1.2機(jī)器學(xué)習(xí)的基本術(shù)語1.數(shù)據(jù)集(Dataset)

數(shù)據(jù)集是指數(shù)據(jù)的集合。例如(20301001,張三,175cm,70kg)。2.樣本(Sample)樣本也稱為實(shí)例(Instance),指待研究對象的個(gè)體,包括屬性已知或未知的個(gè)體。例如,每個(gè)學(xué)生所對應(yīng)的一條記錄就是一個(gè)“樣本”。數(shù)據(jù)集即為若干樣本的集合。3.標(biāo)簽(Label)標(biāo)簽是為樣本指定的數(shù)值或類別。在分類問題中,標(biāo)簽是樣本被指定的特定類別;在回歸問題中,標(biāo)簽是樣本所對應(yīng)的實(shí)數(shù)值。已知樣本是指標(biāo)簽已知的樣本,未知樣本是指標(biāo)簽未知的樣本。104.1.2機(jī)器學(xué)習(xí)的基本術(shù)語4.特征(Feature)特征是指樣本的一個(gè)獨(dú)立可觀測的屬性或特性。它反映樣本在某方面的表現(xiàn)或性質(zhì),例如“姓名”“身高”是“特征”或“屬性”。特征的取值,例如“張三”“175cm”是“特征值”或“屬性值”。5.特征向量(FeatureVector)特征向量是由樣本的n個(gè)屬性組成的n維向量,第i個(gè)樣本Xi表示為:特征分為手工式特征也稱為設(shè)計(jì)式特征,是指由學(xué)者構(gòu)思或設(shè)計(jì)出來的特征,如SIFT、HOG等。學(xué)習(xí)式特征是指由機(jī)器從原始數(shù)據(jù)中自動生成的特征。例如,通過卷積神經(jīng)網(wǎng)絡(luò)獲得的特征就屬于學(xué)習(xí)式特征。手工式特征/設(shè)計(jì)的特征例如:用邊緣檢測算子提取的邊緣特征。HOG(HistogramofOrientedGradients,定向梯度直方圖)HOG特征11學(xué)習(xí)式特征邊緣特征124.1.2機(jī)器學(xué)習(xí)的基本術(shù)語6.特征空間(FeatureSpace)特征空間是指特征向量所在的p維空間,每一個(gè)樣本是該空間中的一個(gè)點(diǎn)。特征空間也稱為樣本空間。例如,將“身高”“體重”作為兩個(gè)坐標(biāo)軸,它們就形成了用于描述學(xué)生體態(tài)的二維空間,每個(gè)學(xué)生在此特征空間中都能找到自己的位置坐標(biāo)。134.1.2機(jī)器學(xué)習(xí)的基本術(shù)語通常將數(shù)據(jù)集分成訓(xùn)練集、驗(yàn)證集和測試集,需要保證這三個(gè)集合是不相交的。(1)訓(xùn)練集(TrainingDataset)訓(xùn)練過程中使用的數(shù)據(jù)稱為“訓(xùn)練數(shù)據(jù)”,其中每個(gè)訓(xùn)練數(shù)據(jù)稱為一個(gè)“訓(xùn)練樣本”;每個(gè)訓(xùn)練樣本都有一個(gè)已知標(biāo)簽,由所有訓(xùn)練樣本及其標(biāo)簽組成的集合稱為“訓(xùn)練集”。訓(xùn)練集包括一個(gè)樣本集和一個(gè)對應(yīng)的標(biāo)簽集,用于學(xué)習(xí)得到擬合樣本的模型。一般地,訓(xùn)練集中的標(biāo)簽都是正確的,稱為真實(shí)標(biāo)簽(Ground-Truth)。例如,在圖像分類任務(wù)中,訓(xùn)練集包括一個(gè)由特定圖像組成的樣本集合一組由語義概念(如山、水、樓等)組成的標(biāo)簽集合,標(biāo)簽即為Ground-Truth。144.1.2機(jī)器學(xué)習(xí)的基本術(shù)語(2)驗(yàn)證集(ValidationDataset)在實(shí)際訓(xùn)練中,有時(shí)模型在訓(xùn)練集上的結(jié)果很好,但對于訓(xùn)練集之外的數(shù)據(jù)的結(jié)果并不好。此時(shí),可單獨(dú)留出一部分樣本,不參加訓(xùn)練,而是用于調(diào)整模型的超參數(shù),并對模型的能力進(jìn)行初步評估,這部分?jǐn)?shù)據(jù)稱為驗(yàn)證集。超參數(shù)(hyperparameter)是指模型中人為設(shè)定的、無法通過訓(xùn)練得到的參數(shù),如NN的層數(shù)、卷積的尺寸、濾波器的個(gè)數(shù)、KNN和K-Means算法中的K值等。(3)測試集(TestDataset):測試過程中使用的數(shù)據(jù)稱為“測試數(shù)據(jù)”,被預(yù)測的樣本稱為“測試樣本”,測試樣本的集合稱為“測試集”。測試集不參與模型的訓(xùn)練過程,僅用于評估最終模型的泛化能力。154.1.2機(jī)器學(xué)習(xí)的基本術(shù)語7.泛化能力(GeneralizationAbility)泛化能力是指訓(xùn)練得到的模型對未知樣本正確處理的能力,即模型對新樣本的適應(yīng)能力,亦稱為推廣能力或預(yù)測能力。

164.1.2機(jī)器學(xué)習(xí)的基本術(shù)語9.學(xué)習(xí)算法(learningalgorithm)希望為每個(gè)樣本x預(yù)測的標(biāo)簽與其所對應(yīng)的真實(shí)標(biāo)簽都相同,這就需要有一組好的模型參數(shù)θ。為了獲得這樣的參數(shù)θ,則需要有一套學(xué)習(xí)算法來優(yōu)化函數(shù)f

,此優(yōu)化過程稱為學(xué)習(xí)(Learning)或者訓(xùn)練(Training),擬合函數(shù)f稱為模型(Model)。10.假設(shè)空間(hypothesisspace)從輸入空間至輸出空間的映射可以有多個(gè),它們組成的映射集合稱為假設(shè)空間。學(xué)習(xí)的目的:在此假設(shè)空間中選取最好的映射,即最優(yōu)的模型。用訓(xùn)練好的最優(yōu)模型對測試樣本進(jìn)行預(yù)測的過程稱為測試。174.1.2機(jī)器學(xué)習(xí)的基本術(shù)語

184.1.2機(jī)器學(xué)習(xí)的基本術(shù)語12.風(fēng)險(xiǎn)函數(shù)(RiskFunction)風(fēng)險(xiǎn)函數(shù)又稱期望損失(ExpectedLoss)或期望風(fēng)險(xiǎn)(ExpectedRisk),是所有數(shù)據(jù)集(包括訓(xùn)練集和預(yù)測集)上損失函數(shù)的期望值,用于度量平均意義下模型預(yù)測的好壞。機(jī)器學(xué)習(xí)的目標(biāo)是選擇風(fēng)險(xiǎn)函數(shù)最小的模型。194.1.2機(jī)器學(xué)習(xí)的基本術(shù)語

204.1.2機(jī)器學(xué)習(xí)的基本術(shù)語14.機(jī)器學(xué)習(xí)的基本流程是:數(shù)據(jù)預(yù)處理→模型學(xué)習(xí)→模型評估→新樣本預(yù)測。①數(shù)據(jù)預(yù)處理收集并處理數(shù)據(jù),有時(shí)還需要完成數(shù)據(jù)增強(qiáng)、裁剪等工作,劃分訓(xùn)練集、驗(yàn)證集、測試集。②模型學(xué)習(xí),即模型訓(xùn)練在訓(xùn)練集上運(yùn)行學(xué)習(xí)算法,利用損失函數(shù)和優(yōu)化算法求解一組模型參數(shù),得到風(fēng)險(xiǎn)函數(shù)最小的最優(yōu)模型。一般在訓(xùn)練集上會反復(fù)訓(xùn)練多輪,即訓(xùn)練樣本被多次利用。214.1.2機(jī)器學(xué)習(xí)的基本術(shù)語③模型評估將驗(yàn)證集樣本輸入到學(xué)習(xí)獲得的模型中,用以評估模型性能,還可以進(jìn)一步調(diào)節(jié)模型的超參數(shù),找到最合適的模型配置。常用的模型評估方法為K折交叉驗(yàn)證。通常所說的“模型調(diào)參”一般指的是調(diào)節(jié)超參數(shù),而不是模型參數(shù)。④新樣本預(yù)測將測試集中的樣本輸入到訓(xùn)練好的模型中,對比預(yù)測的結(jié)果與真實(shí)值,計(jì)算出各種評價(jià)指標(biāo),以此來評價(jià)模型的泛化能力。例如,圖像分類任務(wù)有精確率(Precision)和召回率(Recall)等評價(jià)指標(biāo)。4.1.2機(jī)器學(xué)習(xí)術(shù)語22從機(jī)器學(xué)習(xí)的基本流程可知,學(xué)習(xí)算法有三個(gè)基本要素:模型(哪一類模型:線性模型、概率模型、非線性模型、網(wǎng)絡(luò)模型)損失函數(shù)(學(xué)習(xí)準(zhǔn)則、學(xué)習(xí)策略):選出什么損失函數(shù)來衡量錯(cuò)誤的代價(jià),才能找到最優(yōu)的模型參數(shù)。優(yōu)化算法,也稱為優(yōu)化器,最簡單也最常用的優(yōu)化算法是梯度下降法。這三個(gè)要素都需要學(xué)者根據(jù)經(jīng)驗(yàn)人為確定。234.1.3機(jī)器學(xué)習(xí)的三個(gè)視角從三個(gè)視角來介紹機(jī)器學(xué)習(xí)算法:學(xué)習(xí)任務(wù)、學(xué)習(xí)范式和學(xué)習(xí)模型。學(xué)習(xí)任務(wù)(LearningTasks)是指可以用機(jī)器學(xué)習(xí)方法解決的通用問題。機(jī)器學(xué)習(xí)中的典型任務(wù)包括:(1)分類(Classification)是將輸入數(shù)據(jù)劃分成兩個(gè)或多個(gè)類別。輸出值是離散的。例如,垃圾郵件過濾、人臉識別、銀行用戶信用評級、手寫體字符和數(shù)字識別等。解決此類任務(wù)的典型算法有:支持向量機(jī)、K-近鄰、樸素貝葉斯、決策樹、邏輯回歸算法等。例4.1圖像分類的機(jī)器學(xué)習(xí)2424例4.2歸納規(guī)律(預(yù)測判斷)25例4.3信用評分二分類:低風(fēng)險(xiǎn)和高風(fēng)險(xiǎn)客戶。根據(jù)客戶信息,將其歸為二類中的一類。用過去的數(shù)據(jù)訓(xùn)練之后,可以學(xué)習(xí)得到如下分類規(guī)則:26271.學(xué)習(xí)任務(wù)(2)回歸(Regression)是確定某些變量之間定量關(guān)系的一種統(tǒng)計(jì)分析方法,即建立數(shù)學(xué)模型并估計(jì)未知參數(shù)。回歸就是找到一個(gè)函數(shù),給定一個(gè)輸入特征值X,便能輸出一個(gè)與之相對應(yīng)的連續(xù)數(shù)值(不是離散的)。常用于預(yù)測股票行情、二手車價(jià)格、身高、體重、醫(yī)學(xué)診斷等。與分類問題不同,回歸預(yù)測的是數(shù)值而不是類別。解決此類任務(wù)的典型算法有:多元線性回歸、貝葉斯線性回歸(BayesianLinearRegression)、多項(xiàng)式回歸等算法。例4.4身高預(yù)測(預(yù)測數(shù)值回歸)2828291.學(xué)習(xí)任務(wù)(3)聚類(Clustering)是指將具體的或抽象的對象的集合分成由相似對象組成的多個(gè)不知名稱的組(Group)或簇(Cluster)的過程。此處,不用“類別”一詞代替“組”或“簇”,以示與“分類”任務(wù)的區(qū)別。聚類也稱為聚類分析,在日常生活和工作中已有廣泛的應(yīng)用。例如,可以采用聚類方法,根據(jù)用戶行為、銷售渠道、商品等原始數(shù)據(jù),將相似的市場和用戶聚集在一起,以便找準(zhǔn)潛在的目標(biāo)客戶和市場。解決此類任務(wù)的典型算法有:K均值聚類(也有人稱其為C均值聚類)、層次聚類、模糊C均值聚類、基于密度的聚類等。301.學(xué)習(xí)任務(wù)(4)排名(Ranking)是指依據(jù)某個(gè)準(zhǔn)則對項(xiàng)目進(jìn)行排序。主要應(yīng)用場景是各大搜索引擎對基于關(guān)鍵詞的查詢結(jié)果的條目進(jìn)行排序。解決此類任務(wù)的典型算法有網(wǎng)頁排名(PageRank)算法,它是一種利用網(wǎng)頁(節(jié)點(diǎn))之間的超鏈接數(shù)據(jù)進(jìn)行計(jì)算的技術(shù),用于對搜索到的結(jié)果列表進(jìn)行評估和排名,以體現(xiàn)網(wǎng)頁與特定查詢的相關(guān)性和重要性。(5)降維(DimensionalityReduction)是指通過將輸入數(shù)據(jù)從高維特征空間映射到低維特征空間,去除無用、冗余的特征,降低學(xué)習(xí)的時(shí)間復(fù)雜度和空間復(fù)雜度。具體應(yīng)用有特征工程中的特征選擇(選擇最有效的特征子集)、數(shù)據(jù)可視化(低維數(shù)據(jù)易于可視化)。解決降維的典型算法有主成分分析法(PCA)、線性判別分析(LDA,又稱為Fisher線性判別,F(xiàn)DA)、多維縮放(MDS)等。2.學(xué)習(xí)范式(LearningParadigms)是指機(jī)器學(xué)習(xí)的場景或模式。根據(jù)機(jī)器學(xué)習(xí)模型訓(xùn)練時(shí)所使用的數(shù)據(jù)集的完整性和質(zhì)量,通常將機(jī)器學(xué)習(xí)分為:(1)監(jiān)督學(xué)習(xí)(SupervisedLearning)。監(jiān)督學(xué)習(xí)是指采用一組有標(biāo)注的數(shù)據(jù)樣本對模型進(jìn)行訓(xùn)練,再用訓(xùn)練好的模型對未知樣本做出預(yù)測。也可以理解為:利用有標(biāo)注的數(shù)據(jù)學(xué)習(xí)到一個(gè)模型,用以建立從輸入到輸出的一種映射關(guān)系,再用該模型對測試數(shù)據(jù)集中的樣本進(jìn)行預(yù)測。監(jiān)督學(xué)習(xí)的訓(xùn)練數(shù)據(jù)由兩部分組成,即描述事件/對象的特征向量(x)和真實(shí)標(biāo)簽(y),有訓(xùn)練模型的過程。需要采用監(jiān)督學(xué)習(xí)方法完成的學(xué)習(xí)任務(wù)主要包括:分類、回歸和排名。典型的監(jiān)督學(xué)習(xí)方法有:SVM、KNN、線性回歸、決策樹、隱馬爾可夫模型等。312.學(xué)習(xí)范式322.學(xué)習(xí)范式(2)無監(jiān)督學(xué)習(xí)(UnsupervisedLearning)。由于缺乏足夠的先驗(yàn)知識,因此難以人工標(biāo)注數(shù)據(jù)類別,或者人工標(biāo)注的成本太高,導(dǎo)致數(shù)據(jù)缺少標(biāo)注信息,即缺少真實(shí)標(biāo)簽。在此情況下,利用未標(biāo)記(類別未知)的數(shù)據(jù)樣本解決模式識別中的各種問題,稱為無監(jiān)督學(xué)習(xí)。相比于監(jiān)督學(xué)習(xí)的訓(xùn)練數(shù)據(jù),無監(jiān)督學(xué)習(xí)的數(shù)據(jù)只是其中的一個(gè)部分,即只有描述事件/對象的特征向量(x),但是沒有標(biāo)簽(y),且沒有訓(xùn)練模型的過程。無監(jiān)督學(xué)習(xí)的效果一般比較差。需要采用無監(jiān)督學(xué)習(xí)方法完成的學(xué)習(xí)任務(wù)主要包括:聚類和降維。典型的無監(jiān)督學(xué)習(xí)方法有:K-Means聚類、主成分分析法(PCA)等。332.學(xué)習(xí)范式(3)弱監(jiān)督學(xué)習(xí)(WeaklySupervisedLearning)。弱監(jiān)督學(xué)習(xí)介于監(jiān)督學(xué)習(xí)和無監(jiān)督學(xué)習(xí)之間,它利用帶有弱標(biāo)簽的訓(xùn)練數(shù)據(jù)集進(jìn)行監(jiān)督學(xué)習(xí),同時(shí)利用大量無標(biāo)簽數(shù)據(jù)進(jìn)行無監(jiān)督學(xué)習(xí)。弱標(biāo)簽是指標(biāo)注質(zhì)量不高的標(biāo)簽,即標(biāo)簽信息可能不完全、不確切、不準(zhǔn)確。根據(jù)訓(xùn)練時(shí)所使用數(shù)據(jù)的質(zhì)量,弱監(jiān)督學(xué)習(xí)分為不完全監(jiān)督學(xué)習(xí)不確切監(jiān)督學(xué)習(xí)不準(zhǔn)確監(jiān)督學(xué)習(xí)雖然將弱監(jiān)督學(xué)習(xí)分為了上述三種類別,但在實(shí)際操作中,它們經(jīng)常同時(shí)發(fā)生。不完全監(jiān)督學(xué)習(xí)又包括:主動學(xué)習(xí)、半監(jiān)督學(xué)習(xí)、遷移學(xué)習(xí)、強(qiáng)化學(xué)習(xí)。以上各個(gè)學(xué)習(xí)范式的分類并不是嚴(yán)格互斥的。(3)概率模型。采用概率模型來表示隨機(jī)變量之間的條件相關(guān)性,其典型算法包括:貝葉斯網(wǎng)絡(luò)、概率規(guī)劃和線性回歸等方法。(4)網(wǎng)絡(luò)模型。采用網(wǎng)絡(luò)模型構(gòu)建機(jī)器學(xué)習(xí)算法,典型的淺層網(wǎng)絡(luò)有感知機(jī),深層網(wǎng)絡(luò)有各種深度CNN。343.學(xué)習(xí)模型3.學(xué)習(xí)模型(LearningModels)用于表示可以完成一個(gè)學(xué)習(xí)任務(wù)的方法。(1)幾何模型??刹捎镁€、面或距離等幾何圖形模型來構(gòu)建學(xué)習(xí)算法。用于學(xué)習(xí)線性模型的算法有線性回歸,用于學(xué)習(xí)二維平面模型的算法有支持向量機(jī),用于學(xué)習(xí)距離模型的算法有KNN。(2)邏輯模型。用邏輯模型來構(gòu)建學(xué)習(xí)算法,其典型算法包括歸納邏輯編程和關(guān)聯(lián)規(guī)則算法。354.2監(jiān)督學(xué)習(xí)監(jiān)督學(xué)習(xí)是在機(jī)器學(xué)習(xí)算法中占據(jù)絕大部分的一種十分重要的方法。監(jiān)督學(xué)習(xí)是在已知標(biāo)簽(即監(jiān)督信息)的訓(xùn)練集上學(xué)習(xí)出一個(gè)模型,當(dāng)向此模型輸入新的樣本(也稱為未知數(shù)據(jù),即測試集中的樣本)時(shí),可以預(yù)測出其所對應(yīng)的輸出值。期望輸出:

cat期望輸出:dog364.2.1監(jiān)督學(xué)習(xí)的步驟(1)

4.2.1監(jiān)督學(xué)習(xí)的步驟(2)

評價(jià)監(jiān)督學(xué)習(xí)的性能若所學(xué)習(xí)到的模型能很好地?cái)M合訓(xùn)練集,這種擬合能力稱為學(xué)習(xí)能力或訓(xùn)練能力或逼近能力。希望:訓(xùn)練好的模型對測試集也能輸出正確的結(jié)果。這種適應(yīng)新樣本的能力稱為預(yù)測能力或泛化能力或推廣能力。若所構(gòu)造的模型不能很好地?cái)M合(逼近)訓(xùn)練數(shù)據(jù),稱之為“欠擬合”。若模型能比較好地?cái)M合(逼近)訓(xùn)練數(shù)據(jù),稱之為“良擬合”。一般情況下,隨著訓(xùn)練能力的提高,預(yù)測能力也會提高。但這種趨勢并不是固定的,有時(shí)當(dāng)達(dá)到某個(gè)極限時(shí),隨著訓(xùn)練能力的提高,預(yù)測能力反而會下降,這種現(xiàn)象稱為“過擬合”,即訓(xùn)練誤差變小,測試誤差也會隨之減小,然而減小到某個(gè)值后,測試誤差卻反而開始增大。通常,在訓(xùn)練數(shù)據(jù)不足或模型過于復(fù)雜時(shí),會導(dǎo)致模型在訓(xùn)練集上過擬合。分類問題中的擬合(a)Goodfit良擬合(c)Over-fit過擬合(b)under-fit欠擬合解決策略:

Early-stopping(早停法)Dropout(0.3)(隨機(jī)失活/拋棄30%的神經(jīng)元)Dataenhancement(數(shù)據(jù)增強(qiáng))Weightregularization(權(quán)重正則化,可以降低模型的復(fù)雜度)39404.2.2監(jiān)督學(xué)習(xí)的主要任務(wù)監(jiān)督學(xué)習(xí)可以完成的主要任務(wù)包括分類和回歸。1.分類:輸出離散值??煞譃椋憾诸惾蝿?wù):如電子郵件中的垃圾郵件過濾多分類任務(wù):手寫體數(shù)字識別則線性分類器:線性函數(shù)y(x)=w?x+b非線性分類器:非線性函數(shù)414.2.2監(jiān)督學(xué)習(xí)的主要任務(wù)2.回歸:回歸主要用于預(yù)測數(shù)值型數(shù)據(jù),它輸出的是連續(xù)值,而非離散值?;貧w被廣泛應(yīng)用于各個(gè)領(lǐng)域的預(yù)測和預(yù)報(bào),例如,傳染病學(xué)中的發(fā)病趨勢、在經(jīng)濟(jì)領(lǐng)域中預(yù)測消費(fèi)支出、固定資產(chǎn)投資支出、持有流動資產(chǎn)需求等。回歸又分為:(1)線性回歸(2)邏輯回歸42(1)線性回歸線性回歸是指采用線性函數(shù)來建模,根據(jù)已知數(shù)據(jù)來估計(jì)未知的模型參數(shù)。線性回歸模型:y=wTx+e,其中wT是模型參數(shù)向量的轉(zhuǎn)置,e表示誤差。研究一個(gè)因變量與一個(gè)或多個(gè)自變量間多項(xiàng)式的回歸分析方法,稱為多項(xiàng)式回歸。如果自變量只有一個(gè)時(shí),稱為一元多項(xiàng)式回歸;如果自變量有兩個(gè)或兩個(gè)以上時(shí),稱為多元多項(xiàng)式回歸。若一個(gè)因變量與一個(gè)或多個(gè)自變量間是非線性關(guān)系,例如,y(x)=w2x2+w1x+e,則稱為非線性回歸。在一元多項(xiàng)式回歸分析中,若一個(gè)自變量和一個(gè)因變量的關(guān)系可用一條直線近似表示,這種回歸稱為一元線性回歸,即找一條直線來擬合數(shù)據(jù)。如果在多元多項(xiàng)式回歸分析中,一個(gè)因變量和多個(gè)自變量之間是線性關(guān)系,則稱為多元線性回歸。線性回歸線性回歸中,采用具有如下特征的函數(shù)對觀測數(shù)據(jù)進(jìn)行建模:該函數(shù)是模型參數(shù)的線性組合;該函數(shù)取決于一個(gè)(一元線性回歸)或多個(gè)獨(dú)立自變量(多元線性回歸)。模型表達(dá):y

(x,w)=w1x1+...+wnxn+b

44(2)邏輯回歸邏輯回歸又稱為邏輯回歸分析,是通過歷史數(shù)據(jù)的表現(xiàn)對未來結(jié)果發(fā)生的概率進(jìn)行預(yù)測。盡管邏輯回歸輸出的是實(shí)數(shù)值,但本質(zhì)上它是一種分類方法,而不是回歸方法。邏輯回歸的自變量可以有一個(gè),也可以有多個(gè)。有一個(gè)自變量的,稱為一元回歸分析;有兩個(gè)或兩個(gè)以上自變量的,稱為多元回歸分析。邏輯回歸的因變量可以是二分類,也可以是多分類。二分類更為常用,也更容易解釋。若采用sigmoid函數(shù)計(jì)算概率,令閾值為0.5,則完成二分類任務(wù)。若采用softmax函數(shù)計(jì)算概率,則邏輯回歸可完成多分類任務(wù)。輸出的實(shí)數(shù)表示未知樣本x屬于某一類別的概率.45線性回歸與邏輯回歸的異同點(diǎn)線性回歸與邏輯回歸的區(qū)別在于:線性回歸用于預(yù)測連續(xù)值,其輸出的值域是實(shí)數(shù)集,其模型是線性的;邏輯回歸主要用于解決分類問題,其輸出的值域?yàn)閇0,1],其模型是非線性的。線性回歸與邏輯回歸的共同點(diǎn)在于:

兩者的輸入數(shù)據(jù)既可以是連續(xù)的值,也可以是離散的值。464.2.3監(jiān)督學(xué)習(xí)的典型算法4.2.3.1K-近鄰算法K-近鄰算法:理論上比較成熟、設(shè)計(jì)思想直觀、最簡單的機(jī)器學(xué)習(xí)算法之一。KNN算法既可用于分類問題,也可用于回歸問題。KNN算法完成分類任務(wù)時(shí)的流程:對數(shù)據(jù)集中每個(gè)未知類別的樣本依次執(zhí)行以下操作。①準(zhǔn)備好已知類別標(biāo)簽的數(shù)據(jù)集D,對數(shù)據(jù)進(jìn)行預(yù)處理,假設(shè)D中共有N個(gè)數(shù)據(jù)樣本。②計(jì)算測試樣本x(即待分類樣本)到D中每個(gè)樣本的距離,存入數(shù)組Dist[1..N]。③對Dist[1..N]中元素進(jìn)行增序排序,找出其中距離最小的K個(gè)樣本。④統(tǒng)計(jì)這K個(gè)樣本所屬類別出現(xiàn)的頻率。⑤找出出現(xiàn)頻率最高的類別,記為c,作為測試樣本x的預(yù)測類別。K-NearestNeighbor(KNN)算法47問題:如何確定k

值?這是個(gè)經(jīng)驗(yàn)值48K-近鄰算法KNN算法完成回歸任務(wù)時(shí)的流程。對數(shù)據(jù)集中每個(gè)未知屬性值的樣本依次執(zhí)行以下操作。①準(zhǔn)備好已知屬性值的數(shù)據(jù)集D,對數(shù)據(jù)進(jìn)行預(yù)處理,假設(shè)D中共有N個(gè)數(shù)據(jù)樣本。②計(jì)算測試樣本x(即待預(yù)測樣本)到D中每個(gè)樣本的距離,存入Dist[1..N]。③對Dist[1..N]中元素進(jìn)行增序排序,找出其中距離最小的K個(gè)樣本。④計(jì)算這K個(gè)樣本的屬性的平均值Y。⑤將Y賦予測試樣本x,作為其屬性值。49KNN算法的優(yōu)缺點(diǎn)KNN算法的優(yōu)點(diǎn)有:思路簡單,易于理解,易于實(shí)現(xiàn),無需訓(xùn)練過程,不必估計(jì)參數(shù),可直接用訓(xùn)練數(shù)據(jù)來實(shí)現(xiàn)分類。只需人為確定兩個(gè)參數(shù),即K的值和距離函數(shù)。KNN算法支持多分類。KNN算法有以下4點(diǎn)不足:①對超參數(shù)K的選擇十分敏感,針對同一個(gè)數(shù)據(jù)集和同一個(gè)待測樣本選擇不同K值,會導(dǎo)致得到完全不同的分類結(jié)果。②當(dāng)樣本不平衡時(shí),例如一個(gè)類中樣本數(shù)很多,而其他類中樣本數(shù)很少,有可能導(dǎo)致總是將新樣本歸入大容量類別中,產(chǎn)生錯(cuò)誤分類。③當(dāng)不同類別的樣本數(shù)接近時(shí)或有噪聲時(shí),會增加決策失誤的風(fēng)險(xiǎn)。④當(dāng)樣本的特征維度很高或訓(xùn)練數(shù)據(jù)量很大時(shí),計(jì)算量較大,KNN算法效率會降低,因?yàn)閷γ恳粋€(gè)待分類樣本都要計(jì)算它與全體已知樣本之間的距離,才能找到它的K個(gè)最近鄰點(diǎn)。目前常用的解決方法是事先對已知樣本進(jìn)行剪枝,去除對分類作用不大的樣本;另外,可以對訓(xùn)練數(shù)據(jù)進(jìn)行快速K近鄰搜索。504.2.3.2支持向量機(jī)SVM是機(jī)器學(xué)習(xí)中的一個(gè)經(jīng)典算法,具有嚴(yán)格的理論基礎(chǔ),尤其在樣本量小的情況下表現(xiàn)出色。SVM既可用于分類問題,也可用于回歸問題。SVM的設(shè)計(jì)思路給定訓(xùn)練數(shù)據(jù)集,支持向量機(jī)將每個(gè)訓(xùn)練樣本的特征向量表示為空間中的點(diǎn),支持向量機(jī)想要求解一個(gè)分類超平面,使得不同類別的樣本被盡可能大間隔地分開。然后將新的樣本映射到同一空間,根據(jù)它落在分類超平面的哪一側(cè)來預(yù)測其所屬的類別。SVM是一種二分類模型,其基本模型定義為特征空間上間隔最大的線性分類器,即SVM的學(xué)習(xí)策略就是使間隔最大化,最終可轉(zhuǎn)化為一個(gè)凸二次規(guī)劃問題的求解。514.2.3.2支持向量機(jī)一般而言,一個(gè)樣本點(diǎn)距離超平面的遠(yuǎn)近可以表示分類預(yù)測的置信度或準(zhǔn)確程度。當(dāng)一個(gè)樣本點(diǎn)距離超平面越遠(yuǎn)時(shí),分類的置信度越大。對于一個(gè)包含n個(gè)樣本點(diǎn)的數(shù)據(jù)集,自然認(rèn)為:其分類間隔是n個(gè)點(diǎn)中離超平面最近的距離。為了提高分類的準(zhǔn)確程度,希望所選擇的超平面能夠最大化該間隔。此為SVM算法最樸素的思路,即最大間隔(Max-Margin)準(zhǔn)則。距離超平面最近的若干個(gè)訓(xùn)練樣本被稱為“支持向量”,兩個(gè)異類支持向量到超平面的距離之和被稱為“間隔”。524.2.3.2支持向量機(jī)支持向量機(jī)的目標(biāo)就是找到具有“最大間隔”的超平面。在2D空間中,分類線可用線性方程wx+b=0來描述,其中,w和b都是待優(yōu)化的參數(shù)。分類線wx+b=0應(yīng)該將所有訓(xùn)練樣本都正確分類,則有如下表達(dá)式:合并,寫為:兩條與分類線平行的虛線的方程分別為:wx+b=1和wx+b=-1這兩條平行虛線之間的距離稱為“間隔”,其計(jì)算公式為:M=2/‖w‖希望間隔M取最大值,即有:找“最大間隔”,轉(zhuǎn)化為求解二次優(yōu)化問題,求參數(shù)w和b,使得M最大。53SVM的優(yōu)缺點(diǎn)SVM的優(yōu)點(diǎn)如下。①解決高維特征的分類問題和回歸問題很有效,在特征維度大于樣本數(shù)時(shí),依然有很好的效果。②僅僅利用為數(shù)不多的支持向量便可確定超平面,無需依賴全部數(shù)據(jù),因此適用于小樣本集的應(yīng)用。③有大量的核函數(shù)可以使用,從而可靈活地解決各種非線性的分類和回歸問題。④在樣本量不是海量數(shù)據(jù)時(shí),分類準(zhǔn)確率高,泛化能力強(qiáng)。SVM的缺點(diǎn)如下。①如果特征維度遠(yuǎn)遠(yuǎn)大于樣本數(shù),則SVM表現(xiàn)一般。②在樣本量巨大、核函數(shù)映射維度非常高時(shí),SVM的計(jì)算量過大。③針對非線性問題的“核函數(shù)選擇”問題,沒有通用標(biāo)準(zhǔn),難以選擇一個(gè)合適的核函數(shù)。④SVM對缺失數(shù)據(jù)敏感。544.3無監(jiān)督學(xué)習(xí)無監(jiān)督學(xué)習(xí),顧名思義,即沒有監(jiān)督的學(xué)習(xí)。與監(jiān)督學(xué)習(xí)的不同之處在于:無監(jiān)督學(xué)習(xí)方法在學(xué)習(xí)時(shí),沒有事先指定的標(biāo)簽,也不需要人類提供標(biāo)注數(shù)據(jù),更不接收監(jiān)督式信息(即告訴它何種操作是正確的)。無監(jiān)督學(xué)習(xí)是通過模型不斷地自我認(rèn)知、自我鞏固、自我歸納來實(shí)現(xiàn)其學(xué)習(xí)過程。Itisawayof“teachingbyitself”,withouta“teacher”.這是一種“自學(xué)”的方式,沒有“老師”。無師自通554.3.1無監(jiān)督學(xué)習(xí)的基本原理無監(jiān)督學(xué)習(xí)算法僅接收環(huán)境提供的未標(biāo)注數(shù)據(jù),從中學(xué)習(xí)數(shù)據(jù)的統(tǒng)計(jì)規(guī)律或者內(nèi)在結(jié)構(gòu),調(diào)節(jié)自身的參數(shù)或結(jié)構(gòu),以發(fā)現(xiàn)外部輸入的某種固有特性。無監(jiān)督學(xué)習(xí)沒有訓(xùn)練過程,其學(xué)習(xí)的基本原理如下。已知N個(gè)數(shù)據(jù)樣本X={X1,X2,…,XN},第i個(gè)樣本Xi表示為

(xi1,xi2,…,xin)。將無標(biāo)注的樣本輸入到一個(gè)指定的學(xué)習(xí)模型中,學(xué)習(xí)得到用于聚類、降維或概率估計(jì)的決策函數(shù)

fθ(x)

或條件概率分布

Pθ(y|x)

或者

Pθ(x|y)

,繼而可以使用決策函數(shù)或條件概率分布式對未知數(shù)據(jù)進(jìn)行預(yù)測和概率估計(jì)。無監(jiān)督學(xué)習(xí)的主要任務(wù)包括:聚類、降維、密度估計(jì)。無監(jiān)督的學(xué)習(xí)模型則為一組描述聚類、降維或概率估計(jì)的計(jì)算方法。無監(jiān)督學(xué)習(xí)的過程就是從模型集合中選擇出最優(yōu)預(yù)測模型的過程,預(yù)測過程是獲取聚類、降維或概率估計(jì)結(jié)果的過程。564.3.2無監(jiān)督學(xué)習(xí)的主要任務(wù)無監(jiān)督學(xué)習(xí)可以完成的主要任務(wù):聚類和降維。聚類:聚類是研究樣本分組問題的一種統(tǒng)計(jì)分析方法。聚類起源于分類學(xué),但卻不等于分類。聚類與分類的不同在于:聚類所劃分的組是未知的,是從樣本中通過學(xué)習(xí)自動發(fā)現(xiàn)的,各個(gè)組的標(biāo)簽是未知的,但組的個(gè)數(shù)需要事先人為給定。給定一個(gè)由無標(biāo)注樣本組成的數(shù)據(jù)集,聚類是根據(jù)數(shù)據(jù)特征的差異將樣本劃分為若干個(gè)組(簇),使得同組內(nèi)的樣本非常相似,不同組的樣本不相似。聚類的目的是將相似的對象聚在一起,卻不知道組中的對象是什么,更不知道組的名稱。因此,只需要確定樣本相似度的計(jì)算方法,便可執(zhí)行一個(gè)聚類算法了。574.3.2無監(jiān)督學(xué)習(xí)的主要任務(wù)聚類是將樣本集分為若干互不相交的子集,即樣本組。聚類算法劃分組的原則為:使劃分在同一組的樣本盡可能地彼此相似,即類內(nèi)的相似度高;同時(shí)使劃分在不同組的樣本盡可能地不同,即組間的相似度低。聚類的典型應(yīng)用包括:商業(yè)營銷、圖像分割、經(jīng)濟(jì)區(qū)域分類。傳統(tǒng)的聚類分析計(jì)算方法主要有如下幾類:劃分方法、層次聚類方法或基于連接的聚類方法、基于密度的聚類方法、基于網(wǎng)格的方法、基于模型的方法。584.3.2無監(jiān)督學(xué)習(xí)的主要任務(wù)2.降維:通過數(shù)學(xué)變換,將原始高維特征空間轉(zhuǎn)變?yōu)橐粋€(gè)低維子空間的過程,稱為降維。降維也稱為維數(shù)約簡,即降低特征的維度,得到一組冗余度很低的特征。若原特征空間是D維的,現(xiàn)在希望降至D-1維甚至更低維的。特征維數(shù)由1000D降至100D用,用最具代表性的100D特征代替原來1000D特征。在從高維空間轉(zhuǎn)換到低維空間的過程中,低維空間不是事先給定的,而是從樣本數(shù)據(jù)中自動發(fā)現(xiàn)的,但低維空間的維度通常是事先給定的。降維后,新產(chǎn)生的特征的物理含義也需由學(xué)者自己去發(fā)現(xiàn)和總結(jié)。需要降維的原因在于:在原始高維數(shù)據(jù)空間中,樣本特征可能包含冗余信息及噪聲信息,在實(shí)際應(yīng)用中會造成存儲空間的浪費(fèi)、計(jì)算量過大、維度災(zāi)難、無法獲取本質(zhì)特征等問題。59降維主要應(yīng)用于3方面(1)數(shù)據(jù)壓縮,壓縮后的圖像、視頻、音頻數(shù)據(jù)不僅減少了占用計(jì)算機(jī)內(nèi)存或磁盤的空間,還加速了各種算法的運(yùn)行;(2)數(shù)據(jù)可視化,通過降維可以得到更直觀的數(shù)據(jù)視圖。例如,將四維甚至更高維的數(shù)據(jù)降至二維或三維空間上,使得對數(shù)據(jù)的結(jié)構(gòu)有更直觀的理解與認(rèn)識;(3)特征工程,高維數(shù)據(jù)中的冗余特征和噪聲會對模式識別造成誤差,降低模型的準(zhǔn)確率,增加模型的復(fù)雜度,導(dǎo)致模型出現(xiàn)過擬合現(xiàn)象。通過特征降維,可以去除部分不相關(guān)或冗余的特征,確保特征之間是相互獨(dú)立的,以達(dá)到提高模型精確度、降低算法時(shí)間復(fù)雜度、提升模型泛化能力的目的。60特征工程中的降維通常有兩種策略,分別是特征選擇和特征提取。(1)特征選擇。特征選擇也稱為特征子集選擇,或?qū)傩赃x擇、變量選擇或變量子集選擇,它是指從原始特征集(n維特征)中選擇出k維(k<n)最有效的、最具代表性的特征子集,舍棄冗余或無關(guān)的n-k個(gè)特征,使得系統(tǒng)的特定指標(biāo)最優(yōu)化。特征選擇的目的是去除原始特征集中與目標(biāo)無關(guān)的特征,保留與目標(biāo)相關(guān)的特征。特征選擇的輸出可能是原始特征集的一個(gè)子集,也可能是原始特征的加權(quán)子集,保留了原始特征的物理含義。常用的特征選擇方法:高相關(guān)性濾波、隨機(jī)森林、過濾方法等。61特征工程中的降維(2)特征提取圖像處理等領(lǐng)域中的特征提取與降維中的特征提取是完全不同的概念。降維中的特征提取是指通過數(shù)學(xué)變換方法,將高維特征向量空間映射到低維特征向量空間。實(shí)際上,特征提取就是一個(gè)對已有特征進(jìn)行某種變換,以獲取約簡特征的過程。其思路是:將原始高維特征空間中的數(shù)據(jù)點(diǎn)向一個(gè)低維空間做投影(例如,從3D向2D做投影),以減少維數(shù)。在此映射過程中,特征發(fā)生了根本性變化,原始特征消失了,取而代之的是盡可能多地保留了相關(guān)特性的新特征,這些新特征不在原始特征集中。特征提取的主要經(jīng)典方法:主成分分析法和線性判別分析法等。62特征選擇與特征提取的異同點(diǎn)特征選擇與特征提取的共同點(diǎn):(1) 兩者都是在盡可能多地保留原始特征集中有用信息的情況下降低特征向量的維度。(2)兩者都能提高模型的學(xué)習(xí)性能,降低計(jì)算開銷,并提升模型的泛化能力。特征選擇與特征提取的區(qū)別:(1)特征選擇是從原始特征集中選擇出子集,兩個(gè)特征集之間是包含關(guān)系;而特征提取則是將特征向量從原始空間映射到新的低維空間,創(chuàng)建了新特征,兩個(gè)特征集之間是一種映射關(guān)系。(2)特征選擇的子集未改變原始的特征空間,且保留了原始特征的物理意義和數(shù)值;而特征提取獲得的新特征沒有了物理含義,其值也發(fā)生了改變。故特征選擇獲得的特征具有更好的可讀性和可解釋性。(3)兩種降維策略所采用的方法不同。特征選擇常用的方法包括高相關(guān)性濾波、隨機(jī)森林、過濾方法等;特征提取常用的方法包括主成分分析法和線性判別分析法等。634.3.3無監(jiān)督學(xué)習(xí)的典型算法4.3.3.1K-Means聚類K-Means(即K均值)聚類是無監(jiān)督學(xué)習(xí)中使用最廣泛的聚類算法,無論是思想還是實(shí)現(xiàn)都比較簡單。K-Means聚類算法的基本思想是:針對給定的樣本集合D,通過迭代尋找K個(gè)簇的一種劃分方案,其目標(biāo)是使事先定義的損失函數(shù)最小。損失函數(shù)往往定義為各簇內(nèi)各個(gè)樣本與所屬簇中心點(diǎn)的距離平方之和,

其公式:

64K-Means算法的實(shí)現(xiàn)過程(1)從數(shù)據(jù)集D中隨機(jī)選擇K個(gè)樣本作為初始簇的中心。(2)計(jì)算每個(gè)樣本與K個(gè)簇中心的距離,并將該樣本劃分到距離其最近的簇中。(3)重新計(jì)算K個(gè)新簇的中心(即該簇內(nèi)所有數(shù)據(jù)點(diǎn)的平均值)。(4)重復(fù)執(zhí)行第(2)、(3)步,直到E值不再變小,即所有簇中的樣本不再發(fā)生變化。從上述過程可見,K-Means算法時(shí)間復(fù)雜度近于線性,適合于大規(guī)模數(shù)據(jù)集上的聚類。65K-Means算法的主要問題①K-Means算法對參數(shù)的選擇比較敏感,不同的初始位置或者簇個(gè)數(shù)K的選擇往往會導(dǎo)致完全不同的結(jié)果,當(dāng)選取的K個(gè)初始簇中心點(diǎn)不合適時(shí),不僅會増加聚類的迭代次數(shù)與時(shí)間復(fù)雜度,甚至有可能造成錯(cuò)誤的聚類結(jié)果;②由于損失函數(shù)是非凸函數(shù),則不能保證計(jì)算出來的E的最小值是全局最小值。在實(shí)際應(yīng)用中,K-Means達(dá)到的局部最優(yōu)已經(jīng)可以滿足需求。如果局部最優(yōu)無法滿足實(shí)際需要,可以重新選擇不同的初始值,再次執(zhí)行K-Means算法,直到達(dá)到滿意的效果為止。664.3.3.2主成分分析主成分分析(PCA)是一種常用于特征提取的線性降維方法。PCA的主要原理通過某種線性投影,將高維的數(shù)據(jù)映射到低維的空間中,并期望在所投影的維度上的數(shù)據(jù)方差最大,方差的計(jì)算公式D:

方差大表示樣本點(diǎn)在此超平面上的投影盡可能地被分開了,以此達(dá)到使用較少的數(shù)據(jù)維度來保留較多的原始樣本點(diǎn)的特性的效果。通過PCA還可以將一組可能存在相關(guān)性的特征分量(屬性)轉(zhuǎn)換為一組線性不相關(guān)的特征分量,轉(zhuǎn)換后的這組特征分量叫主成分。67PCA算法的優(yōu)點(diǎn)(1)僅用方差衡量信息量,不受數(shù)據(jù)集以外的因素影響。(2)各主成分之間正交,可消除原始特征分量之間相互影響的因素。(3)計(jì)算方法簡單,主要運(yùn)算是矩陣的特征值分解,易于實(shí)現(xiàn)。4.4弱監(jiān)督學(xué)習(xí)數(shù)據(jù)集中小部分有標(biāo)注,大部分沒標(biāo)注,即使有標(biāo)注,也可能質(zhì)量不高、有噪聲。弱監(jiān)督學(xué)習(xí)是指已知數(shù)據(jù)及其弱標(biāo)簽(即標(biāo)簽質(zhì)量不高,包含不完整、不確切、不準(zhǔn)確的標(biāo)簽),訓(xùn)練一個(gè)智能算法,將輸入數(shù)據(jù)映射到一組更強(qiáng)的標(biāo)簽的過程。標(biāo)簽的強(qiáng)弱是指標(biāo)簽蘊(yùn)合的信息量的多少,例如,相對于圖像分割的標(biāo)簽而言,圖像分類的標(biāo)簽就是弱標(biāo)簽。如果我們知道一幅圖,告訴你圖上有一只“狗”,然后需要你將“狗”在圖像中的位置標(biāo)出來,并且將“狗”從背景中分離出來,那么這就是已知弱標(biāo)簽(“狗”)、要去學(xué)習(xí)強(qiáng)標(biāo)簽(狗的位置、狗的輪廓)的弱監(jiān)督學(xué)習(xí)問題(不確切監(jiān)督)。與監(jiān)督學(xué)習(xí)相比,弱監(jiān)督學(xué)習(xí)中的數(shù)據(jù)標(biāo)簽是不完全的,即訓(xùn)練集中只有一部分?jǐn)?shù)據(jù)有標(biāo)簽,其余(甚至)大部分?jǐn)?shù)據(jù)沒有標(biāo)簽。與無監(jiān)督學(xué)習(xí)相比,弱監(jiān)督學(xué)習(xí)還是有一定的監(jiān)督信息,學(xué)習(xí)性能更好些。例如,在醫(yī)學(xué)影像數(shù)據(jù)分析中,醫(yī)生只能手工標(biāo)注少量圖像,很難獲得完整的、全部的病灶標(biāo)注。弱標(biāo)簽的示例對圖像分割而言,圖像分類的標(biāo)簽就是弱標(biāo)簽。只知道類別“貓”,然后需要將“貓”在圖像中的位置標(biāo)出來,并且將“貓”從背景中分離出來,這就是已知弱標(biāo)簽(“貓”)、要去學(xué)習(xí)強(qiáng)標(biāo)簽(貓的位置、貓的輪廓)的弱監(jiān)督學(xué)習(xí)問題。704.4.1不完全監(jiān)督學(xué)習(xí)當(dāng)訓(xùn)練集只有一個(gè)(通常很小的)子集有標(biāo)簽,而其他數(shù)據(jù)沒有標(biāo)簽時(shí),所進(jìn)行的監(jiān)督學(xué)習(xí)稱為不完全監(jiān)督學(xué)習(xí)(IncompleteSupervisionLearning)。例如,在圖像分類任務(wù)中,可以很容易從互聯(lián)網(wǎng)上獲取大量圖像,然而真實(shí)標(biāo)簽卻需要人類標(biāo)注者手工標(biāo)出??紤]到標(biāo)注的人工成本,往往只有一小部分圖像能夠被標(biāo)注,導(dǎo)致訓(xùn)練集中大部分圖像根本沒有標(biāo)簽。針對不完全監(jiān)督學(xué)習(xí),可以考慮采用不同的技術(shù)改善和解決,如主動學(xué)習(xí)半監(jiān)督學(xué)習(xí)遷移學(xué)習(xí)強(qiáng)化學(xué)習(xí)714.4.1.1主動學(xué)習(xí)主動學(xué)習(xí)(ActiveLearning)是一種機(jī)器學(xué)習(xí)框架,在這種框架中,學(xué)習(xí)算法可以從尚未標(biāo)記的樣本池中主動選擇下一個(gè)需要標(biāo)記的可用樣本子集;然后交互式地、動態(tài)地向用戶發(fā)出查詢,請求用戶為其提供真實(shí)標(biāo)簽,或從Oracle數(shù)據(jù)庫中查詢已人工標(biāo)注好的標(biāo)簽,或由人工標(biāo)注員實(shí)時(shí)標(biāo)記;再反饋給學(xué)習(xí)算法,進(jìn)行監(jiān)督學(xué)習(xí)訓(xùn)練,逐步提升模型效果??梢?,在主動學(xué)習(xí)的訓(xùn)練過程中,需要有人類的干預(yù)。主動學(xué)習(xí)的基本思想:允許機(jī)器學(xué)習(xí)算法自主選擇它想要學(xué)習(xí)的數(shù)據(jù),它可以在使用少量標(biāo)簽的同時(shí)達(dá)到更高的精度。這種算法被稱為主動學(xué)習(xí)器(ActiveLearner)。目標(biāo):使用盡可能少的查詢來訓(xùn)練出性能良好的模型。724.4.1.1主動學(xué)習(xí)在主動學(xué)習(xí)出現(xiàn)之前,系統(tǒng)會從未標(biāo)注的樣本中隨機(jī)選擇待標(biāo)注的樣本,進(jìn)行人工標(biāo)記。顯然,這樣選擇出的樣本缺乏針對性。主動學(xué)習(xí)器選擇最重要的、信息量大的樣本,例如,易被錯(cuò)分的樣本,或類邊界附近的樣本,讓人進(jìn)行標(biāo)注。主動學(xué)習(xí)過程通常包括5個(gè)步驟:(1)系統(tǒng)主動選擇待標(biāo)注樣本(2)人工標(biāo)注或數(shù)據(jù)庫查詢(3)模型訓(xùn)練(4)模型預(yù)測(5)模型更新。

上述步驟循環(huán)往復(fù),直到訓(xùn)練錯(cuò)誤率低于某個(gè)設(shè)定的閾值。主動學(xué)習(xí)的關(guān)鍵是如何挑選出合適的未標(biāo)注樣本子集用于人工標(biāo)注。主動學(xué)習(xí)在訓(xùn)練階段,需要對數(shù)據(jù)進(jìn)行增量且動態(tài)的標(biāo)注,以使算法能夠獲得最大信息量的標(biāo)簽,從而迅速提升模型性能。主動學(xué)習(xí)有廣泛的應(yīng)用場景,例如,①個(gè)性化的郵件、短信分類:根據(jù)個(gè)人喜好來區(qū)分正常/垃圾短信和郵件。②異常檢測:如時(shí)間序列的異常檢測(如頻繁轉(zhuǎn)賬匯款,可能是詐騙)等。③通用的圖像識別系統(tǒng),對某些極其相像的圖像,還是需要人工識別,給予標(biāo)注。734.4.1.1主動學(xué)習(xí)744.4.1.2半監(jiān)督學(xué)習(xí)(Semi-SupervisedLearning)半監(jiān)督學(xué)習(xí)是監(jiān)督學(xué)習(xí)與無監(jiān)督學(xué)習(xí)相結(jié)合的一種學(xué)習(xí)方法,在其訓(xùn)練的過程中無需人類干預(yù)。缺少已標(biāo)注數(shù)據(jù)時(shí),主動學(xué)習(xí)需要人類為未標(biāo)注樣本提供標(biāo)簽,而我們卻希望:機(jī)器能通過對有標(biāo)簽數(shù)據(jù)的學(xué)習(xí),逐漸自動地將標(biāo)簽“傳播”到無標(biāo)簽的數(shù)據(jù)上。半監(jiān)督學(xué)習(xí)的目的:在不求助于人類專家的情況下,同時(shí)利用有標(biāo)注數(shù)據(jù)和無標(biāo)注數(shù)據(jù)來訓(xùn)練模型。在半監(jiān)督學(xué)習(xí)中,有標(biāo)注的數(shù)據(jù)往往是少數(shù),未標(biāo)注的數(shù)據(jù)是大多數(shù)。少量的標(biāo)注數(shù)據(jù)并不足以訓(xùn)練出好的模型,但可以利用大量未標(biāo)注數(shù)據(jù)來改善算法性能。半監(jiān)督學(xué)習(xí)方法的實(shí)現(xiàn)思路75(1)提取所有數(shù)據(jù)樣本的特征信息,計(jì)算一個(gè)未標(biāo)注樣本

xu與所有標(biāo)注樣本之間的相似度。(2)認(rèn)為:相似度越高的樣本,它們的標(biāo)簽越傾向于一致?;谶@個(gè)認(rèn)知,找到與xu相似度最高的已標(biāo)注樣本,將其標(biāo)簽賦予

xu作為標(biāo)簽。(3)重復(fù)前兩步,逐步將已標(biāo)注樣本的標(biāo)簽“傳播”到未標(biāo)注的樣本上,擴(kuò)大標(biāo)注數(shù)據(jù)集的規(guī)模;在標(biāo)簽傳播過程中,保持已標(biāo)注樣本的標(biāo)簽不變,使其像一個(gè)源頭將標(biāo)簽傳向未標(biāo)注樣本。(4)上述迭代過程結(jié)束時(shí),相似樣本基本上都獲得了相似的標(biāo)簽,從而完成了標(biāo)簽傳播過程。(5)然后,利用規(guī)模較大的標(biāo)注數(shù)據(jù)集訓(xùn)練學(xué)習(xí)模型,實(shí)現(xiàn)監(jiān)督學(xué)習(xí)??梢姡氡O(jiān)督學(xué)習(xí)只需要低成本的人工標(biāo)注,同時(shí)使用少量有標(biāo)簽數(shù)據(jù)和大量無標(biāo)簽數(shù)據(jù),便能獲得堪比甚至高于監(jiān)督學(xué)習(xí)的性能。764.4.1.3遷移學(xué)習(xí)遷移學(xué)習(xí)(TransferLearning)是將在一個(gè)領(lǐng)域(稱為源領(lǐng)域)的知識遷移到另外一個(gè)領(lǐng)域(稱為目標(biāo)領(lǐng)域),使得在目標(biāo)領(lǐng)域能夠取得更好的學(xué)習(xí)效果。遷移學(xué)習(xí)是模仿人類“舉一反三”的能力,這是人類與生俱來的能力。打乒乓球———打網(wǎng)球,下國際象棋———下中國象棋C語言編程———Python語言,跳拉丁舞后———跳探戈對于計(jì)算機(jī)來說,進(jìn)行遷移學(xué)習(xí)就是利用源領(lǐng)域的數(shù)據(jù)訓(xùn)練好學(xué)習(xí)模型,對其稍加調(diào)整,便可用于在目標(biāo)領(lǐng)域完成目標(biāo)任務(wù)。將在ImageNet圖像集上學(xué)習(xí)到的分類模型遷移到醫(yī)療圖像的分類任務(wù)上;將中英互譯的翻譯模型遷移到日英互譯的任務(wù)上。目前,遷移學(xué)習(xí)方法在情感分類、圖像分類、命名實(shí)體識別、WiFi信號定位、機(jī)器翻譯等問題上取得了很好的應(yīng)用效果。774.4.1.3遷移學(xué)習(xí)遷移學(xué)習(xí)利用不同領(lǐng)域中數(shù)據(jù)、任務(wù)或模型之間的相似性,將在源領(lǐng)域?qū)W習(xí)或訓(xùn)練好的模型應(yīng)用于目標(biāo)領(lǐng)域完成目標(biāo)任務(wù)。所以,遷移學(xué)習(xí)的關(guān)鍵要素在于:尋找源領(lǐng)域和目標(biāo)領(lǐng)域中數(shù)據(jù)、任務(wù)和模型之間的相似性或“不變性”。例如,在不同地區(qū)(大陸vs香港)開車?,F(xiàn)階段,人們可以很容易地獲取大量不同領(lǐng)域的數(shù)據(jù),互聯(lián)網(wǎng)也在不斷產(chǎn)生大量的圖像、語音、文本、視頻等數(shù)據(jù)。但這些數(shù)據(jù)往往都沒有標(biāo)注,而很多機(jī)器學(xué)習(xí)方法都需要以大量的標(biāo)注數(shù)據(jù)作為前提。若能夠?qū)⒃跇?biāo)注數(shù)據(jù)上訓(xùn)練得到的模型遷移到無標(biāo)注的數(shù)據(jù)上,無疑具有重要的經(jīng)濟(jì)價(jià)值和廣闊的應(yīng)用前景。4.4.1.3遷移學(xué)習(xí)目前,實(shí)現(xiàn)遷移學(xué)習(xí)的基本方法包括樣本遷移、特征遷移和模型遷移。(1)樣本遷移。樣本遷移的基本思路是:在源領(lǐng)域中找與目標(biāo)領(lǐng)域相似的數(shù)據(jù)樣本,加重該樣本的權(quán)值,重復(fù)利用源領(lǐng)域中的樣本標(biāo)簽數(shù)據(jù),提高模型在目標(biāo)領(lǐng)域中完成任務(wù)的能力。源領(lǐng)域中有些已標(biāo)注數(shù)據(jù)有助于在目標(biāo)領(lǐng)域中訓(xùn)練出更準(zhǔn)確的模型,但有些數(shù)據(jù)則無法提升甚至?xí)p害模型性能。樣本遷移學(xué)習(xí)的目的:找到源領(lǐng)域中有用的數(shù)據(jù),用于在目標(biāo)領(lǐng)域中訓(xùn)練學(xué)習(xí)模型。樣本遷移方法的優(yōu)點(diǎn):簡單、易實(shí)現(xiàn)。缺點(diǎn):(1)不太適用于源領(lǐng)域與目標(biāo)領(lǐng)域數(shù)據(jù)分布相差較大的情況。(2)對源領(lǐng)域中樣本的選擇、加重的權(quán)值、判斷樣本的相似性都依賴于人的經(jīng)驗(yàn),會使得模型的穩(wěn)定性和可靠性降低。78圖像風(fēng)格的樣本遷移學(xué)習(xí)79“東方明珠”梵高的《星月夜》將梵高的畫風(fēng)遷移到“東方明珠”+圖像風(fēng)格的樣本遷移學(xué)習(xí)80梵高作品《星月夜》目標(biāo)領(lǐng)域的原圖遷移后的畫作使用《星月夜》作為源數(shù)據(jù)81(2)特征遷移特征遷移也稱為基于特征的遷移(Feature-BasedTransferLearning)。基本思路:當(dāng)源領(lǐng)域和目標(biāo)領(lǐng)域含有一些共同特征時(shí),則可以通過特征變換將源領(lǐng)域和目標(biāo)領(lǐng)域的特征映射到同一個(gè)特征空間中,使得在該空間中源領(lǐng)域數(shù)據(jù)與目標(biāo)領(lǐng)域數(shù)據(jù)具有相同的數(shù)據(jù)分布,然后再利用傳統(tǒng)的機(jī)器學(xué)習(xí)方法來求解。特征遷移旨在通過引入源領(lǐng)域的數(shù)據(jù)特征來幫助完成目標(biāo)領(lǐng)域的機(jī)器學(xué)習(xí)任務(wù)。當(dāng)目標(biāo)領(lǐng)域缺少足夠的標(biāo)簽時(shí),可通過挖掘源領(lǐng)域數(shù)據(jù)與目標(biāo)領(lǐng)域數(shù)據(jù)的共同特征,或者借助中間數(shù)據(jù)進(jìn)行“橋接”,會有助于實(shí)現(xiàn)不同特征空間之間的知識遷移。如:在識別圖像中花卉種類(目標(biāo)領(lǐng)域)時(shí),若缺少花卉種類的標(biāo)簽,可借助wiki、百度百科等相關(guān)數(shù)據(jù)源(即源領(lǐng)域)獲得帶有標(biāo)簽的文本和圖文并茂的中間數(shù)據(jù)。特征遷移通常假設(shè)源領(lǐng)域和目標(biāo)領(lǐng)域間有一些共同特征,在共同特征空間中遷移知識。82(3)模型遷移模型遷移也稱為基于模型的遷移學(xué)習(xí)或基于參數(shù)的遷移學(xué)習(xí)(Parameter-BasedTransferLearning)?;舅悸肥牵簩⒃搭I(lǐng)域上訓(xùn)練好的模型的一部分參數(shù)或者全部參數(shù)應(yīng)用到目標(biāo)領(lǐng)域任務(wù)的模型上。模型遷移可以利用模型之間的相似性來提高模型的能力。例如,在需要使用模型完成水果分類任務(wù)時(shí),可以將在ImageNet上預(yù)訓(xùn)練的模型用于初始化水果分類模型,再利用目標(biāo)領(lǐng)域的幾萬個(gè)已標(biāo)注樣本進(jìn)行微調(diào),即可得到精度很高的模型。834.4.1.3遷移學(xué)習(xí)與樣本遷移和特征遷移一樣,模型遷移也利用源領(lǐng)域的知識。然而,三者在利用知識的層面上存在顯著差別:樣本遷移利用樣本層面的知識,即樣本;特征遷移利用特征層面的知識,即特征;模型遷移利用模型層面的知識,即參數(shù)。模型遷移是目前最主流的遷移學(xué)習(xí)方法,可以很好地利用源領(lǐng)域中已有模型的參數(shù),使得學(xué)習(xí)模型在面臨新的任務(wù)時(shí),只需微調(diào),便可完成目標(biāo)領(lǐng)域的任務(wù)。目前,遷移學(xué)習(xí)已經(jīng)在機(jī)器人控制、機(jī)器翻譯、圖像識別、人機(jī)交互等諸多領(lǐng)域獲得了廣泛的應(yīng)用。844.4.1.4強(qiáng)化學(xué)習(xí)強(qiáng)化學(xué)習(xí)(ReinforcementLearning),又稱再勵學(xué)習(xí)、評價(jià)學(xué)習(xí)或增強(qiáng)學(xué)習(xí)。受到行為心理學(xué)的啟發(fā),強(qiáng)化學(xué)習(xí)的算法理論早在20世紀(jì)六七十年代就已形成,但直到最近才引起了學(xué)術(shù)界與工業(yè)界的廣泛關(guān)注。強(qiáng)化學(xué)習(xí)的思路是:通過不斷試錯(cuò),使下一次采取的動作能夠得到更多獎勵,并且將獎勵最大化。強(qiáng)化學(xué)習(xí)用于描述和解決智能體(Agent)在與外部環(huán)境的交互過程中采取學(xué)習(xí)策略,以獲得最大化的回報(bào)或?qū)崿F(xiàn)特定目標(biāo)的問題。其中,智能體就是需要訓(xùn)練的學(xué)習(xí)模型,外部環(huán)境則被表示為一個(gè)可以給出反饋信息的模擬器(Emulator),回報(bào)(Reward)是通過人為設(shè)置的獎勵函數(shù)計(jì)算得到的。854.4.1.4強(qiáng)化學(xué)習(xí)智能體與環(huán)境通過在一系列“觀察(Observation)—動作(Action)—回報(bào)(Reward)”的交互中獲得知識,改進(jìn)行動方案,以適應(yīng)環(huán)境。標(biāo)準(zhǔn)的強(qiáng)化學(xué)習(xí)過程如下:(1)初始化,令當(dāng)前時(shí)刻t=1。(2)智能體獲取當(dāng)前時(shí)刻環(huán)境的狀態(tài)信息,記為st。(3)智能體對環(huán)境采取試探性動作at。(4)根據(jù)st和at,環(huán)境采用獎勵函數(shù)計(jì)算出一個(gè)評價(jià)值rt,反饋給智能體。①若at正確,則智能體獲得獎勵,以后采取動作at的趨勢將加強(qiáng)。②若at錯(cuò)誤,則智能體獲得懲罰,以后采取動作at的趨勢將減弱。(5)環(huán)境更新狀態(tài)為st+1。(6)令t=t+1,若t<T(事先規(guī)定的時(shí)刻),返回第(2)步,否則算法結(jié)束。864.4.1.4強(qiáng)化學(xué)習(xí)強(qiáng)化學(xué)習(xí)就是在上述反復(fù)交互的過程中不斷修改從狀態(tài)到動作的映射策略,以期獲得最大化的累積回報(bào),達(dá)到優(yōu)化模型的目的。強(qiáng)化學(xué)習(xí)不要求預(yù)先給定任何數(shù)據(jù),而是通過接收環(huán)境對動作的反饋信息(獎勵或懲罰)來獲得學(xué)習(xí)數(shù)據(jù),并用于更新模型參數(shù),并非直接告訴智能體如何采取正確的動作。強(qiáng)化學(xué)習(xí)的關(guān)注點(diǎn)在于對未知領(lǐng)域的探索和對已有知識的利用之間的平衡。874.4.1.4強(qiáng)化學(xué)習(xí)強(qiáng)化學(xué)習(xí)與監(jiān)督學(xué)習(xí)的不同之處在于:①監(jiān)督學(xué)習(xí)輸入的訓(xùn)練數(shù)據(jù)是包含樣本及其標(biāo)簽的強(qiáng)監(jiān)督信息,而強(qiáng)化學(xué)習(xí)從外部環(huán)境接收的反饋信息是一種弱監(jiān)督信息;②監(jiān)督學(xué)習(xí)是采用正確答案來訓(xùn)練模型,給予的指導(dǎo)是即時(shí)的;而強(qiáng)化學(xué)習(xí)是采用“試錯(cuò)”的方式來訓(xùn)練模型,外部環(huán)境給予它的指導(dǎo)有時(shí)是延遲的。強(qiáng)化學(xué)習(xí)與無監(jiān)督學(xué)習(xí)的不同之處在于:無監(jiān)督學(xué)習(xí)輸入的是沒有任何監(jiān)督信息的無標(biāo)注數(shù)據(jù),強(qiáng)化學(xué)習(xí)從環(huán)境獲得的評價(jià)信息(不是正確答案)是一種弱監(jiān)督信息,盡管監(jiān)督信息很弱

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論