人工智能技術(shù)應(yīng)用導(dǎo)論第3.2章 機(jī)器學(xué)習(xí)與深度學(xué)習(xí)_第1頁
人工智能技術(shù)應(yīng)用導(dǎo)論第3.2章 機(jī)器學(xué)習(xí)與深度學(xué)習(xí)_第2頁
人工智能技術(shù)應(yīng)用導(dǎo)論第3.2章 機(jī)器學(xué)習(xí)與深度學(xué)習(xí)_第3頁
人工智能技術(shù)應(yīng)用導(dǎo)論第3.2章 機(jī)器學(xué)習(xí)與深度學(xué)習(xí)_第4頁
人工智能技術(shù)應(yīng)用導(dǎo)論第3.2章 機(jī)器學(xué)習(xí)與深度學(xué)習(xí)_第5頁
已閱讀5頁,還剩47頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

案例體驗(yàn):使用K-Means對觀影用戶進(jìn)行聚類02步驟三:可視化展現(xiàn)分類結(jié)果

02案例體驗(yàn):使用K-Means對觀影用戶進(jìn)行聚類02步驟三:可視化展現(xiàn)分類結(jié)果

02第三章機(jī)器學(xué)習(xí)3.5深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)CONTENTS目錄應(yīng)用場景

01語音識別01自2006年Hinton等提出深度學(xué)習(xí)的概念,神經(jīng)網(wǎng)絡(luò)再次回到人們的視野中,語音識別是第1個取得突破的領(lǐng)域。傳統(tǒng)語音識別的方法主要利用聲學(xué)研究中的低層特征,利用高斯混合模型進(jìn)行特征提取,并用隱馬爾可夫模型進(jìn)行序列轉(zhuǎn)移狀態(tài)建模,并據(jù)此識別語音所對應(yīng)的文字。歷經(jīng)數(shù)十年的發(fā)展,傳統(tǒng)語音識別任務(wù)的錯誤率改進(jìn)卻停滯不前,停留在25%左右,難以達(dá)到實(shí)用水平。2013年,Hinton與微軟公司合作,利用神經(jīng)網(wǎng)絡(luò)改進(jìn)語音識別中的特征提取方法,將錯誤率降低至17.7%,并在大會現(xiàn)場展示了同聲傳譯產(chǎn)品,效果驚人。此后,研究者們又陸續(xù)采用回復(fù)式神經(jīng)網(wǎng)絡(luò)改進(jìn)語音識別的預(yù)測和識別,將錯誤率降至7.9%。這一系列的成功使得語音識別實(shí)用化成為可能,激發(fā)了大量的商業(yè)應(yīng)用。至2016年,同聲速記產(chǎn)品準(zhǔn)確率已經(jīng)突破95%,超過人類速記員的水平。計(jì)算機(jī)視覺01計(jì)算機(jī)視覺一直以來都是一個熱門的研究領(lǐng)域。傳統(tǒng)的研究內(nèi)容主要集中在根據(jù)圖像特點(diǎn)人工設(shè)計(jì)不同的特征,如邊緣特征、顏色特征、尺度不變特征等。利用這些特征完成特定的計(jì)算機(jī)視覺任務(wù),如圖像分類、圖像聚類、圖像分割、目標(biāo)檢測、目標(biāo)追蹤等。傳統(tǒng)的圖像特征依賴于人工設(shè)計(jì),一般為比較直觀的初級特征,抽象程度較低,表達(dá)能力較弱。神經(jīng)網(wǎng)絡(luò)方法利用大量的圖像數(shù)據(jù),完全自動地學(xué)習(xí)特征。在深度神經(jīng)網(wǎng)絡(luò)中,各層特征形成了邊緣、線條、輪廓、形狀、對象等的層次劃分,抽象程度逐漸提高。2012年,在大規(guī)模圖像數(shù)據(jù)集ImageNet上,神經(jīng)網(wǎng)絡(luò)方法取得了重大突破,準(zhǔn)確率達(dá)到84.7%。在LFW人臉識別評測權(quán)威數(shù)據(jù)庫上,基于深度神經(jīng)網(wǎng)絡(luò)的人臉識別方法DeepID在2014、2015年分別達(dá)到準(zhǔn)確率99.15%和99.53%,遠(yuǎn)超人類識別的準(zhǔn)確率97.53%。醫(yī)學(xué)醫(yī)療01醫(yī)學(xué)醫(yī)療因?yàn)槠鋺?yīng)用的特殊性一直是科學(xué)研究的前沿,既要快速的推進(jìn),又要求格外嚴(yán)謹(jǐn)。如何利用好大數(shù)據(jù)解決醫(yī)學(xué)和醫(yī)療中的問題,進(jìn)一步改善醫(yī)療條件,提高診治水平,是值得人們關(guān)注和研究的。隨著神經(jīng)網(wǎng)絡(luò)各類應(yīng)用的成功和成熟,在醫(yī)學(xué)和醫(yī)療領(lǐng)域也出現(xiàn)了新的突破。2016年1月,美國Enlitic公司開發(fā)的基于深度神經(jīng)網(wǎng)絡(luò)的癌癥檢測系統(tǒng),適用于從X光、CT掃描、超聲波檢查、MRI等的圖像中發(fā)現(xiàn)惡性腫瘤,其中,肺癌檢出率超過放射技師水平。同年,Google利用醫(yī)院信息數(shù)據(jù)倉庫的醫(yī)療電子信息存檔中的臨床記錄、診斷信息、用藥信息、生化檢測、病案統(tǒng)計(jì)等數(shù)據(jù),構(gòu)建病人原始信息數(shù)據(jù)庫,包括病人的用藥信息、診斷信息、診療過程、生化檢測等信息,采用基于神經(jīng)網(wǎng)絡(luò)的無監(jiān)督深度特征學(xué)習(xí)方法學(xué)習(xí)病人的深度特征表達(dá),并借助這一表達(dá)進(jìn)行自動臨床決策,其準(zhǔn)確率超過92%。這些成果為實(shí)現(xiàn)基于醫(yī)療大數(shù)據(jù)的精準(zhǔn)醫(yī)療打下了扎實(shí)基礎(chǔ)。智能博弈01圍棋被譽(yù)為“最復(fù)雜也是最美的游戲”,自從國際象棋世界冠軍被深藍(lán)電腦擊敗后,圍棋也成為了“人類智慧最后堡壘”。2016年,Google旗下Deep-Mind團(tuán)隊(duì)的AlphaGo對戰(zhàn)人類圍棋世界冠軍李世乭九段,不但引起圍棋界和人工智能界的熱切注視,還吸引了眾多群眾的關(guān)注。最終AlphaGo以4:1戰(zhàn)勝李世乭九段,其背后成功的秘訣正是采用了神經(jīng)網(wǎng)絡(luò)與增強(qiáng)學(xué)習(xí)相結(jié)合,借助神經(jīng)網(wǎng)絡(luò)強(qiáng)大的特征提取能力捕捉人類難以分析的高層特征;再利用增強(qiáng)學(xué)習(xí),采用自我對弈的方法產(chǎn)生大量的數(shù)據(jù),從自己的嘗試中學(xué)習(xí)到超越有限棋譜的技巧,成功掌握了致勝技巧。這一結(jié)果在人工智能界非常振奮人心,因?yàn)樗岢隽艘环N自發(fā)學(xué)習(xí)到超越現(xiàn)有數(shù)據(jù)的學(xué)習(xí)方法,標(biāo)志了增強(qiáng)學(xué)習(xí)與神經(jīng)網(wǎng)絡(luò)的成功結(jié)合,也是“大數(shù)據(jù)+神經(jīng)網(wǎng)絡(luò)”的成功的應(yīng)用。

圖1為人臉識別,圖2和圖3為物體識別。01圖1:人臉識別圖2:飛機(jī)識別圖3:自行車識別圖像識別

神經(jīng)網(wǎng)絡(luò)同時也能完成圖像的超分辨率采樣等任務(wù)。圖中,左側(cè)是采用二次樣條插值得到的圖像,右側(cè)是使用神經(jīng)網(wǎng)絡(luò)得到的圖像。不難看出:深度神經(jīng)網(wǎng)絡(luò)在進(jìn)行超分辨采樣的過程中可以保留更多細(xì)節(jié)。02圖4:圖像增強(qiáng)圖像增強(qiáng)

目標(biāo)檢測也是深度學(xué)習(xí)的重要應(yīng)用場景,圖像目標(biāo)檢測可以識別一張圖片的多個物體,并可以定位出不同物體(給出邊界框)。目標(biāo)檢測在很多場景有用,如圖5所示為在球場上實(shí)時進(jìn)行目標(biāo)檢測的場景。03圖5:目標(biāo)檢測實(shí)際應(yīng)用目標(biāo)檢測

AI換臉技術(shù):(視頻來源:/6760996398079951367/?wid_try=1)04AI換臉

有一項(xiàng)研究是使用深度學(xué)習(xí)來“繪制”帶有藝術(shù)氣息的畫。如下圖所示,輸入兩個圖像后,會生成一個新的圖像。兩個輸入圖像中,左下的圖像稱為“內(nèi)容圖像”,左上的圖像稱為“風(fēng)格圖像”。05圖6:風(fēng)格遷移風(fēng)格遷移

05

風(fēng)格遷移技術(shù):(視頻來源:/video/av35604813)風(fēng)格遷移

圖7和圖8為深度神經(jīng)網(wǎng)絡(luò)在自然語音上的一個具體應(yīng)用-智能翻譯機(jī)。第二屆“一帶一路”國際合作高峰論壇上,科大訊飛的智能翻譯機(jī)亮相會議現(xiàn)場。06圖7:科大訊飛智能翻譯機(jī)圖8:外國嘉賓使用翻譯機(jī)交流自然語言第三章機(jī)器學(xué)習(xí)3.6基本原理及技術(shù)發(fā)展現(xiàn)狀CONTENTS目錄深度學(xué)習(xí)概述

01深度學(xué)習(xí)相關(guān)概念

02人類視覺原理與神經(jīng)網(wǎng)絡(luò)原理

03感知器基本結(jié)構(gòu)及訓(xùn)練

04為什么要學(xué)習(xí)深度學(xué)習(xí)?01

深度學(xué)習(xí)是用于建立、模擬人腦進(jìn)行分析學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò),并模仿人腦的機(jī)制來解釋數(shù)據(jù)的一種機(jī)器學(xué)習(xí)技術(shù)。

基本特點(diǎn)是試圖模仿大腦神經(jīng)元之間傳遞,處理信息的模式。最顯著的應(yīng)用是計(jì)算機(jī)視覺和自然語言處理(NLP)領(lǐng)域。圖1:人工智能、機(jī)器學(xué)習(xí)、深度學(xué)習(xí)關(guān)系深度學(xué)習(xí)概述

0102深度學(xué)習(xí)概述

0103深度學(xué)習(xí)相關(guān)概念

02人類視覺原理

1981年的諾貝爾醫(yī)學(xué)獎,分別頒發(fā)給了DavidHubel、TorstenWiesel和RogerSperry。前兩位的主要貢獻(xiàn),是“發(fā)現(xiàn)了視覺系統(tǒng)的信息處理”即:視皮層是分級的。04圖2:人類視覺原理

03人類視覺原理

當(dāng)瞳孔發(fā)現(xiàn)了眼前物體的邊緣,而且這個邊緣指向某個方向時,這種神經(jīng)元細(xì)胞就會變得活躍。04圖3:人類訓(xùn)練識別不同物體過程

結(jié)論:

人的視覺系統(tǒng)的信息處理是分級的,高層的特征是低層特征的組合,從低層到高層的特征表示越來越抽象,越來越能表現(xiàn)語義或者意圖,抽象層面越高,存在的可能猜測就越少,就越利于分類。

03神經(jīng)網(wǎng)絡(luò)原理05圖4:單個神經(jīng)元生理結(jié)構(gòu)圖5:數(shù)學(xué)公式仿真神經(jīng)元

03神經(jīng)網(wǎng)絡(luò)原理05圖6:神經(jīng)網(wǎng)絡(luò)原理a1a2a3z1z2

03神經(jīng)網(wǎng)絡(luò)原理05圖7:神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)1.設(shè)計(jì)一個神經(jīng)網(wǎng)絡(luò)時,輸入層與輸出層的節(jié)點(diǎn)數(shù)往往是固定的,中間層則可以自由指定;2.神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)圖中的拓?fù)渑c箭頭代表著預(yù)測過程時數(shù)據(jù)的流向,跟訓(xùn)練時的數(shù)據(jù)流有一定的區(qū)別;3.結(jié)構(gòu)圖里的關(guān)鍵不是圓圈(代表“神經(jīng)元”),而是連接線(代表“神經(jīng)元”之間的連接)。每個連接線對應(yīng)一個不同的權(quán)重(其值稱為權(quán)值),這是需要訓(xùn)練得到的。

03感知器基本結(jié)構(gòu)及訓(xùn)練06圖8:感知器基本結(jié)構(gòu)

04感知器基本結(jié)構(gòu)及訓(xùn)練06舉例說明:以上為and函數(shù)的實(shí)現(xiàn)。W=[w1,w2]X=[x1,x2]y=f(X*WT+b),尋找合適的W。其中:給出W=[0.5,0.5],b=-0.8進(jìn)行驗(yàn)證:y1=f(0.5*0+0.5*0-0.8)=0y2=f(0.5*0+0.5*1-0.8)=0y3=f(0.5*1+0.5*0-0.8)=0y4=f(0.5*1+0.5*1-0.8)=1

04感知器基本結(jié)構(gòu)及訓(xùn)練06現(xiàn)在,你可能困惑前面的權(quán)重項(xiàng)和偏置項(xiàng)的值是如何獲得的呢?感知器訓(xùn)練算法:將權(quán)重項(xiàng)和偏置項(xiàng)初始化為0,然后,利用下面的感知器規(guī)則迭代的修改w和b,直到訓(xùn)練完成。1)w是與輸入xi對應(yīng)的權(quán)重項(xiàng)。2)b是偏置項(xiàng)。事實(shí)上,可以把b看作是值永遠(yuǎn)為1的輸入所對應(yīng)的權(quán)重。3)t是訓(xùn)練樣本的實(shí)際值,一般稱之為label。4)y是感知器的輸出值,它是根據(jù)公式計(jì)算得出。5)η是一個稱為學(xué)習(xí)速率的常數(shù),其作用是控制每一步調(diào)整權(quán)值的幅度。6)每次從訓(xùn)練數(shù)據(jù)中取出一個樣本的輸入向量x,使用感知器計(jì)算其輸出y,再根據(jù)上面的規(guī)則來調(diào)整權(quán)重。每處理一個樣本就調(diào)整一次權(quán)重。經(jīng)過多輪迭代后(即全部的訓(xùn)練數(shù)據(jù)被反復(fù)處理多輪),就可以訓(xùn)練出感知器的權(quán)重,使之實(shí)現(xiàn)目標(biāo)函數(shù)。其中:

04第三章機(jī)器學(xué)習(xí)3.7

案例體驗(yàn)CONTENTS目錄

01

02MNIST手寫數(shù)字識別簡單汽車識別體驗(yàn)簡單汽車識別體驗(yàn)011.華為云Modelarts汽車圖片訓(xùn)練識別體驗(yàn):/ei/experiencespace/modelarts/index.html

01MNIST手寫數(shù)字識別01Keras深度學(xué)習(xí)框架Keras層模型卷積與池化CIFAR-10數(shù)據(jù)集圖片識別體驗(yàn)

02Keras深度學(xué)習(xí)框架02Keras是一個開放源碼的高級深度學(xué)習(xí)程序庫,使用python編寫,能夠運(yùn)行在TensorFlow或Theano之上。Keras使用最少的程序代碼、花費(fèi)最少的時間就可以建立深度學(xué)習(xí)模型,進(jìn)行訓(xùn)練、評估準(zhǔn)確率,進(jìn)行預(yù)測。Keras是一個模型級的深度學(xué)習(xí)鏈接庫,Keras只處理模型的建立、訓(xùn)練、預(yù)測等功能。深度學(xué)習(xí)底層的運(yùn)行,例如張量(矩陣)運(yùn)算,Keras必須配合“后端引擎”進(jìn)行運(yùn)算。目前Keras提供了兩種后端引擎:Theano與TensorFlow。如圖所示,Keras程序員只需要專注于建立模型,至于底層操作細(xì)節(jié),例如張量(矩陣)運(yùn)算,Keras會幫你轉(zhuǎn)換為Theano或TensorFlow。KerasTheanoTensorflowMNIST手寫數(shù)字識別

02Keras深度學(xué)習(xí)框架02使用Keras深度學(xué)習(xí)框架訓(xùn)練,預(yù)測數(shù)據(jù)集步驟如下:MNIST手寫數(shù)字識別

02

03(1)卷積層:每個卷積層由若干個卷積單元組成,每個卷積單元的參數(shù)都是通過反向傳播算法優(yōu)化得到的。卷積運(yùn)算的目的是提取輸入的不同特征。第一層卷積層可能只能提取一些低級的特征,如邊緣、線條和角,更多層的網(wǎng)絡(luò)能從低級特征中迭代提取更復(fù)雜的特征。(2)池化層:通常在卷積層之后得到的特征維度很大。池化就是一個特征數(shù)據(jù)壓縮的過程,它將特征切成幾個區(qū)域,取其最大值或平均值,得到新的、維度較小的特征數(shù)據(jù)。(3)全連接層:把所有局部特征結(jié)合成全局特征,用來計(jì)算每一類的得分。MNIST手寫數(shù)字識別

02Keras層模型

03(1)輸入的數(shù)字圖像大小為:32*32*3。(2)卷積層1:卷積產(chǎn)生32個圖像,卷積后圖像大小:32*32。(3)池化層1:將32個32*32的圖像,縮小為32個16*16的圖像。(4)卷積層2:將64個16*16的圖像卷積產(chǎn)生64個16*16的圖像。(5)池化層2:第二次縮減,將64個16*16圖像縮小為8*8的圖像。(6)平坦層:將64個8*8的圖像以reshape轉(zhuǎn)換為一維向量,長度為64*8*8,也就是4096個神經(jīng)元。(7)隱藏層:隱藏層共有1024個神經(jīng)元。(8)輸出層:共有10個神經(jīng)元,對應(yīng)10個圖像。MNIST手寫數(shù)字識別

02Keras層模型

04

在計(jì)算機(jī)視覺領(lǐng)域,卷積核、濾波器通常為較小尺寸的矩陣,比如3×3、5×5等;數(shù)字圖像是相對較大尺寸的2維(多維)矩陣(張量)。圖像卷積運(yùn)算過程就是使用濾波器在圖像上滑動,將對應(yīng)位置相乘求和,如圖所示。1.卷積動態(tài)計(jì)算過程:/v?vid=6151717044497705796&pd=bjh&fr=bjhauthor&type=video2.卷積計(jì)算參考:/aaa958099161/article/details/90346899MNIST手寫數(shù)字識別

02卷積與池化

04

池化(Pooling),也稱為欠采樣或下采樣,主要用于特征降維,壓縮數(shù)據(jù)和參數(shù)的數(shù)量,減小過擬合,同時提高模型的容錯性。池化主要有兩種:最大池化(MaxPooling)和平均池化(AveragePooling)

。(1)最大池化:選取最大的值作為輸出值。它定義一個空間鄰域(比如,2*2的窗口),并從窗口內(nèi)的修正特征圖中取出最大的元素。最大池化被證明效果較好。如圖5.2.5所示的就是最大值池化過程。(2)平均池化:選取平均值作為輸出值。它定義一個空間鄰域(比如,2*2的窗口),并從窗口內(nèi)的修正特征圖中算出平均值。MNIST手寫數(shù)字識別

02卷積與池化05CIFAR-10數(shù)據(jù)集簡介我們可以在下列網(wǎng)址查看CIFAR-10數(shù)據(jù)集:/~kriz/cifar.htmlCIFAR-10數(shù)據(jù)集圖片識別體驗(yàn)MNIST手寫數(shù)字識別

0205步驟一:下載并查看數(shù)據(jù)集#導(dǎo)入相應(yīng)庫importnumpyasnpfromkeras.datasetsimportcifar10importmatplotlib.pyplotaspltfromkeras.utilsimportnp_utils#下載并加載CIFAR-10數(shù)據(jù)集(train_image,train_label),(test_image,test_label)=cifar10.load_data()#查看shapeprint('train_image的shape:',train_image.shape)print('test_image的shape:',test_image.shape)print('train_label的shape:',train_label.shape)print('test_label的shape:',test_label.shape)CIFAR-10數(shù)據(jù)集圖片識別體驗(yàn)MNIST手寫數(shù)字識別

0205步驟一結(jié)果輸出:train_image的shape:(50000,32,32,3)test_image的shape:(10000,32,32,3)train_label的shape:(50000,1)test_label的shape:(10000,1))

由結(jié)果可知:CIFAR-10數(shù)據(jù)集分為訓(xùn)練數(shù)據(jù)集和測試數(shù)據(jù)集,其中訓(xùn)練數(shù)據(jù)集由50000張像素點(diǎn)32*32的RGB(3基礎(chǔ)色)圖像,測試數(shù)據(jù)集由10000張像素點(diǎn)32*32的RGB(3基礎(chǔ)色)圖像。CIFAR-10數(shù)據(jù)集圖片識別體驗(yàn)MNIST手寫數(shù)字識別

0205步驟二:查看多項(xiàng)圖片的feature與labelimportmatplotlib.pyplotaspltimportnumpyasnpdefplot_images_labels_prediction(image,labels,idx,num,prediction,label_dict):foriinrange(0,num):

#繪制多子圖ax=plt.subplot(5,5,1+i)ax.imshow(image[idx])print(labels[idx])if(len(prediction)>0):ax.set_title(label_dict[labels[idx,0]]+label_dict[int(prediction[idx])])else:ax.set_title(label_dict[labels[idx,0]])idx+=1plt.show()CIFAR-10數(shù)據(jù)集圖片識別體驗(yàn)MNIST手寫數(shù)字識別

0205步驟二:查看多項(xiàng)圖片的feature與labelimportimage_show#新建一個字典類型,定義每一個數(shù)字所代表的圖像類別名稱label_dict={0:'airplane',1:'automobile',2:'bird',3:'cat',4:'deer',5:'dog',6:'frog',7:'horse',8:'ship',9:'truck'}#繪制前10張圖像image_show.plot_images_labels_prediction(image=train_image,labels=train_label,idx=0,num=10,prediction=[],label_dict=label_dict)步驟二結(jié)果輸出:CIFAR-10數(shù)據(jù)集圖片識別體驗(yàn)MNIST手寫數(shù)字識別

0205步驟三:數(shù)據(jù)預(yù)處理#數(shù)據(jù)預(yù)處理Train_image_nor=train_image.astype('float32')/255Test_image_nor=test_image.astype('float32')/255Train_label_nor=np_utils.to_categorical(train_label)Test_label_nor=np_utils.to_categorical(test_label)#查看處理后結(jié)果print(Train_label_nor[0])[0.0.0.0.0.0.1.0.0.0.]步驟三結(jié)果輸出:CIFAR-10數(shù)據(jù)集圖片識別體驗(yàn)MNIST手寫數(shù)字識別

0205步驟四:模型建立#建立模型fromkeras.modelsimportSequentialfromkeras.layersimportDense,Dropout,Activation,Flattenfromkeras.layersimportConv2D,MaxPooling2D,ZeroPadding2D#建立序貫?zāi)P蚼odel=Sequential()#添加卷積層1,產(chǎn)生32張圖像,卷積核為3*3,卷積后的圖像與卷積前尺寸大小相等model.add(Conv2D(filters=32,kernel_size=(3,3),input_shape=(32,32,3),padding='same',activation='relu',))#添加dropout層1model.add(Dropout(0.25))#添加池化層1model.add(MaxPooling2D(pool_size=(2,2)))CIFAR-10數(shù)據(jù)集圖片識別體驗(yàn)MNIST手寫數(shù)字識別

0205步驟四:模型建立#添加卷積層2model.add(Conv2D(filters=64,kernel_size=(3,3),padding='same',activation='relu',))#添加dropout,避免過擬合model.add(Dropout(0.25))#添加池化層2model.add(MaxPooling2D(pool_size=(2,2)))#添加平坦層model.add(Flatten())#添加dropoutmodel.add(Dropout(0.25))#添加隱藏層model.add(Dense(1024,activation='relu'))#添加dropoutmodel.add(Dropout(0.25))#輸出層model.add(Dense(10,activation='softmax'))#打印模型print(model.summary())CIFAR-10數(shù)據(jù)集圖片識別體驗(yàn)MNIST手寫數(shù)字識別

0205步驟四結(jié)果輸出:_________________________________________________________________Layer(type)OutputShapeParam#============================================================conv2d_1(Conv2D)(None,32,32,32)896____________________________________________________________dropout_1(Dropout)(None,32,32,32)0____________________________________________________________max_pooling2d_1(MaxPooling2(None,16,16,32)0____________________________________________________________conv2d_2(Conv2D)(None,16,16,64)18496____________________________________________________________dropout_2(Dropout)(None,16,16,64)0____________________________________________________________max_pooling2d_2(MaxPooling2(None,8,8,64)0____________________________________________________________flatten_1(Flatten)(None,4096)0____________________________________________________________

_________________________________________________________dropout_3(Dropout)(None,4096)0_________________________________________________________dense_1(Dense)(None,1024)4195328_________________________________________________________dropout_4(Dropout)(None,1024)0_________________________________________________________dense_2(Dense)(None,10)10250=================================================Totalparams:4,224,970Trainableparams:4,224,970Non-trainableparams:0_________________________________________________________CIFAR-10數(shù)據(jù)集圖片識別體驗(yàn)MNIST手寫數(shù)字識別

0205步驟五:模型的訓(xùn)練與保存#############訓(xùn)練模型#########################編譯模型#loss:選擇交叉熵算法#optimizer:使用adam算法加快收斂#metrics:判斷標(biāo)準(zhǔn)使用精確度pile(loss='categorical_crossentropy',optimizer='adam',metrics=['accuracy'])#訓(xùn)練模型#epoch:訓(xùn)練5個周期#batch_size:每一批次128項(xiàng)數(shù)據(jù)#verbose=2:顯示訓(xùn)練過程#validation_split=0.2.model.fit(x=Train_image_nor,y=Train_label_nor,batch_size=128,epochs=10,verbose=2,validation_split=0.2)#保存模型model.save('cnn_cifar10.h5')CIFAR-10數(shù)據(jù)集圖片識別體驗(yàn)MNIST手寫數(shù)字識別

0205步驟五結(jié)果輸出:Trainon40000samples,validateon10000samplesEpoch1/102020-11-0614:35:10.954569:Itensorflow/core/platform/cpu_feature_guard.cc:142]YourCPUsupportsinstructionsthatthisTensorFlowbinarywasnotcompiledtouse:AVX2-182s-loss:1.5302-acc:0.4492-val_loss:1.3716-val_acc:0.5396Epoch2/10-153s-loss:1.1750-acc:0.5813-val_loss:1.1595-val_acc:0.6241Epoch3/10-153s-loss:1.0378-acc:0.6330-val_loss:1.0385-val_acc:0.6621Epoch4/10-131s-loss:0.9175-acc:0.6751-val_loss:0.9895-val_acc:0.6753Epoch5/10-139s-loss:0.8386-acc:0.7040-val_loss:0.9521-val_acc:

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論