




版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領
文檔簡介
人工智能導論
Introduction
toArtificialIntelligence
第六章史忠植
中國科學院計算技術研究所/2023/10/20史忠植人工智能導論:神經網絡與深度學習1人工神經網絡與深度學習ArtificialNeuralNetworksandDeepLearning2023/10/20史忠植人工智能導論:神經網絡與深度學習2內容提要6.1概述
6.2前饋神經網絡
6.3 深度學習6.4卷積神經網絡
6.5 生成對抗網絡6.6 深度強化學習6.7 小結
2023/10/203神經網絡神經網絡(neuralnetworks,NN),也稱作人工神經網絡(artificialneuralnetworks,ANN),或神經計算(neuralcomputing,NC),是對人腦或生物神經網絡的抽象和建模,具有從環(huán)境學習的能力,以類似生物的交互方式適應環(huán)境。神經網絡是智能科學和計算智能的重要部分,以腦科學和認知神經科學的研究成果為基礎,拓展智能信息處理的方法,為解決復雜問題和自動控制提供有效的途徑。一個神經網絡是由簡單處理元構成的規(guī)模宏大的并行分布處理器。天然具有存儲經驗知識和使之可用的特性。史忠植人工智能導論:神經網絡與深度學習2023/10/204發(fā)展歷史
萌芽期(20世紀40年代)人工神經網絡的研究最早可以追溯到人類開始研究自己的智能的時期,到1949年止。
1943年,心理學家McCulloch和數(shù)學家Pitts建立起了著名的閾值加權和模型,簡稱為M-P模型。發(fā)表于數(shù)學生物物理學會刊《BulletinofMethematicalBiophysics》
1949年,心理學家D.O.Hebb提出神經元之間突觸聯(lián)系是可變的假說——Hebb學習律。史忠植人工智能導論:神經網絡與深度學習2023/10/205發(fā)展歷史第一高潮期(1950~1968)
以MarvinMinsky,F(xiàn)rankRosenblatt,BernardWidrow等為代表人物,代表作是單級感知器(Perceptron)。
可用電子線路模擬。
人們樂觀地認為幾乎已經找到了智能的關鍵。許多部門都開始大批地投入此項研究,希望盡快占領制高點。史忠植人工智能導論:神經網絡與深度學習2023/10/206發(fā)展歷史反思期(1969~1982)
M.L.Minsky和S.Papert,《Perceptron》,MITPress,1969年
異或”運算不可表示
二十世紀70年代和80年代早期的研究結果史忠植人工智能導論:神經網絡與深度學習2023/10/207發(fā)展歷史第二高潮期(1983~1990)
1982年,J.Hopfield提出Hopfield網絡用Lyapunov函數(shù)作為網絡性能判定的能量函數(shù),建立ANN穩(wěn)定性的判別依據(jù)闡明了ANN與動力學的關系用非線性動力學的方法來研究ANN的特性指出信息被存放在網絡中神經元的聯(lián)接上史忠植人工智能導論:神經網絡與深度學習2023/10/208發(fā)展歷史第二高潮期(1983~1990)
1984年,J.Hopfield設計研制了后來被人們稱為Hopfield網-Tank電路。較好地解決了著名的TSP問題,找到了最佳解的近似解,引起了較大的轟動。
1985年,UCSD的Hinton、Sejnowsky、Rumelhart等人所在的并行分布處理(PDP)小組的研究者在Hopfield網絡中引入了隨機機制,提出所謂的Boltzmann機。史忠植人工智能導論:神經網絡與深度學習2023/10/209發(fā)展歷史
1986年,并行分布處理小組的Rumelhart等研究者重新獨立地提出多層網絡的學習算法——BP算法,較好地解決了多層網絡的學習問題。(Paker1982和Werbos1974年)
自適應共振理論(ART)
自組織特征映射理論史忠植人工智能導論:神經網絡與深度學習2023/10/2010發(fā)展歷史
Hinton等人最近提出了Helmboltz機
徐雷提出的Ying-Yang機理論模型
甘利俊一(S.Amari)開創(chuàng)和發(fā)展的基于統(tǒng)計流形的方法應用于人工神經網絡的研究,國內首屆神經網絡大會是1990年12月在北京舉行的。史忠植人工智能導論:神經網絡與深度學習2023/10/2011神經信息處理的基本原理神經網絡是由大量處理單元組成的非線性大規(guī)模自適應動力系統(tǒng)。它是在現(xiàn)代神經科學研究成果的基礎上提出的,試圖通過模擬大腦神經網絡處理、記憶信息的方式設計一種新的機器使之具有人腦那樣的信息處理能力。同時,對這種神經網絡的研究將進一步加深對思維及智能的認識。史忠植人工智能導論:神經網絡與深度學習2023/10/2012并行分布式理論框架
1986年,美國加州大學圣地亞哥分校(UCSD)Rumellhart,McClelland,Hinton:
ParallelandDistributedProcessing,MITPress,Cambridge史忠植人工智能導論:神經網絡與深度學習2023/10/2013并行分布式理論框架PDP模型1)
一組處理單元(PE或AN)2)
處理單元的激活狀態(tài)(ai)3)
每個處理單元的輸出函數(shù)(fi)4)
處理單元之間的連接模式5)
傳遞規(guī)則(∑wijoi)6)
把處理單元的輸入及當前狀態(tài)結合起來產生激
活值的激活規(guī)則(Fi)7)
通過經驗修改連接強度的學習規(guī)則8)
系統(tǒng)運行的環(huán)境(樣本集合)史忠植人工智能導論:神經網絡與深度學習2023/10/20史忠植人工智能導論:神經網絡與深度學習14內容提要6.1概述
6.2前饋神經網絡
6.3 深度學習6.4卷積神經網絡
6.5 生成對抗網絡6.6 深度強化學習6.7 小結
2023/10/2015一般的前饋網絡包括一個輸入層和一個輸出層,若干隱單元。隱單元可以分層也可以不分層,若分層,則稱為多層前饋網絡。網絡的輸入、輸出神經元其激活函數(shù)一般取為線性函數(shù),而隱單元則為非線性函數(shù)。單層感知器模型。前饋網絡的輸入單元從外部環(huán)境中接受信號,經處理將輸出信號加權后傳給其投射域中的神經元,網絡中的隱含單元或輸出單元
從其接受域中接受凈輸入(其中
表示單元
的輸出),然后向它的投射域
發(fā)送輸出信號
可以為任意的可微函數(shù),一般常用的為
前饋神經網絡史忠植人工智能導論:神經網絡與深度學習2023/10/2016感知機神經網絡的基本處理單元為人工神經元,在1943年,麥克洛奇和皮茲定義了在簡單的人工神經元模型,稱為M-P模型。它的一般模型可以用下圖描述:史忠植人工智能導論:神經網絡與深度學習17神經元單元由多個輸入xi,i=1,2,...,n和一個輸出y組成。中間狀態(tài)由輸入信號的權和表示,而輸出為
式中,
j為神經元單元的偏置(閾值),wji為連接權系數(shù)。n為輸入信號數(shù)目,yj為神經元輸出,t為時間,f()為輸出變換函數(shù)。神經元模型2023/10/20史忠植人工智能導論:神經網絡與深度學習18(a)xf(x)1x00(c)xf(x)1-1
(b)f(x)x1
0神經元激勵函數(shù)(a)二值函數(shù)(b)S形函數(shù)(c)雙曲正切函數(shù)2023/10/20史忠植人工智能導論:神經網絡與深度學習2023/10/2019凈輸入:輸出:ojx1-1xn…單層感知機史忠植人工智能導論:神經網絡與深度學習2023/10/2020單層感知機模型前饋神經網絡j=1,2,…,m
史忠植人工智能導論:神經網絡與深度學習2023/10/20感知機的功能(1)設輸入向量X=(x1,x2)T輸出:則由方程w1jx1+w2jx2-Tj=0
確定了二維平面上的一條分界線。單層感知機史忠植人工智能導論:神經網絡與深度學習212023/10/2022感知機的功能單層感知機史忠植人工智能導論:神經網絡與深度學習2023/10/2023感知機的功能(2)設輸入向量X=(x1,x2,x3)T輸出:則由方程w1jx1+w2jx2+w3j
x3–Tj=0確定了三維空間上的一個分界平面。單層感知機史忠植人工智能導論:神經網絡與深度學習2023/10/2024感知機的功能單層感知機史忠植人工智能導論:神經網絡與深度學習2023/10/2025多層感知機x1o1輸出層隱藏層輸入層x2o2omxn…………………W(1)W(2)W(3)W(L)網絡的拓撲結構史忠植人工智能導論:神經網絡與深度學習2023/10/2026雙層感知器“異或”問題分類用兩計算層感知器解決“異或”問題。“異或”的真值表x1x2y1y2o001011100111多層感知機史忠植人工智能導論:神經網絡與深度學習2023/10/2027雙層感知器“異或”問題分類用兩計算層感知器解決“異或”問題?!爱惢颉钡恼嬷当矶鄬痈兄獧Cx1x2y1y2o001010101111史忠植人工智能導論:神經網絡與深度學習2023/10/2028雙層感知器“異或”問題分類用兩計算層感知器解決“異或”問題?!爱惢颉钡恼嬷当矶鄬痈兄獧Cx1x2y1y2o0011011010011111史忠植人工智能導論:神經網絡與深度學習2023/10/2029雙層感知器“異或”問題分類用兩計算層感知器解決“異或”問題?!爱惢颉钡恼嬷当矶鄬痈兄獧Cx1x2y1y2o00110011011001111110史忠植人工智能導論:神經網絡與深度學習2023/10/2030具有不同隱層數(shù)的感知器的分類能力對比多層感知機史忠植人工智能導論:神經網絡與深度學習2023/10/2031基于BP算法的多層前饋網絡模型誤差反向傳播(BP)網路史忠植人工智能導論:神經網絡與深度學習2023/10/2032基于BP算法的多層前饋網絡模型輸入向量:
X=(x1,x2,…,xi,…,xn)T隱層輸出向量:
Y=(y1,y2,…,yj,…,ym)T輸出層輸出向量:
O=(o1,o2,…,ok,…,ol)T期望輸出向量:d=(d1,d2,…,dk,…,dl)T輸入層到隱層之間的權值矩陣:V=(V1,V2,…,Vj,…,Vm)隱層到輸出層之間的權值矩陣:W=(W1,W2,…,Wk,…,Wl)誤差反向傳播(BP)網路史忠植人工智能導論:神經網絡與深度學習2023/10/2033基于BP算法的多層前饋網絡模型對于輸出層:k=1,2,…,lk=1,2,…,l對于隱層:j=1,2,…,mj=1,2,…,m誤差反向傳播(BP)網路史忠植人工智能導論:神經網絡與深度學習2023/10/2034基于BP算法的多層前饋網絡模型雙極性Sigmoid函數(shù):單極性Sigmoid函數(shù):誤差反向傳播(BP)網路史忠植人工智能導論:神經網絡與深度學習2023/10/2035網絡誤差定義與權值調整思路輸出誤差E定義:將以上誤差定義式展開至隱層:BP學習算法史忠植人工智能導論:神經網絡與深度學習2023/10/2036網絡誤差與權值調整進一步展開至輸入層:BP學習算法史忠植人工智能導論:神經網絡與深度學習2023/10/2037BP學習算法j=0,1,2,…,m;k=1,2,…,li=0,1,2,…,n;j=1,2,…,m式中負號表示梯度下降,常數(shù)η∈(0,1)表示比例系數(shù)。在全部推導過程中,對輸出層有j=0,1,2,…,m;k=1,2,…,l對隱層有i=0,1,2,…,n;j=1,2,…,mBP學習算法史忠植人工智能導論:神經網絡與深度學習2023/10/2038對于輸出層,式(3.4.9a)可寫為對隱層,式(3.4.9b)可寫為對輸出層和隱層各定義一個誤差信號,令
(3.4.11a)yjxiBP算法推導史忠植人工智能導論:神經網絡與深度學習2023/10/2039(1)初始化;
(4)計算各層誤差信號;
(5)調整各層權值;
(6)檢查是否對所有樣本完成一次輪訓;(7)檢查網絡總誤差是否達到精度要求。(2)輸入訓練樣本對X
Xp、d
dp計算各層輸出;(3)計算網絡輸出誤差;BP算法的程序實現(xiàn)史忠植人工智能導論:神經網絡與深度學習2023/10/2040然后根據(jù)總誤差計算各層的誤差信號并調整權值。
另一種方法是在所有樣本輸入之后,計算網絡的總誤差:BP算法的程序實現(xiàn)史忠植人工智能導論:神經網絡與深度學習41該醫(yī)療診斷系統(tǒng)只考慮6種癥狀、2種疾病、3種治療方案癥狀:對每一癥狀采集三種信息—有(1)、無(-1)、沒有記錄(0)疾?。簩γ恳患膊〔杉N信息—有(1)、無(-1)、沒有記錄(0)治療方案:對每一治療方案采集兩種信息—是、否每個病人的信息構成一個訓練樣例,用一批訓練樣例對網絡進行訓練(BP算法),假設得到的是如圖所示的神經網絡x1-x6為癥狀(輸入)x7,x8為疾病名x9,x10,x11為治療方案(輸出)基于BP網絡的醫(yī)療診斷系統(tǒng)2023/10/20史忠植人工智能導論:神經網絡與深度學習42基于BP網絡的醫(yī)療診斷系統(tǒng)2023/10/20史忠植人工智能導論:神經網絡與深度學習2023/10/2043標準的BP算法在應用中暴露出不少內在的缺陷:⑴
易形成局部極小而得不到全局最優(yōu);⑵訓練次數(shù)多使得學習效率低,收斂速度慢;⑶隱節(jié)點的選取缺乏理論指導;⑷訓練時學習新樣本有遺忘舊樣本的趨勢。針對上述問題,國內外已提出不少有效的改進算法,下面僅介紹其中3種較常用的方法。BP算法的改進史忠植人工智能導論:神經網絡與深度學習2023/10/20441增加動量項α為動量系數(shù),一般有α∈(0,1)2自適應調節(jié)學習率
設一初始學習率,若經過一批次權值調整后使總誤差↑,則本次調整無效,且
=β
(β<1);若經過一批次權值調整后使總誤差↓,則本次調整有效,且
=θ
(θ>1)。標準BP算法的改進史忠植人工智能導論:神經網絡與深度學習2023/10/20453引入陡度因子
實現(xiàn)這一思路的具體作法是,在原轉移函數(shù)中引入一個陡度因子λ標準BP算法的改進史忠植人工智能導論:神經網絡與深度學習2023/10/20史忠植人工智能導論:神經網絡與深度學習46內容提要6.1概述
6.2前饋神經網絡
6.3 深度學習6.4卷積神經網絡
6.5 生成對抗網絡6.6 深度強化學習6.7 小結
定義1:是一類機器學習技術,利用多層次的非線性信息處理的監(jiān)督或無監(jiān)督的特征提取和轉換,并進行模式分析和分類。定義2:機器學習中的子領域,基于學習算法對數(shù)據(jù)之間的多層次復雜關系建模。更高層次的特征和概念由較低層次定義,這種分層特征被稱為深度架構。這些模型大多是基于無監(jiān)督學習?!埃ňS基百科上的”深度學習“2012年3月)。定義3:“深度學習是機器學習研究的一個新領域,它已經推出了與移動機器學習更接近的目標。深度學習是學習多層次的表示和抽象,有助于得到圖像、聲音和文字數(shù)據(jù)的語義?!耙?lisa-lab/DeepLearningTutorials深度學習2023/10/2047史忠植人工智能導論:神經網絡與深度學習深度學習2023/10/20史忠植人工智能導論:神經網絡與深度學習482006年,Hinton和他的學生Salakhutdinov在《科學》上發(fā)表了一篇文章,開啟了深度學習在學術界和工業(yè)界的浪潮50428JULY2006VOL313SCIENCEReducingtheDimensionalityofDatawithNeuralNetworksG.E.Hinton*andR.R.SalakhutdinovHigh-dimensionaldatacanbeconvertedtolow-dimensionalcodesbytrainingamultilayerneuralnetworkwithasmallcentrallayertoreconstructhigh-dimensionalinputvectors.Gradientdescentcanbeusedforfine-tuningtheweightsinsuch‘‘autoencoder’’networks,butthisworkswellonlyiftheinitialweightsareclosetoagoodsolution.Wedescribeaneffectivewayofinitializingtheweightsthatallowsdeepautoencodernetworkstolearnlow-dimensionalcodesthatworkmuchbetterthanprincipalcomponentsanalysisasatooltoreducethedimensionalityofdata.人腦視覺機理2023/10/2049史忠植人工智能導論:神經網絡與深度學習視覺通路2023/10/2050史忠植人工智能導論:神經網絡與深度學習視覺從V1到IT四層2023/10/2051史忠植人工智能導論:神經網絡與深度學習posteriorinferotemporalcentralinferotemporalanteriorinferotemporal前顳葉皮層中顳葉皮層后顳葉皮層自編碼神經網絡2023/10/20史忠植人工智能導論:神經網絡與深度學習52自編碼神經網絡受限玻爾茲曼機受限玻耳茲曼機(restrictedBoltzmannmachine,RBM)是一個單層的隨機神經網絡(通常我們不把輸入層計算在神經網絡的層數(shù)里),本質上是一個概率圖模型。輸入層與隱層之間是全連接,但層內神經元之間沒有相互連接。每個神經元要么激活(值為1)要么不激活(值為0),激活的概率滿足sigmoid函數(shù)。hiddenijvisible2023/10/2053史忠植人工智能導論:神經網絡與深度學習深度信念網絡2006年,欣頓等提出了一種深度信念網絡(deepbeliefnets,DBN。一個深度神經網絡模型可被視為由若干個RBM堆疊在一起,這樣一來,在訓練的時候,就可以通過由低到高逐層訓練這些RBM來實現(xiàn)。2023/10/2054史忠植人工智能導論:神經網絡與深度學習深度信念網絡2023/10/2055史忠植人工智能導論:神經網絡與深度學習2023/10/20史忠植人工智能導論:神經網絡與深度學習56內容提要6.1概述
6.2前饋神經網絡
6.3 深度學習6.4卷積神經網絡
6.5 生成對抗網絡6.6 深度強化學習6.7 小結
卷積神經網絡卷積神經網絡是人工神經網絡的一種,已成為當前語音分析和圖像識別領域的研究熱點。它的權值共享網絡結構使之更類似于生物神經網絡,降低了網絡模型的復雜度,減少了權值的數(shù)量。該優(yōu)點在網絡的輸入是多維圖像時表現(xiàn)的更為明顯,使圖像可以直接作為網絡的輸入,避免了傳統(tǒng)識別算法中復雜的特征提取和數(shù)據(jù)重建過程。卷積網絡是為識別二維形狀而特殊設計的一個多層感知器,這種網絡結構對平移、比例縮放、傾斜或者共他形式的變形具有高度不變性。2023/10/20史忠植人工智能導論:神經網絡與深度學習57卷積神經網絡卷積神經網絡的網絡結構卷積神經網絡是一個多層的神經網絡,每層由多個二維平面組成,而每個平面由多個獨立神經元組成。輸入圖像通過和三個可訓練的濾波器和可加偏置進行卷積,卷積后在C1層產生三個特征映射圖,然后特征映射圖中每組的四個像素再進行求和,加權值,加偏置,得到三個S2層的特征映射圖。這些映射圖再進過濾波得到C3層。這個層級結構再和S2一樣產生S4。最終,這些像素值被光柵化,并連接成一個向量輸入到傳統(tǒng)的神經網絡,得到輸出。2023/10/20史忠植人工智能導論:神經網絡與深度學習58卷積神經網絡C層為特征提取層,每個神經元的輸入與前一層的局部感受野相連,并提取該局部的特征;S層是特征映射層,網絡的每個計算層由多個特征映射組成,每個特征映射為一個平面,平面上所有神經元的權值相等。
卷積神經網絡中的每一個特征提取層(C-層)都緊跟著一個用來求局部平均與二次提取的計算層(S-層),這種特有的兩次特征提取結構使網絡在識別時對輸入樣本有較高的畸變容忍能力。2023/10/20史忠植人工智能導論:神經網絡與深度學習59典型實例
一種典型的用來識別數(shù)字的卷積網絡是LeNet-5。當年美國大多數(shù)銀行就是用它來識別支票上面的手寫數(shù)字的。能夠達到這種商用的地步,它的準確性可想而知。2023/10/20史忠植人工智能導論:神經網絡與深度學習60典型實例
LeNet-5共有7層,不包含輸入,每層都包含可訓練參數(shù)(連接權重)。輸入圖像為32*32大小。這樣做的原因是希望潛在的明顯特征如筆畫斷電或角點能夠出現(xiàn)在最高層特征監(jiān)測子感受野的中心。
2023/10/20史忠植人工智能導論:神經網絡與深度學習61典型實例
C1層是一個卷積層(通過卷積運算,可以使原信號特征增強,并且降低噪音),由6個特征圖FeatureMap構成。特征圖中每個神經元與輸入中5*5的鄰域相連。特征圖的大小為28*28,這樣能防止輸入的連接掉到邊界之外。C1有156個可訓練參數(shù)(每個濾波器5*5=25個unit參數(shù)和一個bias參數(shù),一共6個濾波器,共(5*5+1)*6=156個參數(shù)),共156*(28*28)=122,304個連接。2023/10/20史忠植人工智能導論:神經網絡與深度學習62典型實例
S2層是一個下采樣層(對圖像進行子抽樣,可以減少數(shù)據(jù)處理量同時保留有用信息),有6個14*14的特征圖。特征圖中的每個單元與C1中相對應特征圖的2*2鄰域相連接。S2層每個單元的4個輸入相加,乘以一個可訓練參數(shù),再加上一個可訓練偏置。每個單元的2*2感受野并不重疊,因此S2中每個特征圖的大小是C1中特征圖大小的1/4(行和列各1/2)。S2層有(6*(1+1))12個可訓練參數(shù)和5880個連接。2023/10/20史忠植人工智能導論:神經網絡與深度學習63典型實例C3層也是一個卷積層,它同樣通過5x5的卷積核去卷積層S2,然后得到的特征map就只有10x10個神經元,但是它有16種不同的卷積核,所以就存在16個特征map了。這里需要注意的一點是:C3中的每個特征map是連接到S2中的所有6個或者幾個特征map的,表示本層的特征map是上一層提取到的特征map的不同組合(這個做法也并不是唯一的)。(看到沒有,這里是組合,就像之前聊到的人的視覺系統(tǒng)一樣,底層的結構構成上層更抽象的結構,例如邊緣構成形狀或者目標的部分)。2023/10/20史忠植人工智能導論:神經網絡與深度學習64典型實例
剛才說C3中每個特征圖由S2中所有6個或者幾個特征map組合而成。為什么不把S2中的每個特征圖連接到每個C3的特征圖呢?原因有2點。第一,不完全的連接機制將連接的數(shù)量保持在合理的范圍內。第二,也是最重要的,使不同的特征圖有不同的輸入,迫使他們抽取不同的特征(希望是互補的)。例如,存在的一個方式是:C3的前6個特征圖以S2中3個相鄰的特征圖子集為輸入。接下來6個特征圖以S2中4個相鄰特征圖子集為輸入。然后的3個以不相鄰的4個特征圖子集為輸入。最后一個將S2中所有特征圖為輸入。這樣C3層有1516個可訓練參數(shù)和151600個連接。2023/10/20史忠植人工智能導論:神經網絡與深度學習65典型實例
S4層是一個下采樣層,由16個5*5大小的特征圖構成。特征圖中的每個單元與C3中相應特征圖的2*2鄰域相連接,跟C1和S2之間的連接一樣。S4層有32(16*(1+1))個可訓練參數(shù)(每個特征圖1個因子和一個偏置)和2000個連接。
C5層是一個卷積層,有120個特征圖。每個單元與S4層的全部16個單元的5*5鄰域相連。由于S4層特征圖的大小也為5*5(同濾波器一樣),故C5特征圖的大小為1*1:這構成了S4和C5之間的全連接。C5層有48120(120*401(16*5*5+1))個可訓練連接。
F6層有84個單元(之所以選這個數(shù)字的原因來自于輸出層的設計),與C5層全相連。有10164(84*121(120+1))個可訓練參數(shù)。如同經典神經網絡,F(xiàn)6層計算輸入向量和權重向量之間的點積,再加上一個偏置。然后將其傳遞給sigmoid函數(shù)產生單元i的一個狀態(tài)。2023/10/20史忠植人工智能導論:神經網絡與深度學習66典型實例輸出層由歐式徑向基函數(shù)(EuclideanRadialBasisFunction)(徑向基函數(shù)是一個取值僅僅依賴于離原點距離的實值函數(shù),歐氏距離是其中一個實例)單元組成,每類一個單元,每個有84個輸入。換句話說,每個輸出RBF單元計算輸入向量和參數(shù)向量之間的歐式距離。輸入離參數(shù)向量越遠,RBF輸出越大。一個RBF輸出可以被理解為衡量輸入模式和與RBF相關聯(lián)類的一個模型的匹配程度的懲罰項。這些單元的參數(shù)是人工選取并保持固定的(至少初始時候如此)。這些參數(shù)向量的成分被設為-1或1。雖然這些參數(shù)可以以-1和1等概率的方式任選,或者構成一個糾錯碼,但是被設計成一個相應字符類的7*12大?。?4)的格式化圖片。這種表示對識別單獨的數(shù)字不是很有用,但是對識別可打印ASCII集中的字符串很有用。2023/10/20史忠植人工智能導論:神經網絡與深度學習67卷積神經網絡的優(yōu)點
卷積神經網絡CNN主要用來識別位移、縮放及其他形式扭曲不變性的二維圖形。由于CNN的特征檢測層通過訓練數(shù)據(jù)進行學習,所以在使用CNN時,避免了顯式的特征抽取,而隱式地從訓練數(shù)據(jù)中進行學習;再者由于同一特征映射面上的神經元權值相同,所以網絡可以并行學習,這也是卷積網絡相對于神經元彼此相連網絡的一大優(yōu)勢。2023/10/20史忠植人工智能導論:神經網絡與深度學習68卷積神經網絡的優(yōu)點它可以直接處理灰度圖片,能夠直接用于處理基于圖像的分類。卷積網絡較一般神經網絡在圖像處理方面有如下優(yōu)點:a)輸入圖像和網絡的拓撲結構能很好的吻合;b)特征提取和模式分類同時進行,并同時在訓練中產生;c)權重共享可以減少網絡的訓練參數(shù),使神經網絡結構變得更簡單,適應性更強。2023/10/20史忠植人工智能導論:神經網絡與深度學習692023/10/20史忠植人工智能導論:神經網絡與深度學習70內容提要6.1概述
6.2前饋神經網絡
6.3 深度學習6.4卷積神經網絡
6.5 生成對抗網絡6.6 深度強化學習6.7 小結
生成對抗網絡2023/10/2071史忠植人工智能導論:神經網絡與深度學習無論是DBN還是CNN,其多隱層堆疊、每層對上一層的輸出進行處理的機制,可看作是在對輸入信號進行逐層加工,從而把初始的、與輸出目標之間聯(lián)系不太密切的輸入表示,轉化成與輸出目標聯(lián)系更密切的表示,使得原來僅基于最后一層輸出映射難以完成的任務成為可能。以往在機器學習用于現(xiàn)實任務時,描述樣本的特征通常需由人類專家來設計,這稱為“特征工程”(featureengineering)眾所周知,特征的好壞對泛化性能有至關重要的影響,人類專家設計出好特征也并非易事。生成對抗網絡2023/10/2072史忠植人工智能導論:神經網絡與深度學習生成對抗網絡相比于其他生成式模型,有兩大特點:
1.不依賴任何先驗假設。傳統(tǒng)的許多方法會假設數(shù)據(jù)服從某一分布,然后使用極大似然去估計數(shù)據(jù)分布。2.生成real-like樣本的方式非常簡單。GAN生成real-like樣本的方式通過生成器(Generator)的前向傳播,而傳統(tǒng)方法的采樣方式非常復雜生成對抗網絡2023/10/2073史忠植人工智能導論:神經網絡與深度學習2023/10/20史忠植人工智能導論:神經網絡與深度學習74內容提要6.1概述
6.2前饋神經網絡
6.3 深度學習6.4卷積神經網絡
6.5 生成對抗網絡6.6 深度強化學習6.7 小結
深度強化學習2023/10/2075史忠植人工智能導論:神經網絡與深度學習在很多的應用場景中,通過人工標注的方式來給數(shù)據(jù)打標簽的方式往往行不通。比如我們通過監(jiān)督學習來訓練一個模型可以來自動下圍棋,就需要將當前棋盤的狀態(tài)作為輸入數(shù)據(jù),其對應的最佳落子位置(動作)作為標簽。訓練一個好的模型就需要收集大量的不同棋盤狀態(tài)以及對應動作。這種做法實踐起來比較困難,一是對于每一種棋盤狀態(tài),即使是專家也很難給出“正確”的動作,二是獲取大量數(shù)據(jù)的成本往往比較高。對于下棋這類任務,雖然我們很難知道每一步的“正確”動作,但
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
- 4. 未經權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
- 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
- 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 第八單元課題3金屬資源的利用和保護教學設計-2024-2025學年九年級化學人教版(2024)下冊
- 2025年??谑袉握新殬I(yè)適應性測試題庫及參考答案
- 教師職業(yè)道德與學前教育政策法規(guī) 教案 4. 幼兒教師職業(yè)倦怠與心理健康維護
- 第19章 平面直角坐標系 回顧反思2024-2025學年八年級下冊數(shù)學同步教學設計(冀教版)
- 第六單元 活動二《增加對抗角色》教學設計 2023-2024學年滬科版(2023)初中信息技術九年級下冊
- 八年級下冊數(shù)學北師大版第四單元復習教學設計教案1
- 16《水蒸發(fā)》教學設計-2024-2025學年青島版小學科學四年級上冊
- 2024云南普洱綜交運輸服務有限公司駕駛員招聘10人筆試參考題庫附帶答案詳解
- 2025年湖北藝術職業(yè)學院單招職業(yè)技能測試題庫必考題
- 2025年湖南環(huán)境生物職業(yè)技術學院單招職業(yè)技能測試題庫一套
- CT報告單模板
- 吹灰器檢修三措兩案
- 足球比賽計分表(共6頁)
- 軸承專用中英文對照表 (完整版)
- 了解現(xiàn)代漢字字義的特點根據(jù)形旁的表義ppt課件
- 人教版小學數(shù)學四年級下冊教材分析ppt課件
- 嵩晟富氫水銷售方案ppt課件
- 貴人登天門吉時速查表(精編版)
- 廣州正佳廣場平面圖1880414120.ppt
- 藥物療法和過敏試驗法護理學基礎
- 物流運籌學課程標準
評論
0/150
提交評論