AI06人工神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)_第1頁(yè)
AI06人工神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)_第2頁(yè)
AI06人工神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)_第3頁(yè)
AI06人工神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)_第4頁(yè)
AI06人工神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)_第5頁(yè)
已閱讀5頁(yè),還剩80頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

人工智能導(dǎo)論

Introduction

toArtificialIntelligence

第六章史忠植

中國(guó)科學(xué)院計(jì)算技術(shù)研究所/2023/10/20史忠植人工智能導(dǎo)論:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)1人工神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)ArtificialNeuralNetworksandDeepLearning2023/10/20史忠植人工智能導(dǎo)論:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)2內(nèi)容提要6.1概述

6.2前饋神經(jīng)網(wǎng)絡(luò)

6.3 深度學(xué)習(xí)6.4卷積神經(jīng)網(wǎng)絡(luò)

6.5 生成對(duì)抗網(wǎng)絡(luò)6.6 深度強(qiáng)化學(xué)習(xí)6.7 小結(jié)

2023/10/203神經(jīng)網(wǎng)絡(luò)神經(jīng)網(wǎng)絡(luò)(neuralnetworks,NN),也稱作人工神經(jīng)網(wǎng)絡(luò)(artificialneuralnetworks,ANN),或神經(jīng)計(jì)算(neuralcomputing,NC),是對(duì)人腦或生物神經(jīng)網(wǎng)絡(luò)的抽象和建模,具有從環(huán)境學(xué)習(xí)的能力,以類似生物的交互方式適應(yīng)環(huán)境。神經(jīng)網(wǎng)絡(luò)是智能科學(xué)和計(jì)算智能的重要部分,以腦科學(xué)和認(rèn)知神經(jīng)科學(xué)的研究成果為基礎(chǔ),拓展智能信息處理的方法,為解決復(fù)雜問(wèn)題和自動(dòng)控制提供有效的途徑。一個(gè)神經(jīng)網(wǎng)絡(luò)是由簡(jiǎn)單處理元構(gòu)成的規(guī)模宏大的并行分布處理器。天然具有存儲(chǔ)經(jīng)驗(yàn)知識(shí)和使之可用的特性。史忠植人工智能導(dǎo)論:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)2023/10/204發(fā)展歷史

萌芽期(20世紀(jì)40年代)人工神經(jīng)網(wǎng)絡(luò)的研究最早可以追溯到人類開(kāi)始研究自己的智能的時(shí)期,到1949年止。

1943年,心理學(xué)家McCulloch和數(shù)學(xué)家Pitts建立起了著名的閾值加權(quán)和模型,簡(jiǎn)稱為M-P模型。發(fā)表于數(shù)學(xué)生物物理學(xué)會(huì)刊《BulletinofMethematicalBiophysics》

1949年,心理學(xué)家D.O.Hebb提出神經(jīng)元之間突觸聯(lián)系是可變的假說(shuō)——Hebb學(xué)習(xí)律。史忠植人工智能導(dǎo)論:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)2023/10/205發(fā)展歷史第一高潮期(1950~1968)

以MarvinMinsky,F(xiàn)rankRosenblatt,BernardWidrow等為代表人物,代表作是單級(jí)感知器(Perceptron)。

可用電子線路模擬。

人們樂(lè)觀地認(rèn)為幾乎已經(jīng)找到了智能的關(guān)鍵。許多部門(mén)都開(kāi)始大批地投入此項(xiàng)研究,希望盡快占領(lǐng)制高點(diǎn)。史忠植人工智能導(dǎo)論:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)2023/10/206發(fā)展歷史反思期(1969~1982)

M.L.Minsky和S.Papert,《Perceptron》,MITPress,1969年

異或”運(yùn)算不可表示

二十世紀(jì)70年代和80年代早期的研究結(jié)果史忠植人工智能導(dǎo)論:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)2023/10/207發(fā)展歷史第二高潮期(1983~1990)

1982年,J.Hopfield提出Hopfield網(wǎng)絡(luò)用Lyapunov函數(shù)作為網(wǎng)絡(luò)性能判定的能量函數(shù),建立ANN穩(wěn)定性的判別依據(jù)闡明了ANN與動(dòng)力學(xué)的關(guān)系用非線性動(dòng)力學(xué)的方法來(lái)研究ANN的特性指出信息被存放在網(wǎng)絡(luò)中神經(jīng)元的聯(lián)接上史忠植人工智能導(dǎo)論:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)2023/10/208發(fā)展歷史第二高潮期(1983~1990)

1984年,J.Hopfield設(shè)計(jì)研制了后來(lái)被人們稱為Hopfield網(wǎng)-Tank電路。較好地解決了著名的TSP問(wèn)題,找到了最佳解的近似解,引起了較大的轟動(dòng)。

1985年,UCSD的Hinton、Sejnowsky、Rumelhart等人所在的并行分布處理(PDP)小組的研究者在Hopfield網(wǎng)絡(luò)中引入了隨機(jī)機(jī)制,提出所謂的Boltzmann機(jī)。史忠植人工智能導(dǎo)論:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)2023/10/209發(fā)展歷史

1986年,并行分布處理小組的Rumelhart等研究者重新獨(dú)立地提出多層網(wǎng)絡(luò)的學(xué)習(xí)算法——BP算法,較好地解決了多層網(wǎng)絡(luò)的學(xué)習(xí)問(wèn)題。(Paker1982和Werbos1974年)

自適應(yīng)共振理論(ART)

自組織特征映射理論史忠植人工智能導(dǎo)論:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)2023/10/2010發(fā)展歷史

Hinton等人最近提出了Helmboltz機(jī)

徐雷提出的Ying-Yang機(jī)理論模型

甘利俊一(S.Amari)開(kāi)創(chuàng)和發(fā)展的基于統(tǒng)計(jì)流形的方法應(yīng)用于人工神經(jīng)網(wǎng)絡(luò)的研究,國(guó)內(nèi)首屆神經(jīng)網(wǎng)絡(luò)大會(huì)是1990年12月在北京舉行的。史忠植人工智能導(dǎo)論:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)2023/10/2011神經(jīng)信息處理的基本原理神經(jīng)網(wǎng)絡(luò)是由大量處理單元組成的非線性大規(guī)模自適應(yīng)動(dòng)力系統(tǒng)。它是在現(xiàn)代神經(jīng)科學(xué)研究成果的基礎(chǔ)上提出的,試圖通過(guò)模擬大腦神經(jīng)網(wǎng)絡(luò)處理、記憶信息的方式設(shè)計(jì)一種新的機(jī)器使之具有人腦那樣的信息處理能力。同時(shí),對(duì)這種神經(jīng)網(wǎng)絡(luò)的研究將進(jìn)一步加深對(duì)思維及智能的認(rèn)識(shí)。史忠植人工智能導(dǎo)論:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)2023/10/2012并行分布式理論框架

1986年,美國(guó)加州大學(xué)圣地亞哥分校(UCSD)Rumellhart,McClelland,Hinton:

ParallelandDistributedProcessing,MITPress,Cambridge史忠植人工智能導(dǎo)論:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)2023/10/2013并行分布式理論框架PDP模型1)

一組處理單元(PE或AN)2)

處理單元的激活狀態(tài)(ai)3)

每個(gè)處理單元的輸出函數(shù)(fi)4)

處理單元之間的連接模式5)

傳遞規(guī)則(∑wijoi)6)

把處理單元的輸入及當(dāng)前狀態(tài)結(jié)合起來(lái)產(chǎn)生激

活值的激活規(guī)則(Fi)7)

通過(guò)經(jīng)驗(yàn)修改連接強(qiáng)度的學(xué)習(xí)規(guī)則8)

系統(tǒng)運(yùn)行的環(huán)境(樣本集合)史忠植人工智能導(dǎo)論:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)2023/10/20史忠植人工智能導(dǎo)論:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)14內(nèi)容提要6.1概述

6.2前饋神經(jīng)網(wǎng)絡(luò)

6.3 深度學(xué)習(xí)6.4卷積神經(jīng)網(wǎng)絡(luò)

6.5 生成對(duì)抗網(wǎng)絡(luò)6.6 深度強(qiáng)化學(xué)習(xí)6.7 小結(jié)

2023/10/2015一般的前饋網(wǎng)絡(luò)包括一個(gè)輸入層和一個(gè)輸出層,若干隱單元。隱單元可以分層也可以不分層,若分層,則稱為多層前饋網(wǎng)絡(luò)。網(wǎng)絡(luò)的輸入、輸出神經(jīng)元其激活函數(shù)一般取為線性函數(shù),而隱單元?jiǎng)t為非線性函數(shù)。單層感知器模型。前饋網(wǎng)絡(luò)的輸入單元從外部環(huán)境中接受信號(hào),經(jīng)處理將輸出信號(hào)加權(quán)后傳給其投射域中的神經(jīng)元,網(wǎng)絡(luò)中的隱含單元或輸出單元

從其接受域中接受凈輸入(其中

表示單元

的輸出),然后向它的投射域

發(fā)送輸出信號(hào)

可以為任意的可微函數(shù),一般常用的為

前饋神經(jīng)網(wǎng)絡(luò)史忠植人工智能導(dǎo)論:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)2023/10/2016感知機(jī)神經(jīng)網(wǎng)絡(luò)的基本處理單元為人工神經(jīng)元,在1943年,麥克洛奇和皮茲定義了在簡(jiǎn)單的人工神經(jīng)元模型,稱為M-P模型。它的一般模型可以用下圖描述:史忠植人工智能導(dǎo)論:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)17神經(jīng)元單元由多個(gè)輸入xi,i=1,2,...,n和一個(gè)輸出y組成。中間狀態(tài)由輸入信號(hào)的權(quán)和表示,而輸出為

式中,

j為神經(jīng)元單元的偏置(閾值),wji為連接權(quán)系數(shù)。n為輸入信號(hào)數(shù)目,yj為神經(jīng)元輸出,t為時(shí)間,f()為輸出變換函數(shù)。神經(jīng)元模型2023/10/20史忠植人工智能導(dǎo)論:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)18(a)xf(x)1x00(c)xf(x)1-1

(b)f(x)x1

0神經(jīng)元激勵(lì)函數(shù)(a)二值函數(shù)(b)S形函數(shù)(c)雙曲正切函數(shù)2023/10/20史忠植人工智能導(dǎo)論:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)2023/10/2019凈輸入:輸出:ojx1-1xn…單層感知機(jī)史忠植人工智能導(dǎo)論:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)2023/10/2020單層感知機(jī)模型前饋神經(jīng)網(wǎng)絡(luò)j=1,2,…,m

史忠植人工智能導(dǎo)論:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)2023/10/20感知機(jī)的功能(1)設(shè)輸入向量X=(x1,x2)T輸出:則由方程w1jx1+w2jx2-Tj=0

確定了二維平面上的一條分界線。單層感知機(jī)史忠植人工智能導(dǎo)論:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)212023/10/2022感知機(jī)的功能單層感知機(jī)史忠植人工智能導(dǎo)論:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)2023/10/2023感知機(jī)的功能(2)設(shè)輸入向量X=(x1,x2,x3)T輸出:則由方程w1jx1+w2jx2+w3j

x3–Tj=0確定了三維空間上的一個(gè)分界平面。單層感知機(jī)史忠植人工智能導(dǎo)論:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)2023/10/2024感知機(jī)的功能單層感知機(jī)史忠植人工智能導(dǎo)論:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)2023/10/2025多層感知機(jī)x1o1輸出層隱藏層輸入層x2o2omxn…………………W(1)W(2)W(3)W(L)網(wǎng)絡(luò)的拓?fù)浣Y(jié)構(gòu)史忠植人工智能導(dǎo)論:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)2023/10/2026雙層感知器“異或”問(wèn)題分類用兩計(jì)算層感知器解決“異或”問(wèn)題?!爱惢颉钡恼嬷当韝1x2y1y2o001011100111多層感知機(jī)史忠植人工智能導(dǎo)論:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)2023/10/2027雙層感知器“異或”問(wèn)題分類用兩計(jì)算層感知器解決“異或”問(wèn)題?!爱惢颉钡恼嬷当矶鄬痈兄獧C(jī)x1x2y1y2o001010101111史忠植人工智能導(dǎo)論:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)2023/10/2028雙層感知器“異或”問(wèn)題分類用兩計(jì)算層感知器解決“異或”問(wèn)題?!爱惢颉钡恼嬷当矶鄬痈兄獧C(jī)x1x2y1y2o0011011010011111史忠植人工智能導(dǎo)論:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)2023/10/2029雙層感知器“異或”問(wèn)題分類用兩計(jì)算層感知器解決“異或”問(wèn)題。“異或”的真值表多層感知機(jī)x1x2y1y2o00110011011001111110史忠植人工智能導(dǎo)論:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)2023/10/2030具有不同隱層數(shù)的感知器的分類能力對(duì)比多層感知機(jī)史忠植人工智能導(dǎo)論:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)2023/10/2031基于BP算法的多層前饋網(wǎng)絡(luò)模型誤差反向傳播(BP)網(wǎng)路史忠植人工智能導(dǎo)論:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)2023/10/2032基于BP算法的多層前饋網(wǎng)絡(luò)模型輸入向量:

X=(x1,x2,…,xi,…,xn)T隱層輸出向量:

Y=(y1,y2,…,yj,…,ym)T輸出層輸出向量:

O=(o1,o2,…,ok,…,ol)T期望輸出向量:d=(d1,d2,…,dk,…,dl)T輸入層到隱層之間的權(quán)值矩陣:V=(V1,V2,…,Vj,…,Vm)隱層到輸出層之間的權(quán)值矩陣:W=(W1,W2,…,Wk,…,Wl)誤差反向傳播(BP)網(wǎng)路史忠植人工智能導(dǎo)論:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)2023/10/2033基于BP算法的多層前饋網(wǎng)絡(luò)模型對(duì)于輸出層:k=1,2,…,lk=1,2,…,l對(duì)于隱層:j=1,2,…,mj=1,2,…,m誤差反向傳播(BP)網(wǎng)路史忠植人工智能導(dǎo)論:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)2023/10/2034基于BP算法的多層前饋網(wǎng)絡(luò)模型雙極性Sigmoid函數(shù):?jiǎn)螛O性Sigmoid函數(shù):誤差反向傳播(BP)網(wǎng)路史忠植人工智能導(dǎo)論:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)2023/10/2035網(wǎng)絡(luò)誤差定義與權(quán)值調(diào)整思路輸出誤差E定義:將以上誤差定義式展開(kāi)至隱層:BP學(xué)習(xí)算法史忠植人工智能導(dǎo)論:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)2023/10/2036網(wǎng)絡(luò)誤差與權(quán)值調(diào)整進(jìn)一步展開(kāi)至輸入層:BP學(xué)習(xí)算法史忠植人工智能導(dǎo)論:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)2023/10/2037BP學(xué)習(xí)算法j=0,1,2,…,m;k=1,2,…,li=0,1,2,…,n;j=1,2,…,m式中負(fù)號(hào)表示梯度下降,常數(shù)η∈(0,1)表示比例系數(shù)。在全部推導(dǎo)過(guò)程中,對(duì)輸出層有j=0,1,2,…,m;k=1,2,…,l對(duì)隱層有i=0,1,2,…,n;j=1,2,…,mBP學(xué)習(xí)算法史忠植人工智能導(dǎo)論:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)2023/10/2038對(duì)于輸出層,式(3.4.9a)可寫(xiě)為對(duì)隱層,式(3.4.9b)可寫(xiě)為對(duì)輸出層和隱層各定義一個(gè)誤差信號(hào),令

(3.4.11a)yjxiBP算法推導(dǎo)史忠植人工智能導(dǎo)論:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)2023/10/2039(1)初始化;

(4)計(jì)算各層誤差信號(hào);

(5)調(diào)整各層權(quán)值;

(6)檢查是否對(duì)所有樣本完成一次輪訓(xùn);(7)檢查網(wǎng)絡(luò)總誤差是否達(dá)到精度要求。(2)輸入訓(xùn)練樣本對(duì)X

Xp、d

dp計(jì)算各層輸出;(3)計(jì)算網(wǎng)絡(luò)輸出誤差;BP算法的程序?qū)崿F(xiàn)史忠植人工智能導(dǎo)論:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)2023/10/2040然后根據(jù)總誤差計(jì)算各層的誤差信號(hào)并調(diào)整權(quán)值。

另一種方法是在所有樣本輸入之后,計(jì)算網(wǎng)絡(luò)的總誤差:BP算法的程序?qū)崿F(xiàn)史忠植人工智能導(dǎo)論:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)41該醫(yī)療診斷系統(tǒng)只考慮6種癥狀、2種疾病、3種治療方案癥狀:對(duì)每一癥狀采集三種信息—有(1)、無(wú)(-1)、沒(méi)有記錄(0)疾?。簩?duì)每一疾病采集三種信息—有(1)、無(wú)(-1)、沒(méi)有記錄(0)治療方案:對(duì)每一治療方案采集兩種信息—是、否每個(gè)病人的信息構(gòu)成一個(gè)訓(xùn)練樣例,用一批訓(xùn)練樣例對(duì)網(wǎng)絡(luò)進(jìn)行訓(xùn)練(BP算法),假設(shè)得到的是如圖所示的神經(jīng)網(wǎng)絡(luò)x1-x6為癥狀(輸入)x7,x8為疾病名x9,x10,x11為治療方案(輸出)基于BP網(wǎng)絡(luò)的醫(yī)療診斷系統(tǒng)2023/10/20史忠植人工智能導(dǎo)論:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)42基于BP網(wǎng)絡(luò)的醫(yī)療診斷系統(tǒng)2023/10/20史忠植人工智能導(dǎo)論:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)2023/10/2043標(biāo)準(zhǔn)的BP算法在應(yīng)用中暴露出不少內(nèi)在的缺陷:⑴

易形成局部極小而得不到全局最優(yōu);⑵訓(xùn)練次數(shù)多使得學(xué)習(xí)效率低,收斂速度慢;⑶隱節(jié)點(diǎn)的選取缺乏理論指導(dǎo);⑷訓(xùn)練時(shí)學(xué)習(xí)新樣本有遺忘舊樣本的趨勢(shì)。針對(duì)上述問(wèn)題,國(guó)內(nèi)外已提出不少有效的改進(jìn)算法,下面僅介紹其中3種較常用的方法。BP算法的改進(jìn)史忠植人工智能導(dǎo)論:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)2023/10/20441增加動(dòng)量項(xiàng)α為動(dòng)量系數(shù),一般有α∈(0,1)2自適應(yīng)調(diào)節(jié)學(xué)習(xí)率

設(shè)一初始學(xué)習(xí)率,若經(jīng)過(guò)一批次權(quán)值調(diào)整后使總誤差↑,則本次調(diào)整無(wú)效,且

(β<1);若經(jīng)過(guò)一批次權(quán)值調(diào)整后使總誤差↓,則本次調(diào)整有效,且

(θ>1)。標(biāo)準(zhǔn)BP算法的改進(jìn)史忠植人工智能導(dǎo)論:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)2023/10/20453引入陡度因子

實(shí)現(xiàn)這一思路的具體作法是,在原轉(zhuǎn)移函數(shù)中引入一個(gè)陡度因子λ標(biāo)準(zhǔn)BP算法的改進(jìn)史忠植人工智能導(dǎo)論:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)2023/10/20史忠植人工智能導(dǎo)論:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)46內(nèi)容提要6.1概述

6.2前饋神經(jīng)網(wǎng)絡(luò)

6.3 深度學(xué)習(xí)6.4卷積神經(jīng)網(wǎng)絡(luò)

6.5 生成對(duì)抗網(wǎng)絡(luò)6.6 深度強(qiáng)化學(xué)習(xí)6.7 小結(jié)

定義1:是一類機(jī)器學(xué)習(xí)技術(shù),利用多層次的非線性信息處理的監(jiān)督或無(wú)監(jiān)督的特征提取和轉(zhuǎn)換,并進(jìn)行模式分析和分類。定義2:機(jī)器學(xué)習(xí)中的子領(lǐng)域,基于學(xué)習(xí)算法對(duì)數(shù)據(jù)之間的多層次復(fù)雜關(guān)系建模。更高層次的特征和概念由較低層次定義,這種分層特征被稱為深度架構(gòu)。這些模型大多是基于無(wú)監(jiān)督學(xué)習(xí)?!埃ňS基百科上的”深度學(xué)習(xí)“2012年3月)。定義3:“深度學(xué)習(xí)是機(jī)器學(xué)習(xí)研究的一個(gè)新領(lǐng)域,它已經(jīng)推出了與移動(dòng)機(jī)器學(xué)習(xí)更接近的目標(biāo)。深度學(xué)習(xí)是學(xué)習(xí)多層次的表示和抽象,有助于得到圖像、聲音和文字?jǐn)?shù)據(jù)的語(yǔ)義?!耙?jiàn)/lisa-lab/DeepLearningTutorials深度學(xué)習(xí)2023/10/2047史忠植人工智能導(dǎo)論:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)深度學(xué)習(xí)2023/10/20史忠植人工智能導(dǎo)論:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)482006年,Hinton和他的學(xué)生Salakhutdinov在《科學(xué)》上發(fā)表了一篇文章,開(kāi)啟了深度學(xué)習(xí)在學(xué)術(shù)界和工業(yè)界的浪潮50428JULY2006VOL313SCIENCEReducingtheDimensionalityofDatawithNeuralNetworksG.E.Hinton*andR.R.SalakhutdinovHigh-dimensionaldatacanbeconvertedtolow-dimensionalcodesbytrainingamultilayerneuralnetworkwithasmallcentrallayertoreconstructhigh-dimensionalinputvectors.Gradientdescentcanbeusedforfine-tuningtheweightsinsuch‘‘a(chǎn)utoencoder’’networks,butthisworkswellonlyiftheinitialweightsareclosetoagoodsolution.Wedescribeaneffectivewayofinitializingtheweightsthatallowsdeepautoencodernetworkstolearnlow-dimensionalcodesthatworkmuchbetterthanprincipalcomponentsanalysisasatooltoreducethedimensionalityofdata.人腦視覺(jué)機(jī)理2023/10/2049史忠植人工智能導(dǎo)論:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)視覺(jué)通路2023/10/2050史忠植人工智能導(dǎo)論:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)視覺(jué)從V1到IT四層2023/10/2051史忠植人工智能導(dǎo)論:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)posteriorinferotemporalcentralinferotemporalanteriorinferotemporal前顳葉皮層中顳葉皮層后顳葉皮層自編碼神經(jīng)網(wǎng)絡(luò)2023/10/20史忠植人工智能導(dǎo)論:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)52自編碼神經(jīng)網(wǎng)絡(luò)受限玻爾茲曼機(jī)受限玻耳茲曼機(jī)(restrictedBoltzmannmachine,RBM)是一個(gè)單層的隨機(jī)神經(jīng)網(wǎng)絡(luò)(通常我們不把輸入層計(jì)算在神經(jīng)網(wǎng)絡(luò)的層數(shù)里),本質(zhì)上是一個(gè)概率圖模型。輸入層與隱層之間是全連接,但層內(nèi)神經(jīng)元之間沒(méi)有相互連接。每個(gè)神經(jīng)元要么激活(值為1)要么不激活(值為0),激活的概率滿足sigmoid函數(shù)。hiddenijvisible2023/10/2053史忠植人工智能導(dǎo)論:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)深度信念網(wǎng)絡(luò)2006年,欣頓等提出了一種深度信念網(wǎng)絡(luò)(deepbeliefnets,DBN。一個(gè)深度神經(jīng)網(wǎng)絡(luò)模型可被視為由若干個(gè)RBM堆疊在一起,這樣一來(lái),在訓(xùn)練的時(shí)候,就可以通過(guò)由低到高逐層訓(xùn)練這些RBM來(lái)實(shí)現(xiàn)。2023/10/2054史忠植人工智能導(dǎo)論:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)深度信念網(wǎng)絡(luò)2023/10/2055史忠植人工智能導(dǎo)論:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)2023/10/20史忠植人工智能導(dǎo)論:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)56內(nèi)容提要6.1概述

6.2前饋神經(jīng)網(wǎng)絡(luò)

6.3 深度學(xué)習(xí)6.4卷積神經(jīng)網(wǎng)絡(luò)

6.5 生成對(duì)抗網(wǎng)絡(luò)6.6 深度強(qiáng)化學(xué)習(xí)6.7 小結(jié)

卷積神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)是人工神經(jīng)網(wǎng)絡(luò)的一種,已成為當(dāng)前語(yǔ)音分析和圖像識(shí)別領(lǐng)域的研究熱點(diǎn)。它的權(quán)值共享網(wǎng)絡(luò)結(jié)構(gòu)使之更類似于生物神經(jīng)網(wǎng)絡(luò),降低了網(wǎng)絡(luò)模型的復(fù)雜度,減少了權(quán)值的數(shù)量。該優(yōu)點(diǎn)在網(wǎng)絡(luò)的輸入是多維圖像時(shí)表現(xiàn)的更為明顯,使圖像可以直接作為網(wǎng)絡(luò)的輸入,避免了傳統(tǒng)識(shí)別算法中復(fù)雜的特征提取和數(shù)據(jù)重建過(guò)程。卷積網(wǎng)絡(luò)是為識(shí)別二維形狀而特殊設(shè)計(jì)的一個(gè)多層感知器,這種網(wǎng)絡(luò)結(jié)構(gòu)對(duì)平移、比例縮放、傾斜或者共他形式的變形具有高度不變性。2023/10/20史忠植人工智能導(dǎo)論:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)57卷積神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)的網(wǎng)絡(luò)結(jié)構(gòu)卷積神經(jīng)網(wǎng)絡(luò)是一個(gè)多層的神經(jīng)網(wǎng)絡(luò),每層由多個(gè)二維平面組成,而每個(gè)平面由多個(gè)獨(dú)立神經(jīng)元組成。輸入圖像通過(guò)和三個(gè)可訓(xùn)練的濾波器和可加偏置進(jìn)行卷積,卷積后在C1層產(chǎn)生三個(gè)特征映射圖,然后特征映射圖中每組的四個(gè)像素再進(jìn)行求和,加權(quán)值,加偏置,得到三個(gè)S2層的特征映射圖。這些映射圖再進(jìn)過(guò)濾波得到C3層。這個(gè)層級(jí)結(jié)構(gòu)再和S2一樣產(chǎn)生S4。最終,這些像素值被光柵化,并連接成一個(gè)向量輸入到傳統(tǒng)的神經(jīng)網(wǎng)絡(luò),得到輸出。2023/10/20史忠植人工智能導(dǎo)論:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)58卷積神經(jīng)網(wǎng)絡(luò)C層為特征提取層,每個(gè)神經(jīng)元的輸入與前一層的局部感受野相連,并提取該局部的特征;S層是特征映射層,網(wǎng)絡(luò)的每個(gè)計(jì)算層由多個(gè)特征映射組成,每個(gè)特征映射為一個(gè)平面,平面上所有神經(jīng)元的權(quán)值相等。

卷積神經(jīng)網(wǎng)絡(luò)中的每一個(gè)特征提取層(C-層)都緊跟著一個(gè)用來(lái)求局部平均與二次提取的計(jì)算層(S-層),這種特有的兩次特征提取結(jié)構(gòu)使網(wǎng)絡(luò)在識(shí)別時(shí)對(duì)輸入樣本有較高的畸變?nèi)萑棠芰Α?023/10/20史忠植人工智能導(dǎo)論:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)59典型實(shí)例

一種典型的用來(lái)識(shí)別數(shù)字的卷積網(wǎng)絡(luò)是LeNet-5。當(dāng)年美國(guó)大多數(shù)銀行就是用它來(lái)識(shí)別支票上面的手寫(xiě)數(shù)字的。能夠達(dá)到這種商用的地步,它的準(zhǔn)確性可想而知。2023/10/20史忠植人工智能導(dǎo)論:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)60典型實(shí)例

LeNet-5共有7層,不包含輸入,每層都包含可訓(xùn)練參數(shù)(連接權(quán)重)。輸入圖像為32*32大小。這樣做的原因是希望潛在的明顯特征如筆畫(huà)斷電或角點(diǎn)能夠出現(xiàn)在最高層特征監(jiān)測(cè)子感受野的中心。

2023/10/20史忠植人工智能導(dǎo)論:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)61典型實(shí)例

C1層是一個(gè)卷積層(通過(guò)卷積運(yùn)算,可以使原信號(hào)特征增強(qiáng),并且降低噪音),由6個(gè)特征圖FeatureMap構(gòu)成。特征圖中每個(gè)神經(jīng)元與輸入中5*5的鄰域相連。特征圖的大小為28*28,這樣能防止輸入的連接掉到邊界之外。C1有156個(gè)可訓(xùn)練參數(shù)(每個(gè)濾波器5*5=25個(gè)unit參數(shù)和一個(gè)bias參數(shù),一共6個(gè)濾波器,共(5*5+1)*6=156個(gè)參數(shù)),共156*(28*28)=122,304個(gè)連接。2023/10/20史忠植人工智能導(dǎo)論:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)62典型實(shí)例

S2層是一個(gè)下采樣層(對(duì)圖像進(jìn)行子抽樣,可以減少數(shù)據(jù)處理量同時(shí)保留有用信息),有6個(gè)14*14的特征圖。特征圖中的每個(gè)單元與C1中相對(duì)應(yīng)特征圖的2*2鄰域相連接。S2層每個(gè)單元的4個(gè)輸入相加,乘以一個(gè)可訓(xùn)練參數(shù),再加上一個(gè)可訓(xùn)練偏置。每個(gè)單元的2*2感受野并不重疊,因此S2中每個(gè)特征圖的大小是C1中特征圖大小的1/4(行和列各1/2)。S2層有(6*(1+1))12個(gè)可訓(xùn)練參數(shù)和5880個(gè)連接。2023/10/20史忠植人工智能導(dǎo)論:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)63典型實(shí)例C3層也是一個(gè)卷積層,它同樣通過(guò)5x5的卷積核去卷積層S2,然后得到的特征map就只有10x10個(gè)神經(jīng)元,但是它有16種不同的卷積核,所以就存在16個(gè)特征map了。這里需要注意的一點(diǎn)是:C3中的每個(gè)特征map是連接到S2中的所有6個(gè)或者幾個(gè)特征map的,表示本層的特征map是上一層提取到的特征map的不同組合(這個(gè)做法也并不是唯一的)。(看到?jīng)]有,這里是組合,就像之前聊到的人的視覺(jué)系統(tǒng)一樣,底層的結(jié)構(gòu)構(gòu)成上層更抽象的結(jié)構(gòu),例如邊緣構(gòu)成形狀或者目標(biāo)的部分)。2023/10/20史忠植人工智能導(dǎo)論:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)64典型實(shí)例

剛才說(shuō)C3中每個(gè)特征圖由S2中所有6個(gè)或者幾個(gè)特征map組合而成。為什么不把S2中的每個(gè)特征圖連接到每個(gè)C3的特征圖呢?原因有2點(diǎn)。第一,不完全的連接機(jī)制將連接的數(shù)量保持在合理的范圍內(nèi)。第二,也是最重要的,使不同的特征圖有不同的輸入,迫使他們抽取不同的特征(希望是互補(bǔ)的)。例如,存在的一個(gè)方式是:C3的前6個(gè)特征圖以S2中3個(gè)相鄰的特征圖子集為輸入。接下來(lái)6個(gè)特征圖以S2中4個(gè)相鄰特征圖子集為輸入。然后的3個(gè)以不相鄰的4個(gè)特征圖子集為輸入。最后一個(gè)將S2中所有特征圖為輸入。這樣C3層有1516個(gè)可訓(xùn)練參數(shù)和151600個(gè)連接。2023/10/20史忠植人工智能導(dǎo)論:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)65典型實(shí)例

S4層是一個(gè)下采樣層,由16個(gè)5*5大小的特征圖構(gòu)成。特征圖中的每個(gè)單元與C3中相應(yīng)特征圖的2*2鄰域相連接,跟C1和S2之間的連接一樣。S4層有32(16*(1+1))個(gè)可訓(xùn)練參數(shù)(每個(gè)特征圖1個(gè)因子和一個(gè)偏置)和2000個(gè)連接。

C5層是一個(gè)卷積層,有120個(gè)特征圖。每個(gè)單元與S4層的全部16個(gè)單元的5*5鄰域相連。由于S4層特征圖的大小也為5*5(同濾波器一樣),故C5特征圖的大小為1*1:這構(gòu)成了S4和C5之間的全連接。C5層有48120(120*401(16*5*5+1))個(gè)可訓(xùn)練連接。

F6層有84個(gè)單元(之所以選這個(gè)數(shù)字的原因來(lái)自于輸出層的設(shè)計(jì)),與C5層全相連。有10164(84*121(120+1))個(gè)可訓(xùn)練參數(shù)。如同經(jīng)典神經(jīng)網(wǎng)絡(luò),F(xiàn)6層計(jì)算輸入向量和權(quán)重向量之間的點(diǎn)積,再加上一個(gè)偏置。然后將其傳遞給sigmoid函數(shù)產(chǎn)生單元i的一個(gè)狀態(tài)。2023/10/20史忠植人工智能導(dǎo)論:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)66典型實(shí)例輸出層由歐式徑向基函數(shù)(EuclideanRadialBasisFunction)(徑向基函數(shù)是一個(gè)取值僅僅依賴于離原點(diǎn)距離的實(shí)值函數(shù),歐氏距離是其中一個(gè)實(shí)例)單元組成,每類一個(gè)單元,每個(gè)有84個(gè)輸入。換句話說(shuō),每個(gè)輸出RBF單元計(jì)算輸入向量和參數(shù)向量之間的歐式距離。輸入離參數(shù)向量越遠(yuǎn),RBF輸出越大。一個(gè)RBF輸出可以被理解為衡量輸入模式和與RBF相關(guān)聯(lián)類的一個(gè)模型的匹配程度的懲罰項(xiàng)。這些單元的參數(shù)是人工選取并保持固定的(至少初始時(shí)候如此)。這些參數(shù)向量的成分被設(shè)為-1或1。雖然這些參數(shù)可以以-1和1等概率的方式任選,或者構(gòu)成一個(gè)糾錯(cuò)碼,但是被設(shè)計(jì)成一個(gè)相應(yīng)字符類的7*12大小(即84)的格式化圖片。這種表示對(duì)識(shí)別單獨(dú)的數(shù)字不是很有用,但是對(duì)識(shí)別可打印ASCII集中的字符串很有用。2023/10/20史忠植人工智能導(dǎo)論:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)67卷積神經(jīng)網(wǎng)絡(luò)的優(yōu)點(diǎn)

卷積神經(jīng)網(wǎng)絡(luò)CNN主要用來(lái)識(shí)別位移、縮放及其他形式扭曲不變性的二維圖形。由于CNN的特征檢測(cè)層通過(guò)訓(xùn)練數(shù)據(jù)進(jìn)行學(xué)習(xí),所以在使用CNN時(shí),避免了顯式的特征抽取,而隱式地從訓(xùn)練數(shù)據(jù)中進(jìn)行學(xué)習(xí);再者由于同一特征映射面上的神經(jīng)元權(quán)值相同,所以網(wǎng)絡(luò)可以并行學(xué)習(xí),這也是卷積網(wǎng)絡(luò)相對(duì)于神經(jīng)元彼此相連網(wǎng)絡(luò)的一大優(yōu)勢(shì)。2023/10/20史忠植人工智能導(dǎo)論:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)68卷積神經(jīng)網(wǎng)絡(luò)的優(yōu)點(diǎn)它可以直接處理灰度圖片,能夠直接用于處理基于圖像的分類。卷積網(wǎng)絡(luò)較一般神經(jīng)網(wǎng)絡(luò)在圖像處理方面有如下優(yōu)點(diǎn):a)輸入圖像和網(wǎng)絡(luò)的拓?fù)浣Y(jié)構(gòu)能很好的吻合;b)特征提取和模式分類同時(shí)進(jìn)行,并同時(shí)在訓(xùn)練中產(chǎn)生;c)權(quán)重共享可以減少網(wǎng)絡(luò)的訓(xùn)練參數(shù),使神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)變得更簡(jiǎn)單,適應(yīng)性更強(qiáng)。2023/10/20史忠植人工智能導(dǎo)論:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)692023/10/20史忠植人工智能導(dǎo)論:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)70內(nèi)容提要6.1概述

6.2前饋神經(jīng)網(wǎng)絡(luò)

6.3 深度學(xué)習(xí)6.4卷積神經(jīng)網(wǎng)絡(luò)

6.5 生成對(duì)抗網(wǎng)絡(luò)6.6 深度強(qiáng)化學(xué)習(xí)6.7 小結(jié)

生成對(duì)抗網(wǎng)絡(luò)2023/10/2071史忠植人工智能導(dǎo)論:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)無(wú)論是DBN還是CNN,其多隱層堆疊、每層對(duì)上一層的輸出進(jìn)行處理的機(jī)制,可看作是在對(duì)輸入信號(hào)進(jìn)行逐層加工,從而把初始的、與輸出目標(biāo)之間聯(lián)系不太密切的輸入表示,轉(zhuǎn)化成與輸出目標(biāo)聯(lián)系更密切的表示,使得原來(lái)僅基于最后一層輸出映射難以完成的任務(wù)成為可能。以往在機(jī)器學(xué)習(xí)用于現(xiàn)實(shí)任務(wù)時(shí),描述樣本的特征通常需由人類專家來(lái)設(shè)計(jì),這稱為“特征工程”(featureengineering)眾所周知,特征的好壞對(duì)泛化性能有至關(guān)重要的影響,人類專家設(shè)計(jì)出好特征也并非易事。生成對(duì)抗網(wǎng)絡(luò)2023/10/2072史忠植人工智能導(dǎo)論:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)生成對(duì)抗網(wǎng)絡(luò)相比于其他生成式模型,有兩大特點(diǎn):

1.不依賴任何先驗(yàn)假設(shè)。傳統(tǒng)的許多方法會(huì)假設(shè)數(shù)據(jù)服從某一分布,然后使用極大似然去估計(jì)數(shù)據(jù)分布。2.生成real-like樣本的方式非常簡(jiǎn)單。GAN生成real-like樣本的方式通過(guò)生成器(Generator)的前向傳播,而傳統(tǒng)方法的采樣方式非常復(fù)雜生成對(duì)抗網(wǎng)絡(luò)2023/10/2073史忠植人工智能導(dǎo)論:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)2023/10/20史忠植人工智能導(dǎo)論:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)74內(nèi)容提要6.1概述

6.2前饋神經(jīng)網(wǎng)絡(luò)

6.3 深度學(xué)習(xí)6.4卷積神經(jīng)網(wǎng)絡(luò)

6.5 生成對(duì)抗網(wǎng)絡(luò)6.6 深度強(qiáng)化學(xué)習(xí)6.7 小結(jié)

深度強(qiáng)化學(xué)習(xí)2023/10/2075史忠植人工智能導(dǎo)論:神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)在很多的應(yīng)用場(chǎng)景中,通過(guò)人工標(biāo)注的方式來(lái)給數(shù)據(jù)打標(biāo)簽的方式往往行不通。比如我們通過(guò)監(jiān)督學(xué)習(xí)來(lái)訓(xùn)練一個(gè)模型可以來(lái)自動(dòng)下圍棋,就需要將當(dāng)前棋盤(pán)的狀態(tài)作為輸入數(shù)據(jù),其對(duì)應(yīng)的最佳落子位置(動(dòng)作)作為標(biāo)簽。訓(xùn)練一個(gè)好的模型就需要收集大量的不同棋盤(pán)狀態(tài)以及對(duì)應(yīng)動(dòng)作。這種做法實(shí)踐起來(lái)比較困難,一是對(duì)于每一種棋盤(pán)狀態(tài),即使是專家也很難給出“正確”的動(dòng)作,二是獲取大量數(shù)據(jù)的成本往往比較高。對(duì)于下棋這類任務(wù),雖然我們很難知道每一步的“正確”動(dòng)作,但

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論