計算機視覺與應用 課件 10.5 AlexNet網絡模型_第1頁
計算機視覺與應用 課件 10.5 AlexNet網絡模型_第2頁
計算機視覺與應用 課件 10.5 AlexNet網絡模型_第3頁
計算機視覺與應用 課件 10.5 AlexNet網絡模型_第4頁
計算機視覺與應用 課件 10.5 AlexNet網絡模型_第5頁
已閱讀5頁,還剩23頁未讀 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

10.5AlexNet網絡模型CONTENTS目錄AlexNet模型簡介01AlexNet模型結構02Tensorflow實現AlexNet03CONTENTS目錄AlexNet模型簡介01AlexNet模型結構02Tensorflow實現AlexNet03Alex在2012年提出的AlexNet網絡結構模型引爆了神經網絡的應用熱潮,使得CNN成為在圖像分類上的核心算法模型。如圖所示,采用是兩臺GPU服務器,該模型一共分為八層,5個卷基層,以及3個全連接層,在每一個卷積層中包含了激勵函數RELU以及局部響應歸一化(LRN)處理,然后在經過降采樣(pool處理)AlexNet模型簡介CONTENTS目錄AlexNet模型簡介01AlexNet模型結構02Tensorflow實現AlexNet03AlexNet網絡模型結構如圖10-5-1所示。AlexNet模型結構(1)conv1階段DFD(dataflowdiagram)第一層輸入數據為原始的227×227×3的圖像,這個圖像被11×11×3的卷積核進行卷積運算,卷積核對原始圖像的每次卷積都生成一個新的像素。卷積核沿原始圖像的x軸方向和y軸方向兩個方向移動,移動的步長是4個像素。因此,卷積核在移動的過程中會生成(227-11)/4+1=55個像素,行和列的55×55個像素形成對原始圖像卷積之后的像素層。共有96個卷積核,會生成55×55×96個卷積后的像素層。96個卷積核分成2組,每組48個卷積核。對應生成2組55×55×48的卷積后的像素層數據。這些像素層經過relu1單元的處理,生成激活像素層,尺寸仍為2組55×55×48的像素層數據。這些像素層經過pool運算(池化運算)的處理,池化運算的尺度為3×3,運算的步長為2,則池化后圖像的尺寸為(55-3)/2+1=27。即池化后像素的規(guī)模為27×27×96;然后經過歸一化處理,歸一化運算的尺度為5×5;第一卷積層運算結束后形成的像素層的規(guī)模為27×27×96。分別對應96個卷積核所運算形成。這96層像素層分為2組,每組48個像素層,每組在一個獨立的GPU上進行運算。AlexNet模型結構反向傳播時,每個卷積核對應一個偏差值。即第一層的96個卷積核對應上層輸入的96個偏差值。conv1階段DFD如圖10-5-2所示。AlexNet模型結構(2)conv2階段DFD(dataflowdiagram)第二層輸入數據為第一層輸出的27×27×96的像素層,為便于后續(xù)處理,每幅像素層的左右兩邊和上下兩邊都要填充2個像素;27×27×96的像素數據分成27×27×48的兩組像素數據,兩組數據分別再兩個不同的GPU中進行運算。每組像素數據被5×5×48的卷積核進行卷積運算,卷積核對每組數據的每次卷積都生成一個新的像素。卷積核沿原始圖像的x軸方向和y軸方向兩個方向移動,移動的步長是1個像素。因此,卷積核在移動的過程中會生成(27-5+2×2)/1+1=27個像素。行和列的27×27個像素形成對原始圖像卷積之后的像素層。共有256個5×5×48卷積核;這256個卷積核分成兩組,每組針對一個GPU中的27×27×48的像素進行卷積運算。會生成兩組27×27×128個卷積后的像素層。這些像素層經過relu2單元的處理,生成激活像素層,尺寸仍為兩組27×27×128的像素層。這些像素層經過pool運算(池化運算)的處理,池化運算的尺度為3×3,運算的步長為2,則池化后圖像的尺寸為(57-3)/2+1=13。即池化后像素的規(guī)模為2組13×13×128的像素層;然后經過歸一化處理,歸一化運算的尺度為5×5;第二卷積層運算結束后形成的像素層的規(guī)模為2組13×13×128的像素層。分別對應2組128個卷積核所運算形成。每組在一個GPU上進行運算。即共256個卷積核,共2個GPU進行運算。AlexNet模型結構反向傳播時,每個卷積核對應一個偏差值。即第一層的96個卷積核對應上層輸入的256個偏差值。conv2階段DFD如圖10-5-3所示。AlexNet模型結構(3)conv3階段DFD(dataflowdiagram)第三層輸入數據為第二層輸出的2組13×13×128的像素層;為便于后續(xù)處理,每幅像素層的左右兩邊和上下兩邊都要填充1個像素;2組像素層數據都被送至2個不同的GPU中進行運算。每個GPU中都有192個卷積核,每個卷積核的尺寸是3×3×256。因此,每個GPU中的卷積核都能對2組13×13×128的像素層的所有數據進行卷積運算。卷積核對每組數據的每次卷積都生成一個新的像素。卷積核沿像素層數據的x軸方向和y軸方向兩個方向移動,移動的步長是1個像素。因此,運算后的卷積核的尺寸為(13-3+1×2)/1+1=13,每個GPU中共13×13×192個卷積核。2個GPU中共13×13×384個卷積后的像素層。這些像素層經過relu3單元的處理,生成激活像素層,尺寸仍為2組13×13×192像素層,共13×13×384個像素層。conv2階段DFD如圖10-5-4所示。AlexNet模型結構(4)conv4階段DFD(dataflowdiagram)第四層輸入數據為第三層輸出的2組13×13×192的像素層;為便于后續(xù)處理,每幅像素層的左右兩邊和上下兩邊都要填充1個像素;2組像素層數據都被送至2個不同的GPU中進行運算。每個GPU中都有192個卷積核,每個卷積核的尺寸是3×3×192。因此,每個GPU中的卷積核能對1組13×13×192的像素層的數據進行卷積運算。卷積核對每組數據的每次卷積都生成一個新的像素。卷積核沿像素層數據的x軸方向和y軸方向兩個方向移動,移動的步長是1個像素。因此,運算后的卷積核的尺寸為(13-3+1×2)/1+1=13,每個GPU中共13×13×192個卷積核。2個GPU中共13×13×384個卷積后的像素層。這些像素層經過relu4單元的處理,生成激活像素層,尺寸仍為2組13×13×192像素層,共13×13×384個像素層。conv4階段DFD如圖10-5-5所示。AlexNet模型結構(5)conv5階段DFD(dataflowdiagram)第五層輸入數據為第四層輸出的2組13×13×192的像素層;為便于后續(xù)處理,每幅像素層的左右兩邊和上下兩邊都要填充1個像素;2組像素層數據都被送至2個不同的GPU中進行運算。每個GPU中都有128個卷積核,每個卷積核的尺寸是3×3×192。因此,每個GPU中的卷積核能對1組13×13×192的像素層的數據進行卷積運算。卷積核對每組數據的每次卷積都生成一個新的像素。卷積核沿像素層數據的x軸方向和y軸方向兩個方向移動,移動的步長是1個像素。因此,運算后的卷積核的尺寸為(13-3+1×2)/1+1=13(13個像素減去3,正好是10,在加上上下、左右各填充的1個像素,即生成12個像素,再加上被減去的3也對應生成一個像素),每個GPU中共13×13×128個卷積核。2個GPU中共13×13×256個卷積后的像素層。這些像素層經過relu5單元的處理,生成激活像素層,尺寸仍為2組13×13×128像素層,共13×13×256個像素層。AlexNet模型結構2組13×13×128像素層分別在2個不同GPU中進行池化(pool)運算處理。池化運算的尺度為3×3,運算的步長為2,則池化后圖像的尺寸為(13-3)/2+1=6。即池化后像素的規(guī)模為兩組6×6×128的像素層數據,共6×6×256規(guī)模的像素層數據。conv5階段DFD如圖10-5-6所示。AlexNet模型結構(6)fc6階段DFD(dataflowdiagram)第六層輸入數據的尺寸是6×6×256,采用6×6×256尺寸的濾波器對第六層的輸入數據進行卷積運算;每個6×6×256尺寸的濾波器對第六層的輸入數據進行卷積運算生成一個運算結果,通過一個神經元輸出這個運算結果;共有4096個6×6×256尺寸的濾波器對輸入數據進行卷積運算,通過4096個神經元輸出運算結果;這4096個運算結果通過relu激活函數生成4096個值;并通過drop運算后輸出4096個本層的輸出結果值。由于第六層的運算過程中,采用的濾波器的尺寸(6×6×256)與待處理的featuremap的尺寸(6×6×256)相同,即濾波器中的每個系數只與featuremap中的一個像素值相乘;而其它卷積層中,每個濾波器的系數都會與多個featuremap中像素值相乘;因此,將第六層稱為全連接層。AlexNet模型結構第五層輸出的6×6×256規(guī)模的像素層數據與第六層的4096個神經元進行全連接,然后經由relu6進行處理后生成4096個數據,再經過dropout6處理后輸出4096個數據。fc6階段DFD如圖10-5-7所示。AlexNet模型結構(7)fc7階段DFD(dataflowdiagram)第六層輸出的4096個數據與第七層的4096個神經元進行全連接,然后經由relu7進行處理后生成4096個數據,再經過dropout7處理后輸出4096個數據。fc7階段DFD如圖10-5-8所示。AlexNet模型結構(8)fc8階段DFD(dataflowdiagram)第七層輸出的4096個數據與第八層的1000個神經元進行全連接,經過訓練后輸出被訓練的數值。fc8階段DFD如圖10-5-9所示。AlexNet模型結構CONTENTS目錄AlexNet模型簡介01AlexNet模型結構02Tensorflow實現AlexNet03fromdatetimeimportdatetimeimportmathimporttimeimporttensorflowastfbatch_size=32num_batch=100defprint_activation(t):print(,'\n',t.get_shape().as_list())defAlexnet_structure(images):parameters=[]Tensorflow實現AlexNet

#定義第一層卷積層

with_scope('conv1')asscope:kernel=tf.Variable(pat.v1.truncated_normal([11,11,3,64],dtype=tf.float32,stddev=1e-1),name='weigths')conv=tf.nn.conv2d(images,kernel,[1,4,4,1],padding='SAME')biases=tf.Variable(tf.constant(0.0,shape=[64],dtype=tf.float32),trainable=True,name='biases')W_x_plus_b=tf.nn.bias_add(conv,biases)conv1=tf.nn.relu(W_x_plus_b,name=scope)print_activation(conv1)parameters+=[kernel,biases]pool1=tf.nn.max_pool(conv1,ksize=[1,3,3,1],strides=[1,2,2,1],padding='VALID',name='pool1')print_activation(pool1)Tensorflow實現AlexNet

#定義第二個網絡層

with_scope('conv2')asscope:kernel=tf.Variable(pat.v1.truncated_normal([5,5,64,192],dtype=tf.float32,stddev=1e-1),name='weigtths')conv=tf.nn.conv2d(pool1,kernel,[1,1,1,1],padding='SAME')biases=tf.Variable(tf.constant(0.0,shape=[192],dtype=tf.float32),trainable=True,name='biases')W_x_plus_b=tf.nn.bias_add(conv,biases)conv2=tf.nn.relu(W_x_plus_b,name=scope)parameters+=[kernel,biases]print_activation(conv2)pool2=tf.nn.max_pool(conv2,ksize=[1,3,3,1],strides=[1,2,2,1],padding='VALID',name='pool2')print_activation(pool2)Tensorflow實現AlexNet#定義第三層卷積層

with_scope('conv3')asscope:kernel=tf.Variable(pat.v1.truncated_normal([3,3,192,384],dtype=tf.float32,stddev=1e-1),name='weigtths')conv=tf.nn.conv2d(pool2,kernel,[1,1,1,1],padding='SAME')biases=tf.Variable(tf.constant(0.0,shape=[384],dtype=tf.float32),trainable=True,name='biases')W_x_plus_b=tf.nn.bias_add(conv,biases)conv3=tf.nn.relu(W_x_plus_b,name=scope)parameters+=[kernel,biases]print_activation(conv3)Tensorflow實現AlexNet#定義第四層卷積層

with_scope('conv4')asscope:kernel=tf.Variable(pat.v1.truncated_normal([3,3,384,256],dtype=tf.float32,stddev=1e-1),name='weigtths')conv=tf.nn.conv2d(conv3,kernel,[1,1,1,1],padding='SAME')biases=tf.Variable(tf.constant(0.0,shape=[256],dtype=tf.float32),trainable=True,name='biases')W_x_plus_b=tf.nn.bias_add(conv,biases)conv4=tf.nn.relu(W_x_plus_b,name=scope)parameters+=[kernel,biases]print_activation(conv4)Tensorflow實現AlexNet#定義第五層卷積層

with_scope('conv5')asscope:kernel=tf.Variable(pat.v1.truncated_normal([3,3,256,256],dtype=tf.float32,stddev=1e-1),name='weigtths')conv=tf.nn.conv2d(conv4,kernel,[1,1,1,1],padding='SAME')biases=tf.Variable(tf.constant(0.0,shape=[256],dtype=tf.float32),trainable=True,name='biases')W_x_plus_b=tf.nn.bias_add(conv,biases)conv5=tf.nn.relu(W_x_plus_b,name=scope)parameters+=[kernel,biases]print_activation(conv5)pool5=tf.nn.max_pool(conv5,ksize=[1,3,3,1],strides=[1,2,2,1],padding='VALID',name='pool5')print_activation(pool5)returnpool5,parametersTensorflow實現AlexNet#定義評估Alexnet每輪計算時間的函數deftime_Alexnet_run(session,target,info_string):num_steps_burn_in=10total_duration=0.0total_duration_squared=0.0foriinrange(num_batch+num_steps_burn_in):start_time=time.time()tar=session.run(target)duration=time.time()-start_timeifi>=num_steps_burn_in:ifnoti%10:print('%s:step%d,duration=%.3f'%(datetime.now(),i-num_steps_burn_in,duration))

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論