深度學(xué)習(xí)案例教程 課件4.4用PyTorch搭建卷積網(wǎng)絡(luò)_第1頁
深度學(xué)習(xí)案例教程 課件4.4用PyTorch搭建卷積網(wǎng)絡(luò)_第2頁
深度學(xué)習(xí)案例教程 課件4.4用PyTorch搭建卷積網(wǎng)絡(luò)_第3頁
深度學(xué)習(xí)案例教程 課件4.4用PyTorch搭建卷積網(wǎng)絡(luò)_第4頁
深度學(xué)習(xí)案例教程 課件4.4用PyTorch搭建卷積網(wǎng)絡(luò)_第5頁
全文預(yù)覽已結(jié)束

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認(rèn)領(lǐng)

文檔簡介

第四節(jié)

卷積神經(jīng)網(wǎng)絡(luò)的實現(xiàn)SimpleConvNet類classSimpleConvNet:def__init__(self,input_dim=(1,28,28),conv_param={'filter_num':30,'filter_size':5,'pad':0,'stride':1},hidden_size=100,output_size=10,weight_init_std=0.01):filter_num=conv_param['filter_num']filter_size=conv_param['filter_size']filter_pad=conv_param['pad']filter_stride=conv_param['stride']input_size=input_dim[1]conv_output_size=(input_size-filter_size+2*filter_pad)/filter_stride+1pool_output_size=int(filter_num*(conv_output_size/2)*(conv_output_size/2))第四節(jié)

卷積神經(jīng)網(wǎng)絡(luò)的實現(xiàn)初始化權(quán)重#初始化權(quán)重self.params={}self.params['W1']=weight_init_std*\np.random.randn(filter_num,input_dim[0],filter_size,filter_size)self.params['b1']=np.zeros(filter_num)self.params['W2']=weight_init_std*\np.random.randn(pool_output_size,hidden_size)self.params['b2']=np.zeros(hidden_size)self.params['W3']=weight_init_std*\np.random.randn(hidden_size,output_size)self.params['b3']=np.zeros(output_size)第四節(jié)

卷積神經(jīng)網(wǎng)絡(luò)的實現(xiàn)生成必要層#生成層self.layers=OrderedDict()self.layers['Conv1']=Convolution(self.params['W1'],self.params['b1'],conv_param['stride'],conv_param['pad'])self.layers['Relu1']=Relu()self.layers['Pool1']=Pooling(pool_h=2,pool_w=2,stride=2)self.layers['Affine1']=Affine(self.params['W2'],self.params['b2'])self.layers['Relu2']=Relu()self.layers['Affine2']=Affine(self.params['W3'],self.params['b3'])

self.last_layer=SoftmaxWithLoss()第四節(jié)

卷積神經(jīng)網(wǎng)絡(luò)的實現(xiàn)predictdefpredict(self,x):forlayerinself.layers.values():x=layer.forward(x)

returnxdefloss(self,x,t):"""求損失函數(shù)

參數(shù)x是輸入數(shù)據(jù)、t是標(biāo)簽"""y=self.predict(x)returnself.last_layer.forward(y,t)第四節(jié)

卷積神經(jīng)網(wǎng)絡(luò)的實現(xiàn)反向傳播法求梯度defgradient(self,x,t):#forwardself.loss(x,t)

#backwarddout=1dout=self.last_layer.backward(dout)

layers=li

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論