《深度學習項目案例開發(fā)》課件-任務三 使用數(shù)據(jù)增強抑制卷積神經(jīng)網(wǎng)絡過擬合_第1頁
《深度學習項目案例開發(fā)》課件-任務三 使用數(shù)據(jù)增強抑制卷積神經(jīng)網(wǎng)絡過擬合_第2頁
《深度學習項目案例開發(fā)》課件-任務三 使用數(shù)據(jù)增強抑制卷積神經(jīng)網(wǎng)絡過擬合_第3頁
《深度學習項目案例開發(fā)》課件-任務三 使用數(shù)據(jù)增強抑制卷積神經(jīng)網(wǎng)絡過擬合_第4頁
《深度學習項目案例開發(fā)》課件-任務三 使用數(shù)據(jù)增強抑制卷積神經(jīng)網(wǎng)絡過擬合_第5頁
已閱讀5頁,還剩35頁未讀 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權,請進行舉報或認領

文檔簡介

任務三:使用數(shù)據(jù)增強抑制卷積神經(jīng)網(wǎng)絡過擬合訓練模型、保存模型并繪制損失曲線人工智能學院—1.任務導入任務總結任務三:使用數(shù)據(jù)增強抑制卷積神經(jīng)網(wǎng)絡過擬合ImageDataGenerator基本用法人工智能學院—1.任務導入任務總結任務三:使用數(shù)據(jù)增強抑制卷積神經(jīng)網(wǎng)絡過擬合工作任務-建立貓狗識別模型人工智能學院—1.任務導入任務總結任務三:使用數(shù)據(jù)增強抑制卷積神經(jīng)網(wǎng)絡過擬合項目簡介——生成數(shù)據(jù)的dataframe人工智能學院—1.任務導入任務總結任務三:使用數(shù)據(jù)增強抑制卷積神經(jīng)網(wǎng)絡過擬合使用ImageDataGenerator實現(xiàn)數(shù)據(jù)增強人工智能學院—1.任務導入任務總結任務三:使用數(shù)據(jù)增強抑制卷積神經(jīng)網(wǎng)絡過擬合調(diào)用模型并識別貓狗圖片人工智能學院—1.任務導入任務總結任務三:使用數(shù)據(jù)增強抑制卷積神經(jīng)網(wǎng)絡過擬合工作任務——加載數(shù)據(jù)實現(xiàn)數(shù)據(jù)增強人工智能學院—1.任務導入任務總結任務三:使用數(shù)據(jù)增強抑制卷積神經(jīng)網(wǎng)絡過擬合過擬合與數(shù)據(jù)增強人工智能學院—任務導入01任務目標02任務導學03任務知識點04任務總結05任務導入/01任務導入使用CNN網(wǎng)絡訓練的模型在訓練集上效果很好,但是在測試集上效果較差,例如任務2的貓狗識別,訓練集和測試的準確率相差了20%左右,這是模型出現(xiàn)了過擬合現(xiàn)象,也被稱之為“泛化能力差”,引起過擬合的原因有很多,最常見就是樣本不足,或者訓練集的樣本不具備代表性。常用數(shù)據(jù)集擴充、隨機失活方法(Dropout)、早停法等來解決模型遇到的過擬合問題,其中使用圖像增強器增加數(shù)據(jù)集是解決過模型過擬合的首選。任務目標/02了解過擬合和泛化能力的基本概念理解數(shù)據(jù)增強的原理和方法了解其他防止過擬合的方法掌握評價模型性能的方法知識目標能進行實驗比較不同防止過擬合的方法能應用模型解釋性工具拓展能力能應用數(shù)據(jù)增強技術擴展訓練數(shù)據(jù)能進行實時數(shù)據(jù)增強能調(diào)整和優(yōu)化模型以減少過擬合能完成模型的訓練與評估能識別并解決過擬合問題能力目標任務導學/03什么是圖像增強通過對訓練數(shù)據(jù)進行擴充和增強,以提高模型的泛化能力和魯棒性。定義數(shù)據(jù)增強技術通過對原始數(shù)據(jù)進行一系列的變換操作,生成新的樣本。結構模型能夠更好地適應不同的輸入,提升在未見數(shù)據(jù)上的表現(xiàn)。訓練用途翻轉(zhuǎn)和旋轉(zhuǎn)、縮放和裁剪、平移、顏色變換、仿射變換、噪聲添加。任務導學任務知識點/04機器學習和深度學習的訓練過程中,經(jīng)常會出現(xiàn)過擬合和欠擬合的現(xiàn)象。欠擬合是指模型在訓練集上的性能不佳,通常表現(xiàn)為模型復雜度不夠,無法捕捉數(shù)據(jù)的基本模式或關系。欠擬合可能發(fā)生在訓練初期,隨著訓練的進行,模型通常會逐漸改善其在訓練集上的表現(xiàn)。解決欠擬合的方法包括增加模型復雜度、改進特征提取方式或者增加訓練時間等。任務知識點模型的欠擬合過擬合是指在訓練數(shù)據(jù)上表現(xiàn)很好,但在未見過的測試數(shù)據(jù)上表現(xiàn)較差的現(xiàn)象。這通常是因為模型過于復雜,學習了訓練數(shù)據(jù)中的噪聲和細節(jié),而不是數(shù)據(jù)的潛在分布。深度學習中由于模型復雜的結構和大量的參數(shù),尤其容易發(fā)生過擬合。如圖中的貓狗識別模型,隨著訓練輪次的增加訓練集識別準確率繼續(xù)增加,而驗證集的準確率反而下降,這時說明模型出現(xiàn)了過擬合現(xiàn)象。任務知識點模型過擬合解決過擬合可以增加訓練數(shù)據(jù)量,通過獲取更多數(shù)據(jù)或使用數(shù)據(jù)增強技術來人為地擴充訓練集,這有助于模型學習到更加泛化的特征??梢允褂脩齽t化手段,常用的是Dropout,這是一種在訓練過程中隨機關閉某些神經(jīng)元的技術,強迫網(wǎng)絡不過分依賴任何一組特定的神經(jīng)元,從而提升模型的泛化能力;或者使用權重衰減,在損失函數(shù)中加入權重懲罰項(如L1或L2正則化),以抑制過大的權重值,避免模型變得太復雜。還可以通過調(diào)整模型架構簡化網(wǎng)絡結構,減少層數(shù)或神經(jīng)元數(shù)量,或者使用預訓練的網(wǎng)絡進行微調(diào),以限制模型復雜度。任務知識點解決過擬合模型出現(xiàn)過擬合,增加樣本數(shù)量是首選的辦法。圖像數(shù)據(jù)增強是一種在訓練機器學習模型時常用的技術,特別是在深度學習中,它通過增加訓練集的多樣性來提高模型的泛化能力,從而避免過擬合,并提高模型在新數(shù)據(jù)上的性能。任務知識點圖像的數(shù)據(jù)增強組合增強,將以上幾種方法組合使用,創(chuàng)造出更多樣化的訓練樣本,例如在貓狗識別中,可以使用旋轉(zhuǎn)、平移變換、翻轉(zhuǎn)等數(shù)據(jù)增強方法處理同一張照片,生成多個新的樣本。任務知識點圖像的數(shù)據(jù)組合增強Keras中的圖像增強可以通過使用圖片預處理生成器ImageDataGenerator類來實現(xiàn)??梢园阉斫鉃槭且粋€圖片生成器,可以每一次給模型輸入一個batch_size大小的樣本數(shù)據(jù),同時也可以在每一個批次中對這batch_size個樣本數(shù)據(jù)進行增強,擴充數(shù)據(jù)集大小,增強模型的泛化能力。比如進行旋轉(zhuǎn),變形,歸一化等等,并且可以循環(huán)迭代。任務知識點ImageDataGenerator類ImageDataGenerator主要參數(shù)rotation_range:浮點數(shù)或整數(shù),控制隨機旋轉(zhuǎn)的角度范圍。width_shift_range和height_shift_range:浮點數(shù)或整數(shù),控制隨機平移的寬度和高度范圍。horizontal_flip:布爾值,決定是否進行水平翻轉(zhuǎn)。vertical_flip:布爾值,決定是否進行垂直翻轉(zhuǎn)。zoom_range:浮點數(shù)或整數(shù),控制隨機縮放的范圍。fill_mode:字符串,定義填充新創(chuàng)建像素的方法。channel_shift_range:浮點數(shù)或整數(shù),控制顏色通道上隨機偏移的范圍。任務知識點ImageDataGenerator類參數(shù)fit方法:將數(shù)據(jù)生成器用于制定的數(shù)據(jù)樣本。flow方法:接收圖片數(shù)據(jù)集和標簽,生成經(jīng)過數(shù)據(jù)提升或標準化后的數(shù)據(jù),依次取batch_size的圖片并逐一進行變換,然后再循環(huán)。flow_from_directory()方法:每次從文件夾中取batchsize張圖片進行處理。對其中每張圖片進行增強操作,然后將大小變?yōu)閠arget_size并保存到保存目錄(save_to_dir)中。flow_from_directory()方法:從DataFrame中獲取圖像路徑

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論