基于深度學(xué)習(xí)算法的垃圾分類圖像識別_第1頁
基于深度學(xué)習(xí)算法的垃圾分類圖像識別_第2頁
基于深度學(xué)習(xí)算法的垃圾分類圖像識別_第3頁
基于深度學(xué)習(xí)算法的垃圾分類圖像識別_第4頁
基于深度學(xué)習(xí)算法的垃圾分類圖像識別_第5頁
已閱讀5頁,還剩39頁未讀 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

中文摘要□□在科技發(fā)達、智能時代中,深度學(xué)習(xí)、機器學(xué)習(xí)以及人工智能成為了高頻詞。它們看似深不可測,但是又離不開我們的生活。深度學(xué)習(xí)和機器學(xué)習(xí)是一種技術(shù)、而人工智能一種是一種體現(xiàn)。使用深度學(xué)習(xí)和機器技術(shù),使機器擁有人的某種大腦結(jié)構(gòu)從而來實現(xiàn)人的某種行為,它不僅解決了很多即無聊又繁瑣的工作,從而解放了很多工人每天反復(fù)并且厭倦的動作節(jié),節(jié)省了大量的時間;而且它在每件工作當(dāng)中,能夠做到比人更加精確,并且不會像人類一樣受感情甚至環(huán)境的影響導(dǎo)致工作的效率以及成品的達標率降低。正因為人工智能給人們帶來了出乎意料的驚喜以及數(shù)不勝數(shù)的方便,并且人工智能能夠滿足人類的懶惰性,所以人類對深度學(xué)習(xí)、機器學(xué)習(xí)以及人工智能的需求也越來越多。在這種人工智能急劇膨脹的形勢下,深度學(xué)習(xí)與機器學(xué)習(xí)成了垃圾分類的主要推力。眾所周知,垃圾是人類既厭惡又無法擺脫的物體,而垃圾則是鋪天蓋地層出疊見地出現(xiàn)在我們地視野中,解決垃圾問題給全球帶了巨大的挑戰(zhàn)。想要有效處理垃圾,垃圾分類是必然的結(jié)果,然而垃圾分類過程又是一件既繁瑣又耗時的事,而且使用人工進行垃圾分類它不僅需要耗費大量的人工而且它還會大大降低準確率。這時人工智能、深度學(xué)習(xí)就起了重要的作用。本文正是研究深度學(xué)習(xí)算法的垃圾分類圖像識別。論述多種深度學(xué)習(xí)算法及網(wǎng)絡(luò)結(jié)構(gòu)的圖像識別處理原理,分析深度學(xué)習(xí)在圖像識別中的突出優(yōu)勢,并且提出垃圾分類在現(xiàn)實社會中面臨的問題與挑戰(zhàn)。在綜合了解研究后,深入探討使用深度學(xué)習(xí)算法的卷積神經(jīng)網(wǎng)絡(luò),在大量的有效圖像數(shù)據(jù)集的訓(xùn)練過程中是如何增加一種全新的隱藏層,并且使用這種增加卷積層的方法來得出更高層次的特征提取從而讓機器自動提取特征來實現(xiàn)圖像的識別。 關(guān)鍵詞:深度學(xué)習(xí)圖像識別垃圾分類機器學(xué)習(xí)人工智能第四章系統(tǒng)設(shè)計與分析4.1垃圾分類圖像識別系統(tǒng)構(gòu)成及原理4.1.1圖像處理基礎(chǔ)知識使機器能夠模仿人的大腦對外界圖像進行識別分類,圖像學(xué)習(xí)的好壞直接影響機器識別的準確率結(jié)果。通過圖像進行學(xué)習(xí),我們需要大量的圖像數(shù)據(jù),不管我們的數(shù)據(jù)圖像來自網(wǎng)上下載、網(wǎng)上爬取還是自行拍照,其圖像的格式、尺寸大小、光暗程度都是參差不齊,各有不同。如果把形態(tài)各異的圖片傳給機器會增加機器學(xué)習(xí)得復(fù)雜性,導(dǎo)致最終機器訓(xùn)練出來得模型可靠性降低,甚至難以達到目標需求。那么圖像預(yù)處理有多種方法:直方圖均衡、中間濾波、歸一化和圖像增強等等技術(shù)。直方圖均衡技術(shù)主要使用直方圖對比方法更改圖片的灰度值,在圖像中逐個點進行更改灰度值,使得所有像素點得灰度級別在同一層級上。這種通過直方圖均衡技術(shù)后可以得出一個比較平緩得直方圖,這多數(shù)用于醫(yī)護人員X射線的操作,讓黑暗無法識別的區(qū)域使用灰度圖展現(xiàn)在適合眼睛亮度的地方。中間濾波主要技術(shù)是去除噪音,中間濾波把圖像周圍灰度值反差較大的像素點用周圍相似的像素點替代,這樣可以去除另類孤立的噪聲點。中間濾波處理圖像更加清晰而且在處理彩色圖像中不會破環(huán)彩色像素。歸一化對圖像預(yù)處理中有幾何歸一化和灰度歸一化兩種普遍技術(shù),其最終結(jié)果是讓環(huán)境不相同的的圖片盡可能地使其具有一致性,讓圖片有某些固定的不變特性。圖像增強技術(shù)不考慮降質(zhì)缺陷,展現(xiàn)圖像最具有代表性,也就是最感興趣的特征區(qū)域,遮掩無關(guān)緊要的特征區(qū)域??偟膩碚f,圖像處理的目的都是盡可能地除去讓機器無法識別的干擾。簡化圖像數(shù)據(jù),使圖像地主要特征更為突出,更便于學(xué)習(xí)訓(xùn)練。4.1.2垃圾分類圖像識別系統(tǒng)構(gòu)成本設(shè)計的垃圾分類圖像識別搭建在TensorFlow的環(huán)境下實現(xiàn)的。整個項目大體分為圖像的收集、圖像的處理、卷積神經(jīng)網(wǎng)絡(luò)的搭建、模型訓(xùn)練、模型測試、最后用一個GUI界面對項目進行封裝。設(shè)計完成了一個可識別垃圾圖像類別以及可調(diào)用攝像頭識別垃圾物體的系統(tǒng)。如下圖4.1垃圾分類圖像識別的系統(tǒng)構(gòu)成步驟所示:圖4.1垃圾分類圖像識別的系統(tǒng)構(gòu)成步驟4.1.3圖像識別系統(tǒng)功能分類模塊設(shè)計分類是圖像識別系統(tǒng)的中心環(huán)節(jié),系統(tǒng)的最終目標是根據(jù)已訓(xùn)練好的模型反饋對應(yīng)圖像的分類類型,然后以一個直觀的的圖標展現(xiàn)給用戶。系統(tǒng)從分類模塊中可分為有六個分類模塊,分別為Cardboard、Glass、Metal、Paper、Plastic和Trash,而從功能模塊中可劃分為兩大模塊,圖像識別功能模塊與攝像頭識別功能模塊。其中六大類分類模塊是根據(jù)機器傳入的圖片進入功能模塊調(diào)用訓(xùn)練模型才可得出結(jié)果,所以六類分類模塊也可看作是功能模塊的子模塊。如下圖4.2系統(tǒng)的模塊示意圖所示:圖4.2垃圾圖像識別功能分類模塊圖由上圖在項目系統(tǒng)中從功能模塊中可分為兩模塊,圖像識別模塊與攝像頭識別模塊。從分類模塊中可分為cardboard、glass、metal、paper、plastic、trash六種類型。圖像識別:在項目系統(tǒng)中用戶可以使用手機拍照的垃圾圖片或網(wǎng)上下載的垃圾圖片,但凡是.jpeg、.jpg、.png格式的圖片都可以傳如系統(tǒng)對該圖片進行預(yù)測得到垃圾的分類結(jié)果。攝像頭識別:若用戶覺得拍照再傳進系統(tǒng)比較麻煩,那么還可以采用直接攝像頭的方法。用戶可以打開攝像頭,把要分類的垃圾放進攝像頭拍攝區(qū)域,同樣也可以得出垃圾的分類結(jié)果。注意使用攝像頭進行分類預(yù)測時,最好不要讓多種垃圾同時出現(xiàn)在攝像頭中,因為系統(tǒng)目前還只可以在同一時間只識別一種垃圾。Cardboard:主要以相對比較厚硬的紙皮箱為主的類型垃圾,系統(tǒng)根據(jù)傳入的圖片或影像識別Cardboard類型垃圾,此類型垃圾可進行回收,處理后可再次使用。Glass:主要是玻璃類型的垃圾,系統(tǒng)根據(jù)傳入的圖片或影像識別Glass類型垃圾,此類型垃圾特點反光、堅硬、并以透明為主。玻璃類型的垃圾經(jīng)過加工廠加工處理,還可以循環(huán)利用。Metal:主要是金屬垃圾類型,系統(tǒng)根據(jù)傳入的圖片或影像識別Metal類型垃圾,此類型垃圾可進行回收,加工處理后可再次使用。Paper:主要以比較薄的紙張類型垃圾,系統(tǒng)根據(jù)傳入的圖片或影像識別Paper類型垃圾,此類型垃圾可進行回收,處理后可作為原材料作用于很多地方。Plastic:主要塑料類型垃圾,系統(tǒng)根據(jù)傳入的圖片或影像識別Plastic類型垃圾,此類型垃圾絕不可以燃燒或者隨便扔,因為燃燒會放出大量的有害物質(zhì)危害人類健康。若隨便亂扔塑料垃圾是無法分解,對環(huán)境會有很大的危害,此類垃圾也可以拿去收費站,專業(yè)人員會根據(jù)具體情況進行加工處理循環(huán)利用。Trash:是不可回收垃圾,系統(tǒng)根據(jù)傳入的圖片或影像識別Trash類型垃圾,此類型垃圾投入不可回收垃圾桶里,專業(yè)人員會根據(jù)具體的垃圾又分為是否可用垃圾,有用垃圾進行加工處理再次使用,無用垃圾最后才放到經(jīng)過處理的填埋場進行填埋。4.2垃圾分類圖像識別系統(tǒng)設(shè)計4.2.1垃圾圖像數(shù)據(jù)來源本設(shè)計的主題是基于深度學(xué)習(xí)算法的垃圾分類圖像識別,所以需要準備的原始數(shù)據(jù)是各個類型的垃圾圖片,根據(jù)網(wǎng)上隨機下載的垃圾圖片,還有小部分垃圾圖片數(shù)據(jù)是收集于自行拍照。把所有收集的數(shù)據(jù)集合在一起進行分類,主要分為六大類型,其中包括有:cardboard、glass、metal、paper、plastic、trash,并且在本地建立以這六種類型為名的文件夾,如下圖4.3垃圾圖片數(shù)據(jù)文件夾分類類型所示。把所有的圖片數(shù)據(jù)上標簽,然后歸類存放到對應(yīng)類型的文件夾里,如圖4.4cardboard類型的數(shù)據(jù)圖片,圖4.5glass類型的數(shù)據(jù)圖片,圖4.6metal類型的數(shù)據(jù)圖片,圖4.7paper類型的數(shù)據(jù)圖片,圖4.8plastic類型的數(shù)據(jù)圖片,圖4.9trash類型的數(shù)據(jù)圖片,如下所示:圖4.3垃圾圖片數(shù)據(jù)文件夾分類類型圖4.4cardboard類型的圖片數(shù)據(jù)圖4.5glass類型的圖片數(shù)據(jù)圖4.6metal類型的圖片數(shù)據(jù)圖4.7paper類型的圖片數(shù)據(jù)圖4.8plastic類型的圖片數(shù)據(jù)圖4.9trash類型的圖片數(shù)據(jù)4.2.2圖像預(yù)處理在模型訓(xùn)練之前我們需要對數(shù)據(jù)進行裁剪,使得數(shù)據(jù)輸入到神經(jīng)網(wǎng)絡(luò)的時候所有圖像的尺寸大小都是一致的。本設(shè)計使用了Python語言和TensorFlow的環(huán)境,我們可以把數(shù)據(jù)圖像轉(zhuǎn)化為一種二進制的tfrecords文件。這種文件正是使用tensorflow來運行,python來制作代碼的。而且tfrecords在tensorflow中,無論是在拷貝、轉(zhuǎn)移、讀取還是存儲都是有著非常大的優(yōu)勢。TFRecords文件訓(xùn)練對計算機資源的需求大大的減少了,訓(xùn)練時只需要將已保存好的TFRecords文件的特定格式簡單的取出訓(xùn)練即可;如果圖像預(yù)處理單單使用tensorflow來操作,那么當(dāng)遇到圖像預(yù)處理操作復(fù)雜時則對訓(xùn)練模型會帶來干擾,但是TFRecords他可以不被限制于tensorflow,靈活處理圖片數(shù)據(jù),邏輯復(fù)雜的數(shù)據(jù)處理也能夠完勝;TFRecords在訓(xùn)練占用內(nèi)存少,訓(xùn)練結(jié)束卻要比原始數(shù)據(jù)大,這也就是TFRecords可以快速訓(xùn)練大量數(shù)據(jù)的原因。在本項目圖片數(shù)據(jù)預(yù)處理,首先使用tf.python_io.TFRecordWriter創(chuàng)建一個TFRecords文件夾,遍歷自己已經(jīng)分類好并且已經(jīng)打上標簽的圖片,把所有圖片的大小使用resize裁剪圖片使得圖片尺寸大小為227×227,使得尺寸匹配上后面在卷積神經(jīng)網(wǎng)絡(luò)輸入數(shù)據(jù)的尺寸。然后把圖片類型轉(zhuǎn)為原生的Bytes,進入真正的將圖片轉(zhuǎn)化為二進制,使用tf.train.Example和tf.python_io.TFRecordWriter分別對圖片格式進行輸入和寫入,當(dāng)所有的數(shù)據(jù)已經(jīng)輸入轉(zhuǎn)化后,然后example對圖像和對應(yīng)的標簽進行封裝,把序列化為字符串那么圖片轉(zhuǎn)為二進制的TFRecords文件就完美結(jié)束了。把圖片制定為二進制文件,當(dāng)我們需要讀取的時候我們可以使用隊列的方法或者直接使用循環(huán)然后用ParseFromString進行解析就可。下圖4.10是圖片預(yù)處理與轉(zhuǎn)為TFRecords文件的核心代碼:圖4.10垃圾圖片數(shù)據(jù)轉(zhuǎn)為TFRecords核心代碼圖4.2.3AlexNet卷積神經(jīng)網(wǎng)絡(luò)搭建得到數(shù)據(jù)后就到了本設(shè)計最為重要的步驟,搭建卷積神經(jīng)網(wǎng)絡(luò)了。實驗中我選用了AlexNet作為這次的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),因為AlexNet在圖像識別的領(lǐng)域里有著很大的優(yōu)勢,并且實現(xiàn)起來相對比較簡便。在整個AlexNet的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)里,它可以搭建多層的結(jié)構(gòu)并且參數(shù)個數(shù)龐大卻不會出現(xiàn)過擬合情況而且可以通過GPU雙通道的方法來降低機器訓(xùn)練的性能損耗,大大的減少了訓(xùn)練時間的耗費。如下表4-1是本次實驗搭建的網(wǎng)絡(luò)模型結(jié)構(gòu):表4-1AlexNet卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)搭建表種類輸入核步長填充值輸出卷積層1227×227×311×114055×55×48×2池化層155×55×48×23×32027×27×48×2卷積層227×27×48×25×51027×27×128×2池化層227×27×128×23×32013×13×128×2卷積層313×13×128×23×31013×13×192×2卷積層413×13×192×23×31113×13×192×2卷積層513×13×192×23×32013×13×128×2池化層313×13×128×23×3206×6×128×2全連接66×6×2564096×1全連接74096×14096×1全連接84096×11000×1如上表AlexNet卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)搭建表看出本次模型的AlexNet共搭建了八層,其中前兩層和第五層由卷積層和池化層組合構(gòu)成,并且還執(zhí)行數(shù)據(jù)標準化處理。而第三和四層只有一個卷積層。在第六層往后是三個全連接層,在第一個全連接層中的輸入數(shù)據(jù)是取最后一層的卷積層的輸出結(jié)果,在第六層的全連接層中經(jīng)過平滑處理隨機刪除得到4096個神經(jīng)元輸出結(jié)果。全連接層嵌入dropout函數(shù),防止數(shù)據(jù)過擬合。而處在第八層后面的softmax函數(shù),用來輸出最終的分類標簽。如下圖4.11AlexNet的主要代碼所示:圖4.11AlexNet卷積搭建主要代碼由上圖代碼可見類和函數(shù)的不同分類問題可使用self.NUM_CLASSES在最后全連接層里解決。其實在搭建卷積層前我們許需要定義一些輔助函數(shù),輔助函數(shù)可以用于在搭建卷積時創(chuàng)建網(wǎng)絡(luò)層。還有全連接函數(shù)中我們可以使用Tensorboard來監(jiān)督整個網(wǎng)絡(luò)結(jié)構(gòu)的激活值、Dropout層以及最大池化層,用tf.summary()來進行添加并且在tensorboard中顯示。在Tensorboard中我們可以查看訓(xùn)練過程的細微變化情況,此網(wǎng)頁可記錄訓(xùn)練過程的準確率、損失值等數(shù)據(jù)情況。搭建完卷積網(wǎng)絡(luò),還要寫一個函數(shù)用來加載準備訓(xùn)練的數(shù)據(jù)。本設(shè)計在網(wǎng)上下載bvlc_alexnet.npy文件,調(diào)用此文件能夠省去自己訓(xùn)練參數(shù)的時間,同時電腦硬件標準需求也降低了。該文件主要是別人已經(jīng)訓(xùn)練好的imageNet參數(shù)數(shù)據(jù),我們只要根據(jù)自己所需調(diào)用接口即可,而且使用此文件的參數(shù)往往比你自己訓(xùn)練的參數(shù)要準確的多。其bvlc_alexnet.npy下載地址和加載預(yù)訓(xùn)練參數(shù)的函數(shù)主要代碼如下圖4.12所示:圖4.12bvlc_alexnet.npy下載連接與加載預(yù)訓(xùn)練參數(shù)主要代碼4.2.4模型訓(xùn)練萬事俱備,接下來我們就開始訓(xùn)練模型了。首先我們需要讀取已準備好的tfrecords文件,因為tfrecords是二進制文件,所以里面的數(shù)據(jù)我們需要使用隊列的方式進行讀取。而tf.train.string_input_producer生成的解析隊列數(shù)據(jù)我們可以使用tf.parse_single_example解析器進行讀取,讀取出來的數(shù)據(jù)返回的是一個文件和文件名稱,然后把返回的值存放在對象serialized_example中。最后還需要進行協(xié)議緩沖,使用tf.parse_single_example把Example解析為張量的形式就可以真正的用于訓(xùn)練操作了。如下4.13是使tfrecords文件解析成隊列形式的主要代碼圖:圖4.13tfrecords文件解析成隊列的主要代碼數(shù)據(jù)準備好后就要把圖片和標簽傳進已搭建的AlexNet卷積網(wǎng)絡(luò)中,然后我們還需定義一些dropout和全連接層的變量列表,然后就可以執(zhí)行整個AlexNet卷積網(wǎng)絡(luò)結(jié)構(gòu)圖了。在卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程里,我們還需要設(shè)定損失值和優(yōu)化器,同事使用tensorboard把模型顯示出來,這樣訓(xùn)練的損失值的收斂情況和與準確率就一目了然。下圖4.14數(shù)據(jù)訓(xùn)練的主要代碼:圖4.14數(shù)據(jù)訓(xùn)練的主要代碼圖網(wǎng)絡(luò)訓(xùn)練的損失函數(shù)與準確率的變化情況我們可以在訓(xùn)練結(jié)束后tensorboard網(wǎng)頁中查看到,如圖4.15所示。圖4.16是訓(xùn)練后所保存模型。圖4.15AlexNet訓(xùn)練模型的損失值與準確率的變化圖圖4.16訓(xùn)練模型由上圖可得在10000次的迭代訓(xùn)練中,準確率在訓(xùn)練次數(shù)達到四千五后開始趨于平穩(wěn),達到98%以上。損失函數(shù)在訓(xùn)練次數(shù)達到七千五后開始趨向平緩,損失值降低到0.05以下。4.2.4模型測試訓(xùn)練結(jié)束得到高準確的模型我們就可以開始進行模型測試了,模型測試主要代碼把抽樣測試的圖片傳進訓(xùn)練好的模型看測試結(jié)果是否正確即可,如下圖4.17模型測試的主要代碼:圖4.17模型測試主要代碼在先前的模型訓(xùn)練我們使用了saver.save()的方法來保存訓(xùn)練的模型,模型在訓(xùn)練時候已經(jīng)存放好參數(shù),我們可以使用tf.train.Saver()來載入模型進行模型測試,就不需要每測試一遍又要進行訓(xùn)練,從而達到了節(jié)省時間的效果。4.3GUI界面設(shè)計項目完成了垃圾圖像數(shù)據(jù)集的準備、圖像數(shù)據(jù)預(yù)處理、AlexNet卷積神經(jīng)網(wǎng)絡(luò)的搭建、模型訓(xùn)練與模型測試。然后就可以使用PYQT5對整個項目進行封裝,設(shè)計可視化界面。4.3.1PYQT5簡介PYQT5是使用Python模塊拼接來實現(xiàn)各種功能,這時一款非常強大的GUI支持庫里面有六百多個類,方法與函數(shù),它支持python2.x和python3.x兩個版本。Pyqt5不僅可以使用在Window系統(tǒng)中,Mac與Unix等主流的操作系統(tǒng)也可以運行。4.3.2PYQT5界面設(shè)計本設(shè)計使用PYQT5對基于深度學(xué)習(xí)算法的垃圾分類圖像識別項目進行界面化設(shè)計,其界面設(shè)計主要包含有主界面、三個按鈕以及六個分類圖標與準確率柱狀圖。主界面用來展示打開的圖片與攝像頭的攝入;按鈕分別為OpenImage用來打開本地圖片、OpenCamera用來打開攝像頭、Recognize對打開的圖片或攝像頭前的物品進行識別;主界面下方是六種垃圾類型的圖片,用來反饋識別結(jié)果;在圖標的右方是識別物體在各種類型的準確率柱狀圖的展示。其界面展示圖如下圖4.18所示:圖4.18GUI界面展示圖pyqt5-tools中包含有工具QtDesigner、pyuic和pyrcc等。在界面實現(xiàn)首先我們可以使用QtDesigner工具根據(jù)自己的需求以拖動的形式畫出一個大概的界面,如上圖4.18GUI界面展示圖,使用pyuic命令把界面.ui文件轉(zhuǎn)換為python文件,此時文件擁有界面設(shè)計的主要代碼框架,我們在其可以根據(jù)自己的需求進行優(yōu)化改進。使用pyuic的命令把.ui文件轉(zhuǎn)換為python文件中主要有Ui_MainWindow類和retranslateUI(self,MainWindow)函數(shù),其中Ui_MainWindow它繼承空類object,相當(dāng)于一個空容器,要來裝MainWindow的對象,還有一個子對象centralwidget,主要用在后面在主窗口中運行;而各個控件的屬性就要使用retranslateUI(self,MainWindow)函數(shù)來設(shè)置。然后使用button.clicked.connect(clicked_function)來設(shè)置觸發(fā)按鈕OpenImage和OpenCamera和label.setPixmap用來顯示分類的圖標。4.4項目結(jié)果研究與分析項目的實現(xiàn)最終是作用于垃圾分類,本系統(tǒng)只可識別垃圾的六種類型,分別為Cardboard、Glass、Metal、Paper、Plastic和Trash。因為數(shù)據(jù)的有限性與局限性所以沒能與社會上的垃圾分類達到統(tǒng)一的分類類型標準。但項目的實現(xiàn)最終的思想概念是能用于提高人們進行垃圾投放分類的準確率,以及可提供一個方便的平臺給人們進行認識并且學(xué)習(xí)垃圾分類的所屬類型。當(dāng)系統(tǒng)用戶需要對垃圾進行投放但對垃圾投放分類類型有疑惑時,此系統(tǒng)就起到了很重要的作用,用戶可以對將要投放的垃圾進行拍照,把所拍的圖片傳進系統(tǒng)中,那么就可以得到此垃圾的所屬類型,并把他準確的放入正確類型的垃圾桶里。除了傳送圖片以外,用戶還可以直接打開攝像頭,把將要投放的垃圾放進攝像頭區(qū)域,同樣可以得出結(jié)果。這樣投放垃圾者每天就再也不用被垃圾弄得焦頭爛額,并且再也不會因為垃圾投放錯誤導(dǎo)致被罰款了。而對于系統(tǒng)還未完善達到與社會垃圾分類類型的標準,這在于數(shù)據(jù)難于收集,所以該系統(tǒng)在數(shù)據(jù)的收集方面往后得有待改善,讓系統(tǒng)早一步與社會的垃圾分類標準達成統(tǒng)一。整個系統(tǒng)設(shè)計從數(shù)據(jù)收集、數(shù)據(jù)預(yù)處理、卷積神經(jīng)網(wǎng)絡(luò)的搭建、模型的訓(xùn)練、模型的測試、到界面的設(shè)計就完成了一個簡單的垃圾分類圖像識別的系統(tǒng)。其系統(tǒng)中的垃圾分類識別結(jié)果如下列圖所示:Carboard垃圾類型主要是相對比較厚硬的紙皮箱類型垃圾,此類垃圾可以回收加工再循環(huán)使用。圖4.19Carboard類型識別界面圖Glass垃圾類型主要以玻璃為主的類型垃圾,此類垃圾特點反光、堅硬,并以透明為主。玻璃類型的垃圾經(jīng)過加工廠加工處理還可以循環(huán)利用。圖4.20Glass類型識別界面圖Metal垃圾類型主要以金屬為主的類型垃圾,此類垃圾可以回收加工再循環(huán)使用。圖4.21Metal類型識別界面圖Paper垃圾類型主要以相對比較薄的紙張為主的類型垃圾,此類垃圾可以回收經(jīng)過加工處理可作為原材料使用在各方面。圖4.22Paper類型識別界面圖Plastic主要以塑料為主的類型垃圾,此類型垃圾很難分解,并且燃燒會放出大量的有害物質(zhì)危害人類健康。對環(huán)境會有很大的危害,所以此類垃圾也可以拿去收費站,專業(yè)人員會根據(jù)具體情況進行加工處理循環(huán)利用。圖4.23Plastic類型識別界面圖Trash是不可回收的類型垃圾,專業(yè)人員根據(jù)不可回收垃圾又分為是否可用垃圾,有用的進行加工處理再次使用,無用的最后才放到經(jīng)過處理的填埋場進行填埋。圖4.24Trash類型識別界面圖下圖是攝像頭識別垃圾的效果圖圖4.25攝像頭攝入物體識別界面圖以上系統(tǒng)中識別垃圾圖片與攝像頭識別垃圾的效果圖可看出在數(shù)據(jù)不足夠龐大的情況下,識別的準確率不是特別的穩(wěn)定,例如塑料瓶和玻璃瓶具有相似的透明與反光性,在機器沒有充足的學(xué)習(xí)量下,機器就會對此識別具有一定的困難,會導(dǎo)致準確率不高,在這方面中,系統(tǒng)還需有待提高。第五章項目結(jié)論與展望5.1項目結(jié)論鋪天蓋地的垃圾讓我們不敢想象未來的生活環(huán)境,惡臭的垃圾嚴重危害人類生活飲食,處理垃圾問題是人類現(xiàn)階段刻不容緩的任務(wù)。垃圾分類是目前最為有效的處理垃圾行為。隨著現(xiàn)階段大數(shù)據(jù)的火爆發(fā)展,人工智能完成人類的任務(wù)行之有效。有了人工智能垃圾分類處理就事半功倍了。本文就垃圾分類和人工智能思想展開對垃圾分類和人工智能的研究,探討其中的緊密聯(lián)系,以及如何在垃圾分類問題上恰當(dāng)?shù)氖褂萌斯ぶ悄芗夹g(shù),并且設(shè)計了一款垃圾分類圖像識別的小應(yīng)用。本論文課題以基于深度學(xué)習(xí)算法的垃圾分類圖像識別為題。詳細的講述垃圾在國外與國內(nèi)的現(xiàn)狀問題。展開分析多種深度學(xué)習(xí)算法在圖像識別領(lǐng)域的技術(shù),并以其中的卷積神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)算法技術(shù)設(shè)計了一個垃圾圖像識別的分類模型應(yīng)用。論文在項目設(shè)計部分詳細的闡述整個項目數(shù)據(jù)的來源、數(shù)據(jù)的預(yù)處理、卷積神經(jīng)網(wǎng)絡(luò)的搭建、模型的訓(xùn)練、模型的測試以及最終項目的封裝。最后在一個簡單的GUI界面成功的識別垃圾圖片與攝像頭攝入的垃圾物體。在課題研究與項目設(shè)計中,還有很多不足的地方。深度學(xué)習(xí)本是大數(shù)據(jù)的一個相對較難的知識點,所以在課題的研究中我查閱了很多的書籍與學(xué)習(xí)了很多的視頻,然后再根據(jù)自己的看法與認知對深度學(xué)習(xí)算法的中的自動編碼、受限波爾茲曼機、卷積神經(jīng)網(wǎng)絡(luò)等三種算法進行分析研究,記錄其中的知識理論與技術(shù)要點,所以講述的知識在于個人的理解會導(dǎo)致有所偏差。在項目的設(shè)計里,圖片數(shù)據(jù)是項目的重要因素,但是在項目中數(shù)據(jù)難求,經(jīng)過多種途徑收集的圖片數(shù)據(jù)量還是不足以充分,而在卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練中,機器仿照人的大腦進行學(xué)習(xí),學(xué)習(xí)量越大,知識的掌握程度就越熟練。相對應(yīng)在機器中,圖片就是他的學(xué)習(xí)量,圖片不夠充足,從而導(dǎo)致訓(xùn)練出來的模型識別率相對于比較低。同樣在人類學(xué)習(xí)中,如果一份試卷重復(fù)的練習(xí),那么他對這份試卷的熟練程度會達到非常高,但是當(dāng)遇到不同題目的試卷他就很難做出全隊的答案。所以在機器學(xué)習(xí)圖片數(shù)據(jù)不夠充分的時候,當(dāng)機器識別本身庫存已有的圖片準確率就相對較高,而識別外界的圖片或者攝像頭新攝入的物體識別程度就會大大降低。在攝像頭模塊部分,因為項目沒有識別多個物體的功能,所以在項目進行垃圾識別中,如果攝像頭攝影區(qū)域有多個物體這樣會影響系統(tǒng)的識別效果。這就是本項目的最沒有完善的部分,還需要往后加入大量的垃圾數(shù)據(jù)集進一步的研究并完善系統(tǒng)。本課題雖然有不足之處,但是這次項目從項目選題、開題報告的撰寫、項目設(shè)計的過程、論文內(nèi)容編寫都是自己獨立完成的,這不僅使我加深了對深度學(xué)習(xí)算法的理解,而且還提高了我的動手能力。雖然這是畢業(yè)前學(xué)校的最后一個作品,但是學(xué)習(xí)的機會并不僅剩此次,學(xué)無止境,不管以后去到哪,都要抱著一顆好學(xué)之心。5.2未來展望系統(tǒng)通過深度學(xué)習(xí)算法設(shè)計的一款小型的圖片識別應(yīng)用,其啟蒙是人們對政府下達的垃圾分類政策感到有壓力。大家都希望社會環(huán)境變得更好,但是了解垃圾分類知識的卻寥寥無幾。在這種形式下,這款垃圾分類的圖像識別就相當(dāng)有用。人們可以通過垃圾圖片或者垃圾實物在系統(tǒng)中進行識別得出分類結(jié)果,這不僅可以認識垃圾的正確分類類型,而且對于投放垃圾的準確率更高,從而減輕社會的環(huán)保工作,達到減少環(huán)境污染的目的。深度學(xué)習(xí)算法不僅僅可實現(xiàn)圖像識別,當(dāng)今的語音識別,自動駕駛等人工智能技術(shù)都是深度學(xué)習(xí)的一部分知識。希望深度學(xué)習(xí)技術(shù)不斷地被發(fā)掘完善,對垃圾分類更加的精確,減少人工分類。更希望深度學(xué)習(xí)在社會各個領(lǐng)域上都有偉大的貢獻,從而促進國家社會與經(jīng)濟的發(fā)展,讓社會人們的生活過的越來越美好。參考文獻王改華,李濤,呂朦,采用無監(jiān)督學(xué)習(xí)算法與卷積的圖像分類模型[J],華僑大學(xué)學(xué)報(自然科學(xué)版),2018(01)陳檢,肖思雋,孫秋梅,基于遷移學(xué)習(xí)算法的糖網(wǎng)病自動篩選系統(tǒng)研究[J],信息技術(shù)與信息化,2018(07)丁昱,李靈巧,楊輝華,針對復(fù)雜背景的城管案件圖像分類方法[J],計算機仿真,2019(05)溫超,屈健,李展

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論