【交通標(biāo)志檢測(cè)與識(shí)別研究7500字(論文)】_第1頁(yè)
【交通標(biāo)志檢測(cè)與識(shí)別研究7500字(論文)】_第2頁(yè)
【交通標(biāo)志檢測(cè)與識(shí)別研究7500字(論文)】_第3頁(yè)
【交通標(biāo)志檢測(cè)與識(shí)別研究7500字(論文)】_第4頁(yè)
【交通標(biāo)志檢測(cè)與識(shí)別研究7500字(論文)】_第5頁(yè)
已閱讀5頁(yè),還剩12頁(yè)未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

目錄TOC\o"1-3"\h\u202901前言 [1]中國(guó)交通數(shù)據(jù)集由長(zhǎng)沙理工大學(xué)綜合交通運(yùn)輸大數(shù)據(jù)智能處理湖南省重點(diǎn)實(shí)驗(yàn)室張建明老師團(tuán)隊(duì)制作完成,部分圖像如下圖所示。本文將通過(guò)CCTSDB交通標(biāo)志圖像,將不同派別下的各種交通標(biāo)志圖像分別放入訓(xùn)練集和測(cè)試集,用OpenCV進(jìn)行標(biāo)記后處理,并采用Darknet框架訓(xùn)練交通標(biāo)志識(shí)別模型,識(shí)別率達(dá)標(biāo)后完成訓(xùn)練。1.3論文組織結(jié)構(gòu)在大量相關(guān)研究中,首先綜合分析了交通標(biāo)志識(shí)別課題的研究背景與研究意義。對(duì)未來(lái)交通識(shí)別應(yīng)用的廣泛程度進(jìn)行預(yù)測(cè),緊接著介紹了論文的主要研究方法和整體步驟。本文主要介紹了利用區(qū)域推薦算法和非極大值抑制原理對(duì)圖像進(jìn)行初步的定位,YOLO模型對(duì)交通標(biāo)志特征的提取,最后是對(duì)數(shù)據(jù)集中的圖像進(jìn)行標(biāo)定,分為“警告類(lèi)”,“禁止”類(lèi),和“指向”類(lèi)。基于LeNet.5網(wǎng)絡(luò)這種典型卷積神經(jīng)網(wǎng)絡(luò)模型的原理,并比較分析了這種網(wǎng)絡(luò)結(jié)構(gòu)的優(yōu)缺點(diǎn)。在真實(shí)的生活場(chǎng)景中我們需要快速且精準(zhǔn)地判斷出交通標(biāo)志的意義,同時(shí)發(fā)揮出識(shí)別精確度的長(zhǎng)處。最后總結(jié)全文研究?jī)?nèi)容與實(shí)驗(yàn)結(jié)果,指出本文的不足之處,并展望未來(lái)的發(fā)展。2交通標(biāo)志圖像定位2.1圖像定位簡(jiǎn)介與傳統(tǒng)的機(jī)器學(xué)習(xí)算法不相同,傳統(tǒng)的算法必須使用一些技術(shù)性或是技巧性的方法來(lái)抽取圖像的特點(diǎn),深度學(xué)習(xí)在這一方向具有得天獨(dú)厚的長(zhǎng)處。深度學(xué)習(xí)通過(guò)大批的交通標(biāo)志圖像模型進(jìn)行模擬訓(xùn)練,從這些模擬得到的樣本圖像中自然地提取交通標(biāo)志圖像的特點(diǎn),卷積神經(jīng)網(wǎng)絡(luò)自二十世紀(jì)八十年代的出現(xiàn)之后,已經(jīng)成為許多科研方向的重點(diǎn)。圖3.1特征提取過(guò)程圖2.2區(qū)域選擇推薦算法利用區(qū)域選擇推薦算法定位道路標(biāo)志是交通標(biāo)志識(shí)別在卷積神經(jīng)網(wǎng)絡(luò)上的一次偉大的歷史性突破。與之前的機(jī)器學(xué)習(xí)的算法不相同的是,在錄入一個(gè)圖像時(shí)區(qū)域卷積神經(jīng)網(wǎng)絡(luò)系統(tǒng)會(huì)通過(guò)識(shí)別圖像的各種細(xì)節(jié)例如,圖像的顏色,輪廓,邊界,空間占比,紋路等來(lái)對(duì)候選目標(biāo)的數(shù)量進(jìn)行初步的預(yù)測(cè)。有時(shí)為了推薦區(qū)域的順利產(chǎn)出,會(huì)應(yīng)用一個(gè)網(wǎng)格,使它滑動(dòng)在倒數(shù)第一層卷積層產(chǎn)出的卷積神經(jīng)特點(diǎn)圖,該網(wǎng)格在利用窗口在輸入的卷積神經(jīng)特點(diǎn)圖上。此網(wǎng)絡(luò)的表達(dá)如以下圖像表示,因?yàn)榫W(wǎng)絡(luò)的運(yùn)行是在滑動(dòng)思維下運(yùn)作的,兩個(gè)全連接層分析享有全部的坐標(biāo)信息和空間位置,這一框架很順利地通過(guò)的卷積層呈現(xiàn),在的卷積層后使用ReLU(Rectified)激勵(lì)函數(shù)進(jìn)行最后輸出。為了對(duì)區(qū)域推送網(wǎng)絡(luò)進(jìn)行模擬訓(xùn)練,使其能夠?qū)煌?biāo)志做出一個(gè)區(qū)塊化的判斷,每一個(gè)anchor模型都要匹配一個(gè)二進(jìn)制的標(biāo)簽,分配一個(gè)正標(biāo)簽給兩類(lèi)anchor,這步操作與這個(gè)標(biāo)簽是不是屬于此目標(biāo)無(wú)關(guān),第一類(lèi)anchor和現(xiàn)實(shí)框的匹配程度最好,第二類(lèi)anchor與現(xiàn)實(shí)框的匹配程度大于0。定義最終的交通標(biāo)志模型識(shí)別最小化目標(biāo)loss函數(shù)如下:(3.1)其中,?是anchor對(duì)應(yīng)的下標(biāo),是第個(gè)anchor含有交通標(biāo)志目標(biāo)的預(yù)測(cè)概率,如果anchor是真,則為1,否則,如果anchor為負(fù),則為0[7]。是代表預(yù)測(cè)框盒子坐標(biāo)的4個(gè)數(shù)據(jù)的向量,是與真anchor相關(guān)的真實(shí)框盒子坐標(biāo)的4個(gè)參數(shù)的向量。分類(lèi)損失函數(shù)是兩類(lèi)(目標(biāo)和非目標(biāo))的邏輯損失,對(duì)于回歸損失函數(shù),我們使用,其中是一個(gè)平滑損失函數(shù),如公式所示smoothL1=0.5公式代表僅僅當(dāng)anchor為真()和anchor為負(fù)(),分類(lèi)層和回歸層輸出由和構(gòu)成,這兩項(xiàng)將通過(guò),以及平衡常數(shù)均值化。對(duì)于回歸,本文通過(guò)如下公式來(lái)參數(shù)化4個(gè)坐標(biāo)&tx=&tx?其中,x,y,w和?分別代表圖像中交通標(biāo)志框的中間坐標(biāo)[8],其表示的是交通標(biāo)志目標(biāo)框的寬度和高度,變量x,x2.3非極大值抑制原理最后確定交通標(biāo)志目標(biāo)框時(shí),深度學(xué)習(xí)目標(biāo)框需要進(jìn)行非極大值抑制(NMS)如下圖所示,其是眾多計(jì)算機(jī)視覺(jué)和模式識(shí)別和圖像處理應(yīng)用中的關(guān)鍵預(yù)處理步驟。圖3.2交通標(biāo)志非極大值抑制示意圖NMS的直接實(shí)現(xiàn)包含有兩個(gè)循環(huán),當(dāng)中的外循環(huán)遍歷所有像素,內(nèi)循環(huán)針對(duì)其所有的相近像素測(cè)試是否能成為外部循環(huán)的候選。首先,第個(gè)相鄰像素在前個(gè)相鄰像中與當(dāng)前候選者中是最大的,其發(fā)生概率為11+?;第二,循環(huán)必須在第次迭代之前不被中止,即當(dāng)前候選值比已經(jīng)測(cè)試的相鄰像素大,其發(fā)生概率為1?,最終得到:p(i)=1i(i+1)(3在每次迭代中,發(fā)生候選像素與第個(gè)相鄰像素之間的準(zhǔn)確預(yù)測(cè)一次,其總計(jì)比較次,直到第次迭代結(jié)束。因此,每個(gè)像素的預(yù)期比較數(shù)目(CpP)為E(CpP)=&2n2n+1+i=1其中是左和右相鄰像素的數(shù)目,且第一項(xiàng)捕獲候選像素是局部最大值時(shí)的情況。3基于YOLO模型的交通標(biāo)志特征提取3.1YOLO原理簡(jiǎn)介YOLO(Youlookonlyonce)其原理比較簡(jiǎn)易:圖像盒子的多個(gè)邊框和輪廓會(huì)被一個(gè)卷積神經(jīng)網(wǎng)絡(luò)一起同一時(shí)間進(jìn)行預(yù)測(cè)。YOLO會(huì)對(duì)數(shù)據(jù)集所有的圖像進(jìn)行模擬預(yù)測(cè),之后會(huì)對(duì)檢驗(yàn)性能進(jìn)行直接的優(yōu)化和更新。YOLO會(huì)對(duì)圖形進(jìn)行一個(gè)完整的考慮,其次,YOLO能對(duì)物體對(duì)象進(jìn)行更加一般的抽象表示。3.2YOLO模型訓(xùn)練YOLO會(huì)把錄入的圖形分割成n*n的網(wǎng)格,每個(gè)單獨(dú)的網(wǎng)絡(luò)會(huì)預(yù)測(cè)M個(gè)邊界框并得到它們的置信度分?jǐn)?shù)。每個(gè)邊界框有五個(gè)可以預(yù)測(cè)的值:x,y,w,h以及置信度,坐標(biāo)代表框的中心相對(duì)于網(wǎng)格單元的邊界,預(yù)測(cè)的寬度和高度是相較于整個(gè)圖像。通過(guò)圖像寬度和高度將邊界框?qū)挾群透叨葰w一化,使得他們的預(yù)測(cè)值在0和1之間。其具體函數(shù)如下:φ(x)=&x,????&&x>0&0.1x,????&&其他YOLO會(huì)對(duì)每一個(gè)單元網(wǎng)格內(nèi)的多種邊界框進(jìn)行一次預(yù)測(cè),在模擬練習(xí)時(shí),我們應(yīng)該把每個(gè)對(duì)象都匹配一個(gè)邊框預(yù)測(cè)期。其公式如下:λcoordi=0s其中,I?j0bj代表如果對(duì)象出現(xiàn)在網(wǎng)格?中,并且?j表示網(wǎng)格?中第YOLOv3相較于傳統(tǒng)的YOLO引入了參差連接算法,目的是對(duì)網(wǎng)絡(luò)的深度進(jìn)行加深,網(wǎng)絡(luò)的主體部分有五十三層卷積層也可以被稱(chēng)為Darknet53,其主要結(jié)構(gòu)是由3×3的卷積層和1×1卷積核連接塊匹配組合而成,殘差連接塊如下圖所示。圖3.3參差連接塊如圖上所示,x是殘差連接塊的輸入,F(x)是x經(jīng)過(guò)兩層卷積層后的輸出,殘差連接就是將輸入x與F(x)相加。殘連接的公式如下所示[9]:H(x)=F(x)+x(3.7)3.3交通標(biāo)志圖片標(biāo)注交通標(biāo)志深度學(xué)習(xí)網(wǎng)絡(luò)的訓(xùn)練是一個(gè)非常重要的步驟,為了訓(xùn)練交通標(biāo)志識(shí)別模型,需要對(duì)每一張交通標(biāo)志圖像進(jìn)行標(biāo)定。在此實(shí)驗(yàn)利用OpenCV搭建實(shí)驗(yàn)平臺(tái)并利用RCNN、YOLO網(wǎng)絡(luò)對(duì)各種交通標(biāo)志圖像數(shù)據(jù)集進(jìn)行遷移訓(xùn)練。3.3.1標(biāo)定軟件本文使用labeImg標(biāo)注軟件來(lái)標(biāo)定交通標(biāo)志采集的圖像,labeImg[12]軟件如圖所示。圖3.5標(biāo)定軟件labeImg3.3.2標(biāo)定過(guò)程通過(guò)labeiImg打開(kāi)圖像目錄,然后創(chuàng)建類(lèi)別標(biāo)簽,本文的分類(lèi)主要分為warning、prohibitory以及mandatory,其標(biāo)注如圖所示。圖3.6標(biāo)定warning圖3.7標(biāo)定指向型交通標(biāo)志3.4算法改進(jìn)在我們真實(shí)生活場(chǎng)景中,我們不能只去關(guān)注識(shí)別的精準(zhǔn)度,也要把識(shí)別的時(shí)長(zhǎng)因素考慮到位,因?yàn)閷?shí)時(shí)性是決定計(jì)算機(jī)在判斷圖像時(shí)的關(guān)鍵因素。為了提高CNN算法的實(shí)時(shí)檢測(cè)特性,需要對(duì)現(xiàn)有的虛擬數(shù)據(jù)進(jìn)行剪枝,提煉出輕量型的網(wǎng)絡(luò)模型。力求在維持原有的精確度不變的情況下,加速網(wǎng)絡(luò)模型的識(shí)別速度,來(lái)提高檢測(cè)識(shí)別系統(tǒng)的實(shí)時(shí)性?;贚eNet5網(wǎng)絡(luò)識(shí)別算法[16],對(duì)卷積神經(jīng)網(wǎng)絡(luò)CNN進(jìn)行改良,在對(duì)現(xiàn)有的算法改進(jìn)之前,應(yīng)先對(duì)LetNet5網(wǎng)絡(luò)識(shí)別算法進(jìn)行簡(jiǎn)單介紹。首先介紹一下LeNet5網(wǎng)絡(luò)的總體結(jié)構(gòu),LeNet5網(wǎng)絡(luò)有七層模型,最開(kāi)始的兩層是卷積層,之后是兩層池化層,卷積層運(yùn)用的是5*5的卷積核,與卷積層的卷積核大小不相同的是,池化層的內(nèi)核大小僅僅為2*2。LeNet5網(wǎng)絡(luò)最后三層為全連接層,三層連接層的節(jié)點(diǎn)數(shù)目分別為126,84,10。與傳統(tǒng)的CNN卷積神經(jīng)網(wǎng)絡(luò)采用的激活函數(shù)不同的是LeNet5網(wǎng)絡(luò)采納的激活函數(shù)是signmoid激活函數(shù)[17]。最后LeNet5網(wǎng)絡(luò)輸出層采用的是SOFT分類(lèi)器。為了提升識(shí)別時(shí)的精確性和實(shí)時(shí)性,本實(shí)驗(yàn)對(duì)原先的LeNet5網(wǎng)絡(luò)模型做出了以下幾個(gè)方向的改動(dòng):(1)首先是對(duì)卷積核的統(tǒng)一,先前卷積層的卷積核數(shù)不固定,我們將所有卷積層的卷積核替換為3×3卷積核。在此對(duì)卷積核的規(guī)律進(jìn)行一個(gè)簡(jiǎn)單的介紹,正常情況下兩個(gè)3×3的卷積層等價(jià)于一層5×5的卷積層,三個(gè)3×3的卷積層等價(jià)于一層7×7的卷積層,在網(wǎng)絡(luò)層次越來(lái)越深的情況下,加入了從線性變化到非線性變化,網(wǎng)絡(luò)自身的學(xué)習(xí)能力也會(huì)增強(qiáng),對(duì)特征鎖定會(huì)更加敏感和快速,于此同時(shí)網(wǎng)絡(luò)本身的容積也在隨之變大。相比于傳統(tǒng)的5×5和7×7的大卷積核,3×3的卷積核參數(shù)數(shù)量大幅減少。(2)之后希望對(duì)網(wǎng)絡(luò)的范圍進(jìn)行一個(gè)擴(kuò)大,因此引入了Inception模塊組。Inception模塊[18]會(huì)把不同大小的卷積在相同的一層卷積上進(jìn)行匹配和組合,此后可以利用更小的卷積核,例如1×1的卷積核對(duì)圖像的特征進(jìn)行遍歷和判斷,得到的結(jié)果進(jìn)行初步的判斷,若維度還是太高,再進(jìn)行降維操作。在同一組參數(shù)數(shù)據(jù)下,我們可以判斷出引入此模塊的優(yōu)點(diǎn)有:大大提升了計(jì)算的效率,特征提取液更加精確和充分,數(shù)據(jù)訓(xùn)練后得到的結(jié)果更為顯著。(3)現(xiàn)在要應(yīng)對(duì)的是輸入的批量樣本。在此我們引入批量歸一化方法REF_Ref74314641\r\h[19]處理,在對(duì)卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行練習(xí)的過(guò)程中,每一層的網(wǎng)絡(luò)參數(shù)會(huì)根據(jù)數(shù)據(jù)進(jìn)行一個(gè)線性變化。為了統(tǒng)一每層網(wǎng)絡(luò)的數(shù)據(jù)分布,于是在每一層卷積層后引入批量歸一化,將每一層數(shù)據(jù)歸一化到均值為0,方差為1。批量化歸一公式為:xk=xk(4)在激活函數(shù)的選擇這一步上,使用之前提到的ReLu激活函數(shù)對(duì)原先的Sigmoid激活函數(shù)進(jìn)行代替σx=11+在我們開(kāi)始采用Sigmoid激活函數(shù)訓(xùn)練的過(guò)程中,有如下三個(gè)顯而易見(jiàn)的缺陷:1)當(dāng)網(wǎng)絡(luò)的輸入比較大或比較小時(shí),神經(jīng)元梯度會(huì)向0的方向無(wú)限地靠近,在反向傳播的過(guò)程中神經(jīng)元梯度會(huì)自動(dòng)地消失,這最終會(huì)導(dǎo)致神經(jīng)網(wǎng)絡(luò)無(wú)法訓(xùn)練;2)Sigmoid激活函數(shù)的輸出結(jié)果均值為0,上一層的神經(jīng)元輸出的非0結(jié)果會(huì)作為下一層的神經(jīng)元系統(tǒng)的輸入數(shù)據(jù),當(dāng)輸入數(shù)據(jù)是正值時(shí),梯度會(huì)一直向正方向更新;3)Sigmoid激活函數(shù)的計(jì)算非常繁瑣,對(duì)范圍大的深度學(xué)習(xí)網(wǎng)絡(luò)神經(jīng)會(huì)增加對(duì)網(wǎng)絡(luò)的訓(xùn)練時(shí)長(zhǎng)。ReLu激活函數(shù)公式為:YX=max0,X把Sigmoid激活函數(shù)和ReLU激活函數(shù)進(jìn)行一個(gè)綜合的對(duì)比后發(fā)現(xiàn),在梯度傳播的方向上后者的特性非常契合此傳播方式。在總體計(jì)算量方面,后者的優(yōu)勢(shì)也能體現(xiàn)出來(lái),ReLU激活函數(shù)只需要進(jìn)行一次算數(shù)運(yùn)算就可以比后者的效率高很多。ReLU激活函數(shù)的運(yùn)算特性是把輸出結(jié)果大于0的位置全部當(dāng)做1,這樣做的優(yōu)勢(shì)是可以穩(wěn)定住梯度的范圍,不會(huì)讓梯度過(guò)小同時(shí)也不會(huì)發(fā)生飽和的現(xiàn)象,這樣的優(yōu)勢(shì)又有助于在反向傳播的情形下梯度能更有效地傳遞到前面的網(wǎng)絡(luò)。說(shuō)完了ReLU激活函數(shù)的優(yōu)勢(shì),其也有不足的地方:ReLU激活函數(shù)也會(huì)有“失手”的時(shí)候,在確定情形下激活函數(shù)會(huì)失去對(duì)數(shù)據(jù)的激活現(xiàn)象,例如當(dāng)一個(gè)龐大的梯度經(jīng)過(guò)神經(jīng)元時(shí),激活函數(shù)失去原先的功能。所以在采用此激活函數(shù)時(shí)要注意的是先確定好激活函數(shù)的值穩(wěn)定在一定范圍內(nèi),以免會(huì)出現(xiàn)“DeadReLU”問(wèn)題[20]。兩種激活函數(shù)如圖所示:圖3.8兩種激活函數(shù)如圖上圖所示,Sigmoid激活函數(shù)對(duì)中間的信號(hào)影響較大,對(duì)兩側(cè)的信號(hào)影響較小。ReLU激活函數(shù)是線性的分段函數(shù),當(dāng)信號(hào)不大于0時(shí),輸出信號(hào)為0,當(dāng)信號(hào)大于0時(shí),輸入和輸出信號(hào)保持一致。相比于Sigmoid激活函數(shù),ReLU激活函數(shù)能比較好地契合模擬訓(xùn)練的數(shù)據(jù),在反向傳播過(guò)程中有助于將梯度傳播到前面的網(wǎng)絡(luò),加速網(wǎng)絡(luò)模型的收斂,所以對(duì)卷積神經(jīng)網(wǎng)絡(luò)模型的改進(jìn)是采納ReLU激活函數(shù)。(5)在圖片被輸入到改進(jìn)的卷積神經(jīng)網(wǎng)絡(luò)中模擬之前,需要對(duì)交通標(biāo)志圖像進(jìn)行一個(gè)預(yù)解析,1)對(duì)數(shù)據(jù)集進(jìn)行重新采樣,使得每類(lèi)的交通標(biāo)志標(biāo)識(shí)個(gè)數(shù)均勻分散。2)為了方便訓(xùn)練和測(cè)試,需要對(duì)圖標(biāo)的尺寸進(jìn)行一個(gè)標(biāo)準(zhǔn)化,把所有圖標(biāo)大小都變?yōu)?2*32。3)使用直方圖均衡化對(duì)圖像進(jìn)行加強(qiáng)。其原理是通過(guò)改變像素的強(qiáng)度來(lái)增加對(duì)比度,將一副圖像的直方圖轉(zhuǎn)變?yōu)榫鶆蚍植肌?)圖像的像素范圍是0.255,將圖像像素統(tǒng)一到[.1,1]之間。5)將圖片翻轉(zhuǎn)的角度設(shè)為10°,圖片隨機(jī)水平或垂直偏移幅度設(shè)為0.88,圖片隨機(jī)縮放的參數(shù)設(shè)置為0.2。在此部分基于LeNet.5網(wǎng)絡(luò)這種典型卷積神經(jīng)網(wǎng)絡(luò)模型的原理,并比較分析了這種網(wǎng)絡(luò)結(jié)構(gòu)的優(yōu)缺點(diǎn)。在真實(shí)的生活場(chǎng)景中我們需要快速且精準(zhǔn)地判斷出交通標(biāo)志的意義,同時(shí)發(fā)揮出識(shí)別精確度的長(zhǎng)處,改進(jìn)過(guò)程中我們以LeNet.5網(wǎng)絡(luò)模型為基礎(chǔ)的情況下,引入Incepion模塊組來(lái)對(duì)網(wǎng)絡(luò)的范圍進(jìn)行一個(gè)擴(kuò)展,在我們綜合AlexNet[21]和GoogleNet兩種網(wǎng)絡(luò)的特點(diǎn)和長(zhǎng)處后,最終提出一個(gè)輕量級(jí)的網(wǎng)絡(luò)模型。4實(shí)驗(yàn)結(jié)果分析4.1交通標(biāo)志圖像檢測(cè)實(shí)驗(yàn)4.1.1模型訓(xùn)練曲線利用CCTSDB交通標(biāo)志圖像,將不同派別下的各種交通標(biāo)志圖像分別放入訓(xùn)練集和測(cè)試集,用OpenCV進(jìn)行標(biāo)記后處理,并采用Darknet框架訓(xùn)練交通標(biāo)志識(shí)別模型,識(shí)別率達(dá)標(biāo)后完成訓(xùn)練。圖4.1模型訓(xùn)練結(jié)果圖4.1.2交通標(biāo)志prohibitory類(lèi),warning類(lèi)、以及mandatory類(lèi)識(shí)別程序運(yùn)行結(jié)果截圖:可以看到程序優(yōu)化效果明顯,相較于原先的識(shí)別算法,改進(jìn)后的圖像抓取更為精確,識(shí)別準(zhǔn)度也更高。圖4.2對(duì)于兩種不同類(lèi)型的交通標(biāo)志進(jìn)行同時(shí)識(shí)別圖4.3在光線較暗的環(huán)境下的識(shí)別圖4.4對(duì)于三個(gè)交通標(biāo)識(shí)的同時(shí)識(shí)別圖4.5對(duì)于樹(shù)木遮擋下的標(biāo)志識(shí)別圖4.6對(duì)復(fù)雜標(biāo)識(shí)牌的識(shí)別4.2軟硬件配置本實(shí)驗(yàn)使用的計(jì)算機(jī)實(shí)驗(yàn)環(huán)境如下:CPU(英特爾)Intel(R)Core(TM)i7.4720HQ,CPU主頻是2.6Ghz,內(nèi)存為8G,操作系統(tǒng)是Windows10,顯卡配置是NVIDIAGeForceGTX960M,顯存為4G,主板是宏碁AspireVN7.591G。軟件平臺(tái)為visualstudio2017,Qt.opensource.windows.x86.5.9.9,Opencv.4.5.1,DevC++。5結(jié)束語(yǔ)深度學(xué)習(xí)方法具有強(qiáng)大的特征表達(dá)能力,相比于傳統(tǒng)的手工設(shè)計(jì)特征方法更加優(yōu)越,在復(fù)雜路況和光線較弱的交通場(chǎng)景中檢測(cè)識(shí)別交通標(biāo)志應(yīng)具有準(zhǔn)確率和實(shí)時(shí)性都較好的優(yōu)點(diǎn)。本設(shè)計(jì)的目的是對(duì)現(xiàn)有的卷積神經(jīng)網(wǎng)絡(luò)算法進(jìn)行一點(diǎn)改進(jìn),實(shí)現(xiàn)對(duì)交通標(biāo)志識(shí)別的更精確和更迅速的效果。在充分閱讀各種參考資料和國(guó)內(nèi)外文獻(xiàn)后,又對(duì)相關(guān)的實(shí)驗(yàn)技術(shù)進(jìn)行基礎(chǔ)學(xué)習(xí),搜索交通標(biāo)志圖像數(shù)據(jù)集,最后嘗試將算法進(jìn)行初步實(shí)現(xiàn)。在完成基本目標(biāo)后對(duì)結(jié)果進(jìn)行簡(jiǎn)單的總結(jié)和報(bào)告,并調(diào)試相應(yīng)的程序。參考文獻(xiàn)[1]梁文龍.基于IVGG網(wǎng)絡(luò)的交通標(biāo)志識(shí)別算法研究[D]長(zhǎng)沙理工大學(xué).2018(6)[2]湯桂桃.圖切技術(shù)和卷積網(wǎng)絡(luò)的交通標(biāo)志數(shù)據(jù)集構(gòu)建方法[D]電子科技大學(xué)2017(4)[3]鎖雪萍.基于深度學(xué)習(xí)的監(jiān)控視頻目標(biāo)檢測(cè)技術(shù)研究[D]天津科技大學(xué)2018[4]范磊,艾昌文.時(shí)滯過(guò)程中流量調(diào)節(jié)的自適應(yīng)學(xué)習(xí)方法研究[J](云南大學(xué)信息學(xué),,云南大學(xué)省電子計(jì)算中心,云南昆明650223)2020[5]史達(dá).基于深度學(xué)習(xí)的商品圖像分類(lèi)研究與實(shí)現(xiàn)[D]電子科技大學(xué)2020[6]王子哲.基于視頻的無(wú)人機(jī)目標(biāo)檢測(cè)算法研究[D]鄭州大學(xué)2019[7]林明霞.關(guān)于圖像分類(lèi)問(wèn)題的幾種深度學(xué)習(xí)策略研究[R]廈門(mén)大學(xué)2015[8]王琳琳.基于聚類(lèi)與極限學(xué)習(xí)機(jī)的入侵檢測(cè)方法研究[D]天津大學(xué)日期2017[9]湯桂桃.基于機(jī)器視覺(jué)的生產(chǎn)線關(guān)鍵崗位人員檢測(cè)[D]電子科技大學(xué)2017[10]王曉,關(guān)志強(qiáng),王靜,王永強(qiáng).基于卷積神經(jīng)網(wǎng)絡(luò)的彩色圖像聲吶目標(biāo)檢測(cè)[J]期刊(云南大學(xué)信息學(xué)院,昆明,650000)2019[11]何君婷.基于卷積神經(jīng)網(wǎng)絡(luò)和遷移學(xué)習(xí)的宮頸細(xì)胞學(xué)圖像異常區(qū)域檢測(cè)[D]華南理工大學(xué)2019-01-01[12]韓江洪,袁稼軒,衛(wèi)星,陸陽(yáng).基于深度學(xué)習(xí)的井下巷道行人視覺(jué)定位算法[J]作者單位(合肥工業(yè)大學(xué)計(jì)算機(jī)與信息學(xué)院,合肥230601;安全關(guān)鍵工業(yè)測(cè)控技術(shù)教育部工程研究中心,合肥230601,合肥工業(yè)大學(xué)計(jì)算機(jī)與信息學(xué)院,合肥,230601)2019[13]熊舒羽.基于深度學(xué)習(xí)技術(shù)的醫(yī)學(xué)圖像檢索方法研究[D

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論