基于改進(jìn)YOLOv3算法的行人目標(biāo)檢測(cè)方法研究_第1頁(yè)
基于改進(jìn)YOLOv3算法的行人目標(biāo)檢測(cè)方法研究_第2頁(yè)
基于改進(jìn)YOLOv3算法的行人目標(biāo)檢測(cè)方法研究_第3頁(yè)
基于改進(jìn)YOLOv3算法的行人目標(biāo)檢測(cè)方法研究_第4頁(yè)
基于改進(jìn)YOLOv3算法的行人目標(biāo)檢測(cè)方法研究_第5頁(yè)
已閱讀5頁(yè),還剩45頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

[46]。OpenCV是一個(gè)開(kāi)源的跨平臺(tái)計(jì)算機(jī)視覺(jué)庫(kù),由英特爾公司發(fā)起并維護(hù)。它包含了大量的圖像處理和計(jì)算機(jī)視覺(jué)相關(guān)的函數(shù)和工具,可以用于實(shí)現(xiàn)各種各樣的計(jì)算機(jī)視覺(jué)應(yīng)用。OpenCV支持多種編程語(yǔ)言,包括C++、Python、Java等,且可以在Windows、Linux、macOS等操作系統(tǒng)上運(yùn)行。它提供了豐富的功能和工具,包括圖像處理、圖像分割、目標(biāo)檢測(cè)、人臉識(shí)別、運(yùn)動(dòng)跟蹤、相機(jī)標(biāo)定、三維重建等,涵蓋了從基礎(chǔ)圖像處理到高級(jí)計(jì)算機(jī)視覺(jué)領(lǐng)域的各個(gè)方面。OpenCV的優(yōu)點(diǎn)在于其簡(jiǎn)單易用、高效可靠、跨平臺(tái)性強(qiáng)等特點(diǎn)。通過(guò)使用OpenCV,我們可以快速地實(shí)現(xiàn)各種計(jì)算機(jī)視覺(jué)應(yīng)用,比如圖像處理、物體識(shí)別、視頻跟蹤等。OpenCV是計(jì)算機(jī)視覺(jué)領(lǐng)域的重要工具和框架,有著廣泛的應(yīng)用和較高的實(shí)用價(jià)值。因此在軟件開(kāi)發(fā)方面具有重要影響。這個(gè)庫(kù)的廣泛應(yīng)用,使得它成為了計(jì)算機(jī)視覺(jué)研究和開(kāi)發(fā)中不可或缺的工具之一。圖像處理方法:在OpenCV庫(kù)中,有多種方法可用于圖像或視頻的采集,比如從攝像頭、視頻文件或網(wǎng)絡(luò)視頻流中讀取圖像或視頻數(shù)據(jù)等。對(duì)于采集到的圖像或視頻可以通過(guò)OpenCV提供的各種函數(shù)進(jìn)行預(yù)處理,例如改變圖像亮度、對(duì)比度、裁剪、縮放、旋轉(zhuǎn)、翻轉(zhuǎn)等操作,以便更好地進(jìn)行后續(xù)分析。特征匹配:例如FLANN匹配器、暴力匹配器等,這一步可以幫助我們找到不同圖像或視頻中相同物體的位置。目標(biāo)檢測(cè)和識(shí)別:在目標(biāo)檢測(cè)和識(shí)別領(lǐng)域,OpenCV提供了多種機(jī)器學(xué)習(xí)算法,如Haar特征分類(lèi)器、HOG+SVM、卷積神經(jīng)網(wǎng)絡(luò)等,可用于人臉檢測(cè)、車(chē)牌識(shí)別、物體識(shí)別等任務(wù)??梢源蟠筇嵘龑?duì)圖像復(fù)雜信息的分析和理解,實(shí)現(xiàn)更加復(fù)雜的計(jì)算機(jī)視覺(jué)應(yīng)用??梢暬洼敵觯篛penCV提供了各種函數(shù),例如imshow、imwrite等,可以將處理結(jié)果可視化,并輸出到文件或網(wǎng)絡(luò)。3.2行人檢測(cè)流程與難點(diǎn)3.2.1行人檢測(cè)流程簡(jiǎn)述行人檢測(cè)是一種常見(jiàn)的計(jì)算機(jī)視覺(jué)任務(wù),其本質(zhì)是在輸入圖像中檢測(cè)和定位出圖像中的行人區(qū)域。首先需要采集并準(zhǔn)備用于行人檢測(cè)的訓(xùn)練數(shù)據(jù),包括大量的正樣本和負(fù)樣本。正樣本是指包含行人的圖像樣本,負(fù)樣本則反之。這些數(shù)據(jù)需要被標(biāo)注和預(yù)處理,以便后續(xù)訓(xùn)練和測(cè)試使用。使用特征提取方法從輸入圖像中提取特征,然后從中選取出最有區(qū)分性和代表性的特征。對(duì)待檢測(cè)圖像進(jìn)行行人檢測(cè)。采用滑動(dòng)窗口的方法來(lái)搜索圖像,并使用行人檢測(cè)器對(duì)每個(gè)窗口進(jìn)行分類(lèi),判斷該窗口是否包含行人。若存在行人,則記錄下行人的位置和大小。在檢測(cè)完成后,由于可能會(huì)出現(xiàn)多個(gè)框重疊的情況,需要采用非極大值抑制算法進(jìn)行優(yōu)化。該算法在不降低正確率的前提下,能夠去除冗余的重復(fù)框,得到最終的行人檢測(cè)結(jié)果。最后,需要對(duì)檢測(cè)的結(jié)果進(jìn)行后處理,例如去掉一些噪聲點(diǎn)或小于一定面積的框等。然后輸出最終的行人檢測(cè)結(jié)果,包括對(duì)應(yīng)的行人區(qū)域、位置和大小信息等。圖3.1行人檢測(cè)流程3.2.2評(píng)價(jià)指標(biāo)經(jīng)過(guò)多次實(shí)踐驗(yàn)證,平均精度均值和圖片的識(shí)別速率已被證明是目標(biāo)檢測(cè)評(píng)估的最常用、最有效的指標(biāo)。這些指標(biāo)能夠?qū)δ繕?biāo)檢測(cè)算法的準(zhǔn)確性和效率進(jìn)行全面的評(píng)估,并幫助我們更好地比較和選擇不同的算法,提高計(jì)算機(jī)視覺(jué)應(yīng)用的性能。檢測(cè)大于閾值的叫做(TruePositive,TP),低于閾值的也就是錯(cuò)誤的叫做(FalsePositive,FP),如果一個(gè)目標(biāo)被重復(fù)檢測(cè),取置信度最高值選為正樣本。對(duì)于使用YOLOv3進(jìn)行行人檢測(cè)任務(wù)的評(píng)價(jià),一般會(huì)采用精度(Precision)和召回率(Recall)這兩個(gè)指標(biāo)。這兩個(gè)指標(biāo)能夠全面評(píng)估算法的性能,并客觀地反映算法的實(shí)際效果。精度:用于衡量檢測(cè)出的行人中真正為行人的比例。它的計(jì)算公式為: (3.1)其中,表示可以將行人目標(biāo)正確地檢測(cè)出來(lái)的檢測(cè)框數(shù)量,表示將非行人目標(biāo)錯(cuò)誤地檢測(cè)成行人的檢測(cè)框數(shù)量。召回率:是指對(duì)于一個(gè)二分類(lèi)問(wèn)題中正例樣本而言,分類(lèi)器所能正確檢測(cè)到的正例樣本的比例。它的計(jì)算公式為: (3.2)其中,(FalseNegative,FN)表示未能將行人正確地檢測(cè)出來(lái)的行人數(shù)量。除了這兩個(gè)指標(biāo)之外,還有一個(gè)綜合考慮兩者關(guān)系的指標(biāo),是精度和召回率的調(diào)和平均數(shù),其計(jì)算方法為: (3.3)在YOLOv3行人檢測(cè)領(lǐng)域中,常使用PascalVOC和COCO數(shù)據(jù)集對(duì)算法進(jìn)行評(píng)價(jià)。評(píng)價(jià)方法是通過(guò)比較算法的檢測(cè)結(jié)果和真實(shí)目標(biāo)之間的匹配程度,并計(jì)算相應(yīng)的精度、召回率和F1-score指標(biāo)。同時(shí),也可以通過(guò)繪制PR曲線(Precision-RecallCurve)來(lái)直觀地展示模型的性能表現(xiàn)。3.2.3行人檢測(cè)難點(diǎn)作為計(jì)算機(jī)視覺(jué)領(lǐng)域的一個(gè)重要應(yīng)用,行人檢測(cè)是一項(xiàng)具有挑戰(zhàn)性的任務(wù)。在不同的場(chǎng)景下,行人可能會(huì)被其他物體遮擋,這會(huì)導(dǎo)致某些部位無(wú)法被準(zhǔn)確檢測(cè),或者檢測(cè)誤差較大。這些問(wèn)題對(duì)于行人的全局檢測(cè)和姿態(tài)估計(jì)等進(jìn)一步處理也會(huì)產(chǎn)生負(fù)面影響。行人的姿態(tài)對(duì)行人檢測(cè)的影響很大,行人的姿態(tài)越復(fù)雜,行人檢測(cè)的難度就越大。當(dāng)行人的姿態(tài)較為復(fù)雜時(shí),往往會(huì)有一些遮擋問(wèn)題發(fā)生,例如身體某一部分被其他物體或者行人本身遮擋,這樣就會(huì)導(dǎo)致行人檢測(cè)器無(wú)法完全識(shí)別出行人區(qū)域。行人的姿態(tài)不同,拍攝和觀察視角也會(huì)有所不同。在不同的視角下,行人的形態(tài)和外貌特征也會(huì)發(fā)生變化,這會(huì)給行人姿態(tài)檢測(cè)帶來(lái)挑戰(zhàn)。在不同的姿態(tài)下,行人的身體形狀也會(huì)發(fā)生形變,例如躬著身子、彎曲雙膝等,這也會(huì)對(duì)行人檢測(cè)造成干擾。如果特征不夠顯著,就容易出現(xiàn)漏檢的情況,也會(huì)影響行人檢測(cè)算法的準(zhǔn)確性和效率。行人檢測(cè)需要考慮不同視角下的處理,因此行人的大小、形狀和外觀等可能會(huì)發(fā)生變化。例如,行人在不同的距離和尺度下可能有不同大小的特征,這就需要行人檢測(cè)算法考慮多尺度的情況。此外,由于在不同的光線條件下,圖像的對(duì)比度和亮度可能會(huì)發(fā)生變化,這也會(huì)對(duì)行人檢測(cè)算法產(chǎn)生影響。從圖3.2可以看出,在圖像拍攝過(guò)程中會(huì)有大量的景觀和復(fù)雜的周?chē)h(huán)境,因此大多數(shù)行人目標(biāo)都會(huì)呈現(xiàn)出由近及遠(yuǎn)的分布模式。如果他們?cè)谶h(yuǎn)處,那么行人目標(biāo)就會(huì)相對(duì)較小。圖像中通常有大量的背景內(nèi)容,小目標(biāo)行人會(huì)有相對(duì)模糊的特征。由于特征不太突出,網(wǎng)絡(luò)也將很難捕獲,并且漏檢的可能性相對(duì)較高。背景特征和周?chē)h(huán)境特征的存在容易對(duì)小目標(biāo)的特征造成干擾,從而增加了誤檢的可能性。圖3.2小目標(biāo)行人檢測(cè)在現(xiàn)實(shí)生活中,即便是同一個(gè)行人,由于拍攝角度、距離或時(shí)間等因素的不同,其圖像可能呈現(xiàn)出不同的樣子。畫(huà)面縮放對(duì)行人檢測(cè)的影響是比較顯著的,當(dāng)輸入圖像進(jìn)行縮放操作時(shí),圖像中的目標(biāo)在圖像上的像素大小也會(huì)發(fā)生變化,這會(huì)影響到行人檢測(cè)器的檢測(cè)效果。特別是當(dāng)目標(biāo)在圖像中所占像素?cái)?shù)量較小時(shí),縮放操作可能會(huì)進(jìn)一步降低搜尋行人目標(biāo)的精確度,以及對(duì)比度、清晰度和前景/背景比例等檢測(cè)指標(biāo)。當(dāng)輸入圖像進(jìn)行縮放操作時(shí),由于圖像的分辨率發(fā)生變化,會(huì)導(dǎo)致行人檢測(cè)器需要處理更多或更少的像素點(diǎn)。如果縮放比例太大,那么行人檢測(cè)器需要處理過(guò)多的像素,檢測(cè)速度會(huì)明顯變慢;反之,如果縮放比例太小,可能會(huì)把原來(lái)的行人目標(biāo)縮小,導(dǎo)致行人檢測(cè)器在處理該圖像時(shí)無(wú)法識(shí)別行人目標(biāo),檢測(cè)效果也會(huì)隨之下降。例如,如圖3.3所示。因此,需要對(duì)這些因素進(jìn)行充分考慮,以獲得更準(zhǔn)確的行人目標(biāo)檢測(cè)結(jié)果。圖3.3畫(huà)面縮放示例行人檢測(cè)任務(wù)在復(fù)雜背景下具有很大的難度,主要由于背景中存在很多與行人類(lèi)似的物體,例如樹(shù)木、汽車(chē)和建筑物等。這些物體與行人在圖片中所占位置大小、形狀等方面都存在一定的相似性,很容易對(duì)行人檢測(cè)算法產(chǎn)生干擾。同時(shí),在相同場(chǎng)景下,由于外界因素的變化,行人的外觀也會(huì)存在差異。如圖3.4所示,當(dāng)在晚上、燈光和游樂(lè)設(shè)施等背景影響下進(jìn)行行人檢測(cè)時(shí),深度神經(jīng)網(wǎng)絡(luò)模型很容易將部分矩形物體誤判為行人。在復(fù)雜的背景環(huán)境下,行人檢測(cè)任務(wù)還存在其它一些挑戰(zhàn)。這也導(dǎo)致了行人目標(biāo)的形狀多樣性,進(jìn)一步增加了檢測(cè)難度。另外,目標(biāo)的尺寸和比例變化也會(huì)使得檢測(cè)更加困難。比如,在較遠(yuǎn)的距離拍攝行人圖像時(shí),行人目標(biāo)的尺寸相對(duì)于整幅圖像來(lái)說(shuō)會(huì)變得非常小,這對(duì)于一些傳統(tǒng)的檢測(cè)算法來(lái)說(shuō)會(huì)出現(xiàn)更高的挑戰(zhàn)性。此外,由于復(fù)雜背景下的噪聲干擾較大,還會(huì)導(dǎo)致遮擋和部分遮擋等問(wèn)題,使得行人的檢測(cè)更加困難。圖3.4復(fù)雜背景下行人在現(xiàn)實(shí)生活中,行人總是會(huì)聚集在一起,以圖3.5為例,密集行人對(duì)行人檢測(cè)的影響是非常顯著的,當(dāng)存在密集行人時(shí),往往會(huì)存在行人之間的遮擋問(wèn)題。這會(huì)使得行人檢測(cè)器難以準(zhǔn)確地識(shí)別出所有行人的區(qū)域,并且可能會(huì)導(dǎo)致誤檢,也就是把不是行人的區(qū)域誤判為行人。由于行人之間的相似性較高,行人檢測(cè)器的判別器很容易產(chǎn)生歧義。例如,當(dāng)兩個(gè)行人非??拷鼤r(shí),行人檢測(cè)器可能會(huì)將他們當(dāng)作同一個(gè)目標(biāo)進(jìn)行處理,或者無(wú)法分辨哪一個(gè)是前景行人。密集的行人意味著需要更高的計(jì)算資源來(lái)處理,這會(huì)影響到檢測(cè)器的運(yùn)行速度和準(zhǔn)確性。當(dāng)圖像中行人數(shù)量過(guò)多時(shí),行人檢測(cè)需要的計(jì)算量和存儲(chǔ)資源將會(huì)急劇增加,這會(huì)降低系統(tǒng)的實(shí)時(shí)性能。圖3.4密集行人3.3行人檢測(cè)實(shí)驗(yàn)與結(jié)果3.3.1行人檢測(cè)環(huán)境配置在Windows11操作系統(tǒng)下的Pycharm2022.3.2版本的運(yùn)行環(huán)境,基于深度學(xué)習(xí)的Python語(yǔ)言進(jìn)行程序編寫(xiě)。安裝了Python的第三方庫(kù)和深度學(xué)習(xí)的應(yīng)用程序編程接口(ApplicationProgrammingInterface,API),比如Matplotlib,Numpy等。處理器CPU型號(hào)為i7-8565UCPU,顯存環(huán)境GPU配置CUDA11.1環(huán)境進(jìn)行GPU并行加速計(jì)算,應(yīng)用OpenCV4.4作圖像數(shù)據(jù)處理。3.3.2行人檢測(cè)實(shí)驗(yàn)結(jié)果總體來(lái)說(shuō),傳統(tǒng)行人檢測(cè)方法主要包括基于特征匹配的方法、基于背景建模的方法、基于統(tǒng)計(jì)模型的方法等。在行人檢測(cè)方法中最早、最簡(jiǎn)單,但是效率比較低,且容易受到圖像尺度、旋轉(zhuǎn)等因素的影響;基于特征點(diǎn)的檢測(cè)方法相對(duì)較為穩(wěn)健,但對(duì)光照、陰影等場(chǎng)景變化較為敏感;基于復(fù)雜背景建模的檢測(cè)方法可以適應(yīng)各種場(chǎng)景,但建模困難,而且對(duì)于復(fù)雜場(chǎng)景的適應(yīng)性不夠強(qiáng)?;谀0迤ヅ涞臋z測(cè)方法雖然簡(jiǎn)單易實(shí)現(xiàn),但缺乏對(duì)目標(biāo)形變、旋轉(zhuǎn)等變化的魯棒性??傮w而言,傳統(tǒng)的行人檢測(cè)方法受限于算法的局限性,很難滿足各種復(fù)雜場(chǎng)景和變化情況下的實(shí)時(shí)需求。對(duì)于圖像質(zhì)量差的情況下,傳統(tǒng)的行人檢測(cè)方法會(huì)受到更多的干擾和誤差,導(dǎo)致檢測(cè)準(zhǔn)確率降低。傳統(tǒng)的行人檢測(cè)方法往往需要手動(dòng)設(shè)置一些參數(shù),例如檢測(cè)窗口大小、分類(lèi)器的閾值等,因此需要較多的人工干預(yù)和調(diào)整,增加了算法開(kāi)發(fā)和調(diào)試的難度和復(fù)雜性。在復(fù)雜的場(chǎng)景中,如人群擁擠、遮擋等情況下,傳統(tǒng)的行人檢測(cè)方法往往會(huì)受到嚴(yán)重的干擾和誤判,因此無(wú)法保證檢測(cè)結(jié)果的穩(wěn)定性。傳統(tǒng)行人檢測(cè)方法僅針對(duì)單個(gè)目標(biāo)進(jìn)行檢測(cè),并且難以處理高密度行人流等多目標(biāo)檢測(cè)和跟蹤任務(wù),因此無(wú)法滿足實(shí)際需求。為了解決這些問(wèn)題,對(duì)該領(lǐng)域進(jìn)行降重同義改寫(xiě)是非常必要的。圖3.5傳統(tǒng)行人檢測(cè)圖3.6YOLOv3算法行人檢測(cè)正如圖3.5所示,在簡(jiǎn)單的環(huán)境下,例如靜態(tài)背景、明亮光照、無(wú)遮擋等情況下,傳統(tǒng)的行人檢測(cè)方法往往能夠取得較好的效果。盡管傳統(tǒng)的行人檢測(cè)算法可以實(shí)現(xiàn)定位行人位置,但是它們的定位精度和識(shí)別效果常常不理想,這表明這些傳統(tǒng)方法受到了很多限制和缺陷的影響。因此,相較于傳統(tǒng)的行人檢測(cè)方法,如圖3.6,YOLOv3提供了一種更加快速、準(zhǔn)確、方便的檢測(cè)方法,可以更好地克服這些限制和缺陷。YOLOv3相比于傳統(tǒng)的行人檢測(cè)方法有以下幾個(gè)優(yōu)點(diǎn):速度快:YOLOv3可以實(shí)現(xiàn)實(shí)時(shí)行人檢測(cè),通常能夠達(dá)到幾十幀的檢測(cè)速度,比傳統(tǒng)的檢測(cè)方法更為高效。檢測(cè)準(zhǔn)確率高:YOLOv3通過(guò)引入多尺度訓(xùn)練、數(shù)據(jù)增強(qiáng)等技術(shù),提高了模型的泛化能力和穩(wěn)定性,在不同尺寸、角度、照度等情況下都能夠保持較高的檢測(cè)準(zhǔn)確率。多目標(biāo)檢測(cè):YOLOv3可以同時(shí)檢測(cè)多個(gè)行人目標(biāo),并且在重疊和遮擋情況下也能夠有效地處理。通過(guò)將整個(gè)圖像輸入神經(jīng)網(wǎng)絡(luò)中并在網(wǎng)絡(luò)中前向傳遞來(lái)實(shí)現(xiàn)多目標(biāo)檢測(cè)。與其他目標(biāo)檢測(cè)算法不同,YOLOv3對(duì)圖像進(jìn)行了多尺度處理,并在不同的層次上進(jìn)行檢測(cè),以適應(yīng)不同尺寸和形狀的目標(biāo)對(duì)象。在簡(jiǎn)單背景下,行人的大小、形狀、姿勢(shì)等變化較少,這使得YOLOv3的多尺度檢測(cè)能夠更好地發(fā)揮作用,從而提高檢測(cè)效率和準(zhǔn)確率。此外,YOLOv3還使用了許多技術(shù)來(lái)改善檢測(cè)效率和準(zhǔn)確性,例如卷積層、LeakyReLU激活函數(shù)等。結(jié)合了所有這些技術(shù)的YOLOv3成為一個(gè)強(qiáng)大的目標(biāo)檢測(cè)算法,在許多行人檢測(cè)任務(wù)中表現(xiàn)出色。圖3.7YOLOv3簡(jiǎn)單場(chǎng)景行人檢測(cè)在輕微遮擋下,YOLOv3所使用的多尺度檢測(cè)技術(shù)能夠有效地適應(yīng)不同尺寸和形狀的目標(biāo),并且能夠通過(guò)特征圖間的信息交互來(lái)完成整個(gè)目標(biāo)的檢測(cè)。同時(shí),YOLOv3的AnchorBox預(yù)測(cè)技術(shù)和目標(biāo)框回歸技術(shù)能夠提高目標(biāo)框的精度,并且在遮擋情況下能夠預(yù)測(cè)目標(biāo)框的位置和尺寸從而更好地解決遮擋問(wèn)題。圖3.8輕微遮擋下行人檢測(cè)YOLOv3能夠同時(shí)檢測(cè)多個(gè)行人目標(biāo),并且在重疊和遮擋情況下也能夠有效地處理。這種多目標(biāo)檢測(cè)技術(shù)可以在輕微遮擋下更好地發(fā)揮作用,因?yàn)榧词剐腥四繕?biāo)被部分遮擋也可以通過(guò)檢測(cè)其他部分來(lái)完成整個(gè)目標(biāo)的檢測(cè)。在輕微遮擋下,行人的一部分可能會(huì)被遮擋,但是YOLOv3可以利用其感知廣的特點(diǎn),識(shí)別出未被遮擋的行人部分,并且通過(guò)目標(biāo)框回歸技術(shù)來(lái)預(yù)測(cè)整個(gè)目標(biāo)的位置和尺寸。圖3.9遮擋面積較大環(huán)境下行人檢測(cè)YOLOv3在運(yùn)動(dòng)狀態(tài)下進(jìn)行行人檢測(cè)的實(shí)驗(yàn)結(jié)果表明,與靜態(tài)情況下的行人檢測(cè)相比,檢測(cè)精度有所下降,但在實(shí)際應(yīng)用中仍能夠達(dá)到較高的準(zhǔn)確率。此外,YOLOv3還針對(duì)移動(dòng)物體的特點(diǎn)進(jìn)行優(yōu)化,采用了一些特殊的技術(shù),如多尺度特征融合、卷積重量歸一化等,進(jìn)一步提高了運(yùn)動(dòng)狀態(tài)下的行人檢測(cè)精度。需要注意的是,行人的速度及背景復(fù)雜度等因素也會(huì)影響行人檢測(cè)的準(zhǔn)確率。圖3.10運(yùn)動(dòng)狀態(tài)下行人檢測(cè)YOLOv3在陰天環(huán)境下行人檢測(cè)的結(jié)果可能會(huì)受到環(huán)境光線的影響,YOLOv3在陰天光線不足的環(huán)境下行人檢測(cè)效果可能會(huì)有所降低,但是具體結(jié)果還要取決于數(shù)據(jù)集和具體的場(chǎng)景。但是它仍然可以進(jìn)行有效的行人檢測(cè)。改進(jìn)后的YOLOv3算法在陰天環(huán)境下行人檢測(cè)方面表現(xiàn)優(yōu)秀,準(zhǔn)確率較高,檢測(cè)結(jié)果也非常好。圖3.11陰天環(huán)境下行人檢測(cè)在雨天環(huán)境下,YOLOv3的行人檢測(cè)結(jié)果可能會(huì)受到較大的影響。由于雨天環(huán)境下光線較差,且行人的外形可能會(huì)被雨傘、雨衣等物品遮擋,因此會(huì)導(dǎo)致檢測(cè)準(zhǔn)確率下降。為了提高YOLOv3在雨天環(huán)境下的檢測(cè)效果,對(duì)于被遮擋的行人,可以考慮采用多視角的檢測(cè)方式,行人部位在不同視角下的特征點(diǎn)等來(lái)提高檢測(cè)準(zhǔn)確率。本文中所引用的算法在雨天環(huán)境中也有良好表現(xiàn)。圖3.12雨天環(huán)境下行人檢測(cè)在夜晚環(huán)境下,行人檢測(cè)更具挑戰(zhàn)性,主要原因是缺少光線和低對(duì)比度,這會(huì)影響算法對(duì)行人的識(shí)別和定位。在實(shí)驗(yàn)中,我們使用了YOLOv3算法對(duì)夜晚行人進(jìn)行檢測(cè),并評(píng)估了其檢測(cè)性能。圖3.13顯示,算法表現(xiàn)出色,在光照不足,人員相對(duì)密集的夜晚,仍然可以高效準(zhǔn)確地檢測(cè)到夜晚場(chǎng)景中的行人。為了更好地評(píng)估算法的性能,我們使用了幾個(gè)常用的指標(biāo),包括準(zhǔn)確率、召回率。我們的實(shí)驗(yàn)結(jié)果表明,YOLOv3算法在夜晚行人檢測(cè)方面表現(xiàn)良好??偟膩?lái)說(shuō),YOLOv3算法在夜晚行人檢測(cè)方面表現(xiàn)出色,具有高效、準(zhǔn)確和穩(wěn)定的特點(diǎn)。然而,也需要注意到在某些特殊情況下,如夜晚道路過(guò)于繁忙、行人與背景難以區(qū)分等情況下,算法可能會(huì)存在一定的誤檢和漏檢,需要進(jìn)一步完善和提高算法的魯棒性和適應(yīng)性。圖3.13夜晚環(huán)境下行人檢測(cè)在復(fù)雜背景下進(jìn)行行人檢測(cè)是一個(gè)具有挑戰(zhàn)性的任務(wù),因?yàn)槿伺c周?chē)h(huán)境的復(fù)雜背景相互干擾。YOLOv3是一種既快速又準(zhǔn)確的目標(biāo)檢測(cè)算法,非常適合于處理復(fù)雜環(huán)境下的行人檢測(cè)任務(wù)。本文的實(shí)驗(yàn)數(shù)據(jù)集采用了MSCOCO,這是一個(gè)具有多樣性和復(fù)雜度的挑戰(zhàn)性數(shù)據(jù)集。其中包括了一些具有復(fù)雜背景的行人圖片。在復(fù)雜的背景下,YOLOv3在MSCOCO數(shù)據(jù)集上表現(xiàn)優(yōu)秀,并取得了非常出色的性能。特別是對(duì)于小物體的檢測(cè),表現(xiàn)出色。YOLOv3使用了Darknet-53作為主干網(wǎng)絡(luò),能夠提取更加豐富的特征。此外,該算法采用了多個(gè)尺度的檢測(cè)來(lái)適應(yīng)不同大小的目標(biāo)。綜合來(lái)看,在復(fù)雜背景下進(jìn)行行人檢測(cè)時(shí),YOLOv3表現(xiàn)非常出色。其采用強(qiáng)大的特征提取網(wǎng)絡(luò)和多尺度檢測(cè),并通過(guò)SPP模塊和FPN模塊來(lái)適應(yīng)不同大小的目標(biāo)。圖3.14復(fù)雜背景下行人檢測(cè)YOLOv3是一個(gè)高效的物體檢測(cè)算法,在密集行人背景下進(jìn)行行人檢測(cè)時(shí)也有不錯(cuò)的表現(xiàn)。在實(shí)驗(yàn)中,YOLOv3的檢測(cè)準(zhǔn)確率在密集行人背景檢測(cè)中能夠達(dá)到較高水平。YOLOv3具有很快的檢測(cè)速度,可以實(shí)現(xiàn)實(shí)時(shí)檢測(cè)。在密集行人背景下,由于行人數(shù)量較多,YOLOv3的檢測(cè)速度可能會(huì)相應(yīng)降低,但其優(yōu)化后的模型仍能夠?qū)崿F(xiàn)較快的檢測(cè)速度。綜上所述,YOLOv3在密集行人環(huán)境中進(jìn)行行人檢測(cè)時(shí)表現(xiàn)優(yōu)秀,具有高準(zhǔn)確率和高召回率,并且檢測(cè)速度也非???,特別適合實(shí)時(shí)性要求較高的應(yīng)用場(chǎng)景。圖3.15密集行人情況下行人檢測(cè)YOLOv3在小目標(biāo)行人檢測(cè)方面,YOLOv3也取得了很好的效果。對(duì)于YOLOv3算法來(lái)說(shuō),小目標(biāo)的行人檢測(cè)是一項(xiàng)巨大的挑戰(zhàn)。在YOLOv3的算法中,為了解決這個(gè)問(wèn)題,作者引入了一些新的技術(shù),比如多尺度訓(xùn)練、數(shù)據(jù)增強(qiáng)、組合性預(yù)測(cè)等等。從總體上看,YOLOv3在小目標(biāo)行人檢測(cè)中表現(xiàn)良好,能夠快速準(zhǔn)確地識(shí)別行人目標(biāo)。但是,在一些特定場(chǎng)景下,模型還需要進(jìn)一步優(yōu)化,以提升檢測(cè)精度并適應(yīng)更復(fù)雜的環(huán)境。圖3.16小目標(biāo)行人檢測(cè)在夜間大面積遮擋環(huán)境下進(jìn)行行人檢測(cè)是一個(gè)具有挑戰(zhàn)性的問(wèn)題。YOLOv3采用了特殊的設(shè)計(jì)和技術(shù)來(lái)應(yīng)對(duì)這個(gè)問(wèn)題,但實(shí)驗(yàn)結(jié)果也表明,在實(shí)際應(yīng)用中仍然存在一些限制。首先,YOLOv3在夜間大面積遮擋環(huán)境下的檢測(cè)結(jié)果可能會(huì)受到光照不均勻、背景噪音等因素的影響,導(dǎo)致誤檢率較高。其次,如果行人與其他物體重疊或者遮擋,則可能無(wú)法完整地檢測(cè)到行人的位置和姿態(tài)。為了減少誤檢率和漏檢率,可以采用一些方法來(lái)改善檢測(cè)效果??偟膩?lái)說(shuō),雖然YOLOv3在夜間大面積遮擋環(huán)境下的行人檢測(cè)結(jié)果精度和準(zhǔn)確性有待提高,存在一些限制,但它仍然是一個(gè)非常優(yōu)秀的算法。通過(guò)合理的調(diào)整參數(shù)和采用一些改進(jìn)方法,可以使得其在實(shí)際應(yīng)用中發(fā)揮更好的效果。圖3.17夜間大面積遮擋環(huán)境下行人檢測(cè)第4章結(jié)論YOLOv3是一種基于深度學(xué)習(xí)的行人檢測(cè)算法,其改進(jìn)可以通過(guò)修改網(wǎng)絡(luò)結(jié)構(gòu)、訓(xùn)練技巧和數(shù)據(jù)增強(qiáng)等方面進(jìn)行。許多研究人員已經(jīng)對(duì)YOLOv3算法進(jìn)行了改進(jìn),并取得了一些令人鼓舞的結(jié)果。近年來(lái),隨著深度學(xué)習(xí)技術(shù)的不斷發(fā)展,YOLOv3、逐漸成為了圖像處理研究領(lǐng)域中的熱門(mén)話題。然而,由于行人目標(biāo)具有種類(lèi)繁多,且圖像背景復(fù)雜多變,在實(shí)際應(yīng)用中精確地檢測(cè)到行人目標(biāo)十分困難。本文引用了改進(jìn)YOLOv3算法的行人目標(biāo)檢測(cè)方法,從而提高其在行人目標(biāo)檢測(cè)中的表現(xiàn)。用PyCharm完成對(duì)圖片中行人檢測(cè)的設(shè)計(jì),通過(guò)實(shí)驗(yàn)到如下結(jié)論:(1)本文使用YOLOv3中的Darknet-53網(wǎng)絡(luò)結(jié)合COCO數(shù)據(jù)集中的Person子集對(duì)圖像中的行人特征信息進(jìn)行檢測(cè)和提取。采用公開(kāi)的行人數(shù)據(jù)集作為測(cè)試集。在這個(gè)實(shí)驗(yàn)中,我們將利用Darknet-53網(wǎng)絡(luò)對(duì)行人目標(biāo)特征進(jìn)行提取和對(duì)比。整個(gè)實(shí)驗(yàn)所依托的平臺(tái)和數(shù)據(jù)集都已經(jīng)得到充分的準(zhǔn)備和處理。然后介紹了本文的anchor策略,為了適配本文的訓(xùn)練任務(wù),重新使用K-means聚類(lèi)算法對(duì)anchorbox進(jìn)行重新聚類(lèi)。(2)實(shí)驗(yàn)顯示,YOLOv3算法改進(jìn)后,在行人目標(biāo)定位與識(shí)別方面可以獲得更好的表現(xiàn),并且對(duì)于漏檢率高的問(wèn)題也可以得到有效改善??稍诓煌N類(lèi)的目標(biāo)檢測(cè)中應(yīng)用,且效果良好。具體來(lái)說(shuō),YOLOv3算法是一種單階段目標(biāo)檢測(cè)方法,通常情況下,其檢測(cè)準(zhǔn)確率較高,但漏檢率也相對(duì)較高。這是因?yàn)樵趩坞A段檢測(cè)中,模型需要同時(shí)完成目標(biāo)位置和類(lèi)別的判斷,因此對(duì)于小目標(biāo)或者部分遮擋的目標(biāo)等特殊情況,容易出現(xiàn)漏檢的情況。本文引入的方法雖能夠完成對(duì)圖片中進(jìn)行行人檢測(cè),但是在方法上依舊存在著些許不足。像在小目標(biāo)以及過(guò)于密集的情況下,實(shí)驗(yàn)結(jié)果存在著一定的誤。所以,如何對(duì)復(fù)雜情況下行人檢測(cè)還有待未來(lái)進(jìn)一步的研究。

總結(jié)與體會(huì)經(jīng)過(guò)多年的研究和發(fā)展,現(xiàn)有的行人檢測(cè)算法已經(jīng)實(shí)現(xiàn)了優(yōu)秀的效果,但是在圖像中存在大量的干擾行人檢測(cè)的問(wèn)題,都會(huì)對(duì)傳統(tǒng)的目標(biāo)檢測(cè)方法或基于深度學(xué)習(xí)的早期目標(biāo)檢測(cè)方法產(chǎn)生影響,無(wú)法實(shí)現(xiàn)行人目標(biāo)的精確定位。綜上所述,具有高速、精度高、多尺度、內(nèi)存占用少和適用性廣等優(yōu)勢(shì)的YOLOv3算法是實(shí)現(xiàn)行人檢測(cè)的較好選擇。這也使得該算法成為了目前應(yīng)用最廣泛的行人檢測(cè)算法之一。YOLOv3算法采用了全卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),可以直接對(duì)整張圖像進(jìn)行處理,速度非???,YOLOv3算法具有更高的檢測(cè)精度,能夠更準(zhǔn)確地檢測(cè)到同一張圖片中的更多的行人目標(biāo),并且其誤檢率也較低。YOLOv3算法采用了多尺度檢測(cè)技術(shù),可以同時(shí)處理不同尺寸的目標(biāo)物體,提高了算法的適應(yīng)性和泛化性能。其通過(guò)卷積神經(jīng)網(wǎng)絡(luò)對(duì)圖像進(jìn)行特征提取和目標(biāo)分類(lèi),實(shí)現(xiàn)了較好的檢測(cè)效果。在使用YOLOv3進(jìn)行行人檢測(cè)時(shí),我有以下幾點(diǎn)體會(huì):網(wǎng)絡(luò)架構(gòu)復(fù)雜度高:與傳統(tǒng)的行人檢測(cè)算法相比,YOLOv3的網(wǎng)絡(luò)架構(gòu)更為復(fù)雜,需要處理大量的圖像信息和卷積操作。這要求我們具備較強(qiáng)的計(jì)算機(jī)硬件和編程能力,以便能夠快速調(diào)試和優(yōu)化算法。檢測(cè)效果較好:經(jīng)過(guò)多次實(shí)驗(yàn)和調(diào)試,我發(fā)現(xiàn)YOLOv3在行人檢測(cè)中具有很高的準(zhǔn)確率和召回率,并且能夠快速地檢測(cè)圖像中的行人目標(biāo)。此外,YOLOv3的檢測(cè)速度也比較快,可適用于實(shí)時(shí)檢測(cè)和大規(guī)模圖像處理??蓴U(kuò)展性強(qiáng):由于YOLOv3是一種基于深度學(xué)習(xí)的算法,因此其具有很強(qiáng)的可擴(kuò)展性和遷移性。我們可以通過(guò)修改網(wǎng)絡(luò)結(jié)構(gòu)、數(shù)據(jù)集和訓(xùn)練參數(shù)等方法,來(lái)適配不同的場(chǎng)景和數(shù)據(jù)需求,實(shí)現(xiàn)更廣泛的應(yīng)用。參考文獻(xiàn)張曉春,孫超,邵源,韓廣廣,徐丹.新時(shí)期中國(guó)智能交通發(fā)展戰(zhàn)略思考[J/OL].城市交通:1-9.蘇慶堂等.MATLAB原理及應(yīng)用案例教程[M].清華大學(xué)出版社,2016.于澤,寧念文,鄭燕柳,呂怡寧,劉富強(qiáng),周毅.深度強(qiáng)化學(xué)習(xí)驅(qū)動(dòng)的智能交通信號(hào)控制策略綜述[J/OL].計(jì)算機(jī)科學(xué):1-21.李偉.未來(lái)交通運(yùn)輸是綜合和智慧的——以《“十三五”現(xiàn)代綜合交通運(yùn)輸體系發(fā)展規(guī)劃》及相關(guān)研究為參考[J].中國(guó)公路,2018(05):72-74.李海濱,劉洪,孫麗玫.全國(guó)一體化大數(shù)據(jù)中心體系構(gòu)建背景下企業(yè)數(shù)據(jù)中心科學(xué)規(guī)劃的思考[J].電信工程技術(shù)與標(biāo)準(zhǔn)化,2021,34(08):11-15.蔣向利.做強(qiáng)做優(yōu)做大我國(guó)數(shù)字經(jīng)濟(jì)為經(jīng)濟(jì)社會(huì)發(fā)展提供強(qiáng)大動(dòng)力——國(guó)務(wù)院印發(fā)《“十四五”數(shù)字經(jīng)濟(jì)發(fā)展規(guī)劃》[J].中國(guó)科技產(chǎn)業(yè),2022(02):14-19.孫奇茹.無(wú)人駕駛加速融入城市生活[N].北京日?qǐng)?bào),2023-01-29(007).金鳳.智慧交通“大腦”疏通城市堵點(diǎn)[N].科技日?qǐng)?bào),2023-01-05(007).李學(xué)鋆,汪怡平,蘇楚奇,宮新樂(lè),黃晉,趙曉敏,張鎮(zhèn)濤.智能車(chē)輛路徑跟蹤控制方法研究[J/OL].控制與決策:1-9.肖順亮.面向無(wú)人駕駛場(chǎng)景中的行人檢測(cè)技術(shù)研究[D].中原工學(xué)院,2022.劉暢.基于深度學(xué)習(xí)的行人檢測(cè)算法研究[D].東北石油大學(xué),2022.婁翔飛,呂文濤,葉冬,郭慶,魯競(jìng),陳影柔.基于計(jì)算機(jī)視覺(jué)的行人檢測(cè)方法研究進(jìn)展[J/OL].浙江理工大學(xué)學(xué)報(bào)(自然科學(xué)版):1-12.王麗園,趙陶,王文,肖進(jìn)勝,熊聞心.具有姿態(tài)變化魯棒性的行人檢測(cè)跟蹤算法[J].計(jì)算機(jī)工程與設(shè)計(jì),2022,43(10):2877-2881.王婷婷.面向道路交通場(chǎng)景的行人智能檢測(cè)方法研究[D].貴州大學(xué),2022.車(chē)啟謠,嚴(yán)運(yùn)兵.基于改進(jìn)YOLOv3的行人檢測(cè)研究[J].智能計(jì)算機(jī)與應(yīng)用,2022,12(08):8-13.汪潛.基于局部特征與空間變換的復(fù)雜場(chǎng)景行人再識(shí)別[D].合肥工業(yè)大學(xué),2020.田欣.智慧城市中視頻監(jiān)控大數(shù)據(jù)的應(yīng)用探討[J].數(shù)字通信世界,2022(05):106-108.劉艷,張海民.面向智慧社區(qū)的視頻監(jiān)控異常行為識(shí)別方法的研究[J].新型工業(yè)化,2020,10(08):17-18+23.蔣龍龍.運(yùn)營(yíng)商開(kāi)啟5G智慧交通新未來(lái)[N].通信信息報(bào),2022-11-16(003).李佳芯.讓智能交通管理系統(tǒng)發(fā)揮更大效能[J].道路交通管理,2022(06):86-87.于宵.綜合客運(yùn)交通樞紐交通信息服務(wù)需求分析[J].交通與運(yùn)輸,2020,33(S1):209-212.魏文強(qiáng).人工智能在汽車(chē)自動(dòng)駕駛中的應(yīng)用[J].時(shí)代汽車(chē),2022(24):196-198.張濤.落實(shí)《國(guó)家綜合立體交通網(wǎng)規(guī)劃綱要》精神加快建設(shè)交通強(qiáng)國(guó)[J].中國(guó)水運(yùn),2021(04):10-13.羅艷,張重陽(yáng),田永鴻,郭捷,孫軍.深度學(xué)習(xí)行人檢測(cè)方法綜述[J].中國(guó)圖象圖形學(xué)報(bào),2022,27(07):2094-2111.王釗,解文彬,文江.基于YOLO的多模態(tài)特征差分注意融合行人檢測(cè)[J/OL].計(jì)算機(jī)系統(tǒng)應(yīng)用:1-10.N.P.G.D.Navoda,M.D.W.Samaranayake,S.L.Liyanage,H.M.T.Herath,J.M.J.K.Jayasinghe.DeterminationofFunctionalPropertiesofSriLankanAmbarella(SpondiasdulcisForst.syn.SpondiascythereaSonn.)FruitandDevelopmentofVacuumDriedAmbarellaFruitPowderandIncorporatedSoupMix[J].AsianFoodScienceJournal,2021.ZhangFei,ZhenPeining,JingDishan,TangXiaotang,CHENHaiBao,YANJie.SVMBasedIntrusionDetectionMethodwithNonlinearScalingandFeatureSelection[J].IEICETransactionsonInformationandSystems,2022,E105.D(5).JiaZiguang,SuXin,MaGuangda,DaiTongtong,SunJiabin.CrackidentificationformarineengineeringequipmentbasedonimprovedSSDandYOLOv5[J].OceanEngineering,2023,268.YangYao,HuangCong,WangHuajun,WanJun,WangZhenheng,MaYu.ResearchonYOLOv3targetdetectionmodelinthefieldofremotesensing[J].JournalofPhysics:ConferenceSeries,2021,2029(1).GajeraHimanshuK.,NayakDeepakRanjan,ZaveriMukeshA..AcomprehensiveanalysisofdermoscopyimagesformelanomadetectionviadeepCNNfeatures[J].BiomedicalSignalProcessingandControl,2023,79(P2).LUTongWei,JIAShiHai,ZHANGHao.MemFRCN:FewShotObjectDetectionwithMemorableFaster-RCNN[J].IEICETransactionsonFundamentalsofElectronics,CommunicationsandComputerSciences,2022,E105.A(12).T-JCheng,BYang,CHolloway,NTyler.Effectofenvironmentalfactorsonhowolderpedestriansdetectanupcomingstep[J].LightingResearch&Technology,2018,50(3).ValarmathiB.,KshitijJain,DimpleRajpurohit,SrinivasaGuptaN.,HaroldRobinsonY.,ArulkumaranG.,MuluTadesse.HumanDetectionandActionRecognitionforSearchandRescueinDisastersUsingYOLOv3Algorithm[J].JournalofElectricalandComputerEngineering,2023,2023.ShenLingzhi,TaoHongfeng,NiYuanzhi,WangYue,StojanovicVladimir.ImprovedYOLOv3modelwithfeaturemapcroppingformulti-scaleroadobjectdetection[J].MeasurementScienceandTechnology,2023,34(4).KarKohitij,KornblithSimon,FedorenkoEvelina.Interpretabilityofartificialneuralnetworkmodelsinartificialintelligenceversusneuroscience[J].NatureMachineIntelligence,2022,4(12).YuanBH,LiuGH.Imageretrievalbasedongradient-structureshistogram[J].NeuralComputingandApplications,2020:1-11.張友海.淺談人工神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)算法[J].電腦知識(shí)與技術(shù),2018,14(19):218+220.QasimAbboodMahdi,AndriiShyshatskyi,OleksandrSymonenko,NadiiaProtas,OleksandrTrotsko,VolodymyrKyvliuk,ArtemShulhin,PetroSteshenko,EduardOstapchuk,TetianaHolenkovska.Developmentofamethodfortrainingartificialneuralnetworksforintelligentdecisionsupportsystems[J].Eastern-EuropeanJournalofEnterpriseTechnologies,2022,1(9).YuenBrosnan,HoangMinhTu,DongXiaodai,LuTao.Universalactivationfunction

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論