版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認(rèn)領(lǐng)
文檔簡介
[46]。OpenCV是一個開源的跨平臺計算機視覺庫,由英特爾公司發(fā)起并維護。它包含了大量的圖像處理和計算機視覺相關(guān)的函數(shù)和工具,可以用于實現(xiàn)各種各樣的計算機視覺應(yīng)用。OpenCV支持多種編程語言,包括C++、Python、Java等,且可以在Windows、Linux、macOS等操作系統(tǒng)上運行。它提供了豐富的功能和工具,包括圖像處理、圖像分割、目標(biāo)檢測、人臉識別、運動跟蹤、相機標(biāo)定、三維重建等,涵蓋了從基礎(chǔ)圖像處理到高級計算機視覺領(lǐng)域的各個方面。OpenCV的優(yōu)點在于其簡單易用、高效可靠、跨平臺性強等特點。通過使用OpenCV,我們可以快速地實現(xiàn)各種計算機視覺應(yīng)用,比如圖像處理、物體識別、視頻跟蹤等。OpenCV是計算機視覺領(lǐng)域的重要工具和框架,有著廣泛的應(yīng)用和較高的實用價值。因此在軟件開發(fā)方面具有重要影響。這個庫的廣泛應(yīng)用,使得它成為了計算機視覺研究和開發(fā)中不可或缺的工具之一。圖像處理方法:在OpenCV庫中,有多種方法可用于圖像或視頻的采集,比如從攝像頭、視頻文件或網(wǎng)絡(luò)視頻流中讀取圖像或視頻數(shù)據(jù)等。對于采集到的圖像或視頻可以通過OpenCV提供的各種函數(shù)進行預(yù)處理,例如改變圖像亮度、對比度、裁剪、縮放、旋轉(zhuǎn)、翻轉(zhuǎn)等操作,以便更好地進行后續(xù)分析。特征匹配:例如FLANN匹配器、暴力匹配器等,這一步可以幫助我們找到不同圖像或視頻中相同物體的位置。目標(biāo)檢測和識別:在目標(biāo)檢測和識別領(lǐng)域,OpenCV提供了多種機器學(xué)習(xí)算法,如Haar特征分類器、HOG+SVM、卷積神經(jīng)網(wǎng)絡(luò)等,可用于人臉檢測、車牌識別、物體識別等任務(wù)??梢源蟠筇嵘龑D像復(fù)雜信息的分析和理解,實現(xiàn)更加復(fù)雜的計算機視覺應(yīng)用??梢暬洼敵觯篛penCV提供了各種函數(shù),例如imshow、imwrite等,可以將處理結(jié)果可視化,并輸出到文件或網(wǎng)絡(luò)。3.2行人檢測流程與難點3.2.1行人檢測流程簡述行人檢測是一種常見的計算機視覺任務(wù),其本質(zhì)是在輸入圖像中檢測和定位出圖像中的行人區(qū)域。首先需要采集并準(zhǔn)備用于行人檢測的訓(xùn)練數(shù)據(jù),包括大量的正樣本和負(fù)樣本。正樣本是指包含行人的圖像樣本,負(fù)樣本則反之。這些數(shù)據(jù)需要被標(biāo)注和預(yù)處理,以便后續(xù)訓(xùn)練和測試使用。使用特征提取方法從輸入圖像中提取特征,然后從中選取出最有區(qū)分性和代表性的特征。對待檢測圖像進行行人檢測。采用滑動窗口的方法來搜索圖像,并使用行人檢測器對每個窗口進行分類,判斷該窗口是否包含行人。若存在行人,則記錄下行人的位置和大小。在檢測完成后,由于可能會出現(xiàn)多個框重疊的情況,需要采用非極大值抑制算法進行優(yōu)化。該算法在不降低正確率的前提下,能夠去除冗余的重復(fù)框,得到最終的行人檢測結(jié)果。最后,需要對檢測的結(jié)果進行后處理,例如去掉一些噪聲點或小于一定面積的框等。然后輸出最終的行人檢測結(jié)果,包括對應(yīng)的行人區(qū)域、位置和大小信息等。圖3.1行人檢測流程3.2.2評價指標(biāo)經(jīng)過多次實踐驗證,平均精度均值和圖片的識別速率已被證明是目標(biāo)檢測評估的最常用、最有效的指標(biāo)。這些指標(biāo)能夠?qū)δ繕?biāo)檢測算法的準(zhǔn)確性和效率進行全面的評估,并幫助我們更好地比較和選擇不同的算法,提高計算機視覺應(yīng)用的性能。檢測大于閾值的叫做(TruePositive,TP),低于閾值的也就是錯誤的叫做(FalsePositive,FP),如果一個目標(biāo)被重復(fù)檢測,取置信度最高值選為正樣本。對于使用YOLOv3進行行人檢測任務(wù)的評價,一般會采用精度(Precision)和召回率(Recall)這兩個指標(biāo)。這兩個指標(biāo)能夠全面評估算法的性能,并客觀地反映算法的實際效果。精度:用于衡量檢測出的行人中真正為行人的比例。它的計算公式為: (3.1)其中,表示可以將行人目標(biāo)正確地檢測出來的檢測框數(shù)量,表示將非行人目標(biāo)錯誤地檢測成行人的檢測框數(shù)量。召回率:是指對于一個二分類問題中正例樣本而言,分類器所能正確檢測到的正例樣本的比例。它的計算公式為: (3.2)其中,(FalseNegative,FN)表示未能將行人正確地檢測出來的行人數(shù)量。除了這兩個指標(biāo)之外,還有一個綜合考慮兩者關(guān)系的指標(biāo),是精度和召回率的調(diào)和平均數(shù),其計算方法為: (3.3)在YOLOv3行人檢測領(lǐng)域中,常使用PascalVOC和COCO數(shù)據(jù)集對算法進行評價。評價方法是通過比較算法的檢測結(jié)果和真實目標(biāo)之間的匹配程度,并計算相應(yīng)的精度、召回率和F1-score指標(biāo)。同時,也可以通過繪制PR曲線(Precision-RecallCurve)來直觀地展示模型的性能表現(xiàn)。3.2.3行人檢測難點作為計算機視覺領(lǐng)域的一個重要應(yīng)用,行人檢測是一項具有挑戰(zhàn)性的任務(wù)。在不同的場景下,行人可能會被其他物體遮擋,這會導(dǎo)致某些部位無法被準(zhǔn)確檢測,或者檢測誤差較大。這些問題對于行人的全局檢測和姿態(tài)估計等進一步處理也會產(chǎn)生負(fù)面影響。行人的姿態(tài)對行人檢測的影響很大,行人的姿態(tài)越復(fù)雜,行人檢測的難度就越大。當(dāng)行人的姿態(tài)較為復(fù)雜時,往往會有一些遮擋問題發(fā)生,例如身體某一部分被其他物體或者行人本身遮擋,這樣就會導(dǎo)致行人檢測器無法完全識別出行人區(qū)域。行人的姿態(tài)不同,拍攝和觀察視角也會有所不同。在不同的視角下,行人的形態(tài)和外貌特征也會發(fā)生變化,這會給行人姿態(tài)檢測帶來挑戰(zhàn)。在不同的姿態(tài)下,行人的身體形狀也會發(fā)生形變,例如躬著身子、彎曲雙膝等,這也會對行人檢測造成干擾。如果特征不夠顯著,就容易出現(xiàn)漏檢的情況,也會影響行人檢測算法的準(zhǔn)確性和效率。行人檢測需要考慮不同視角下的處理,因此行人的大小、形狀和外觀等可能會發(fā)生變化。例如,行人在不同的距離和尺度下可能有不同大小的特征,這就需要行人檢測算法考慮多尺度的情況。此外,由于在不同的光線條件下,圖像的對比度和亮度可能會發(fā)生變化,這也會對行人檢測算法產(chǎn)生影響。從圖3.2可以看出,在圖像拍攝過程中會有大量的景觀和復(fù)雜的周圍環(huán)境,因此大多數(shù)行人目標(biāo)都會呈現(xiàn)出由近及遠的分布模式。如果他們在遠處,那么行人目標(biāo)就會相對較小。圖像中通常有大量的背景內(nèi)容,小目標(biāo)行人會有相對模糊的特征。由于特征不太突出,網(wǎng)絡(luò)也將很難捕獲,并且漏檢的可能性相對較高。背景特征和周圍環(huán)境特征的存在容易對小目標(biāo)的特征造成干擾,從而增加了誤檢的可能性。圖3.2小目標(biāo)行人檢測在現(xiàn)實生活中,即便是同一個行人,由于拍攝角度、距離或時間等因素的不同,其圖像可能呈現(xiàn)出不同的樣子。畫面縮放對行人檢測的影響是比較顯著的,當(dāng)輸入圖像進行縮放操作時,圖像中的目標(biāo)在圖像上的像素大小也會發(fā)生變化,這會影響到行人檢測器的檢測效果。特別是當(dāng)目標(biāo)在圖像中所占像素數(shù)量較小時,縮放操作可能會進一步降低搜尋行人目標(biāo)的精確度,以及對比度、清晰度和前景/背景比例等檢測指標(biāo)。當(dāng)輸入圖像進行縮放操作時,由于圖像的分辨率發(fā)生變化,會導(dǎo)致行人檢測器需要處理更多或更少的像素點。如果縮放比例太大,那么行人檢測器需要處理過多的像素,檢測速度會明顯變慢;反之,如果縮放比例太小,可能會把原來的行人目標(biāo)縮小,導(dǎo)致行人檢測器在處理該圖像時無法識別行人目標(biāo),檢測效果也會隨之下降。例如,如圖3.3所示。因此,需要對這些因素進行充分考慮,以獲得更準(zhǔn)確的行人目標(biāo)檢測結(jié)果。圖3.3畫面縮放示例行人檢測任務(wù)在復(fù)雜背景下具有很大的難度,主要由于背景中存在很多與行人類似的物體,例如樹木、汽車和建筑物等。這些物體與行人在圖片中所占位置大小、形狀等方面都存在一定的相似性,很容易對行人檢測算法產(chǎn)生干擾。同時,在相同場景下,由于外界因素的變化,行人的外觀也會存在差異。如圖3.4所示,當(dāng)在晚上、燈光和游樂設(shè)施等背景影響下進行行人檢測時,深度神經(jīng)網(wǎng)絡(luò)模型很容易將部分矩形物體誤判為行人。在復(fù)雜的背景環(huán)境下,行人檢測任務(wù)還存在其它一些挑戰(zhàn)。這也導(dǎo)致了行人目標(biāo)的形狀多樣性,進一步增加了檢測難度。另外,目標(biāo)的尺寸和比例變化也會使得檢測更加困難。比如,在較遠的距離拍攝行人圖像時,行人目標(biāo)的尺寸相對于整幅圖像來說會變得非常小,這對于一些傳統(tǒng)的檢測算法來說會出現(xiàn)更高的挑戰(zhàn)性。此外,由于復(fù)雜背景下的噪聲干擾較大,還會導(dǎo)致遮擋和部分遮擋等問題,使得行人的檢測更加困難。圖3.4復(fù)雜背景下行人在現(xiàn)實生活中,行人總是會聚集在一起,以圖3.5為例,密集行人對行人檢測的影響是非常顯著的,當(dāng)存在密集行人時,往往會存在行人之間的遮擋問題。這會使得行人檢測器難以準(zhǔn)確地識別出所有行人的區(qū)域,并且可能會導(dǎo)致誤檢,也就是把不是行人的區(qū)域誤判為行人。由于行人之間的相似性較高,行人檢測器的判別器很容易產(chǎn)生歧義。例如,當(dāng)兩個行人非??拷鼤r,行人檢測器可能會將他們當(dāng)作同一個目標(biāo)進行處理,或者無法分辨哪一個是前景行人。密集的行人意味著需要更高的計算資源來處理,這會影響到檢測器的運行速度和準(zhǔn)確性。當(dāng)圖像中行人數(shù)量過多時,行人檢測需要的計算量和存儲資源將會急劇增加,這會降低系統(tǒng)的實時性能。圖3.4密集行人3.3行人檢測實驗與結(jié)果3.3.1行人檢測環(huán)境配置在Windows11操作系統(tǒng)下的Pycharm2022.3.2版本的運行環(huán)境,基于深度學(xué)習(xí)的Python語言進行程序編寫。安裝了Python的第三方庫和深度學(xué)習(xí)的應(yīng)用程序編程接口(ApplicationProgrammingInterface,API),比如Matplotlib,Numpy等。處理器CPU型號為i7-8565UCPU,顯存環(huán)境GPU配置CUDA11.1環(huán)境進行GPU并行加速計算,應(yīng)用OpenCV4.4作圖像數(shù)據(jù)處理。3.3.2行人檢測實驗結(jié)果總體來說,傳統(tǒng)行人檢測方法主要包括基于特征匹配的方法、基于背景建模的方法、基于統(tǒng)計模型的方法等。在行人檢測方法中最早、最簡單,但是效率比較低,且容易受到圖像尺度、旋轉(zhuǎn)等因素的影響;基于特征點的檢測方法相對較為穩(wěn)健,但對光照、陰影等場景變化較為敏感;基于復(fù)雜背景建模的檢測方法可以適應(yīng)各種場景,但建模困難,而且對于復(fù)雜場景的適應(yīng)性不夠強?;谀0迤ヅ涞臋z測方法雖然簡單易實現(xiàn),但缺乏對目標(biāo)形變、旋轉(zhuǎn)等變化的魯棒性。總體而言,傳統(tǒng)的行人檢測方法受限于算法的局限性,很難滿足各種復(fù)雜場景和變化情況下的實時需求。對于圖像質(zhì)量差的情況下,傳統(tǒng)的行人檢測方法會受到更多的干擾和誤差,導(dǎo)致檢測準(zhǔn)確率降低。傳統(tǒng)的行人檢測方法往往需要手動設(shè)置一些參數(shù),例如檢測窗口大小、分類器的閾值等,因此需要較多的人工干預(yù)和調(diào)整,增加了算法開發(fā)和調(diào)試的難度和復(fù)雜性。在復(fù)雜的場景中,如人群擁擠、遮擋等情況下,傳統(tǒng)的行人檢測方法往往會受到嚴(yán)重的干擾和誤判,因此無法保證檢測結(jié)果的穩(wěn)定性。傳統(tǒng)行人檢測方法僅針對單個目標(biāo)進行檢測,并且難以處理高密度行人流等多目標(biāo)檢測和跟蹤任務(wù),因此無法滿足實際需求。為了解決這些問題,對該領(lǐng)域進行降重同義改寫是非常必要的。圖3.5傳統(tǒng)行人檢測圖3.6YOLOv3算法行人檢測正如圖3.5所示,在簡單的環(huán)境下,例如靜態(tài)背景、明亮光照、無遮擋等情況下,傳統(tǒng)的行人檢測方法往往能夠取得較好的效果。盡管傳統(tǒng)的行人檢測算法可以實現(xiàn)定位行人位置,但是它們的定位精度和識別效果常常不理想,這表明這些傳統(tǒng)方法受到了很多限制和缺陷的影響。因此,相較于傳統(tǒng)的行人檢測方法,如圖3.6,YOLOv3提供了一種更加快速、準(zhǔn)確、方便的檢測方法,可以更好地克服這些限制和缺陷。YOLOv3相比于傳統(tǒng)的行人檢測方法有以下幾個優(yōu)點:速度快:YOLOv3可以實現(xiàn)實時行人檢測,通常能夠達到幾十幀的檢測速度,比傳統(tǒng)的檢測方法更為高效。檢測準(zhǔn)確率高:YOLOv3通過引入多尺度訓(xùn)練、數(shù)據(jù)增強等技術(shù),提高了模型的泛化能力和穩(wěn)定性,在不同尺寸、角度、照度等情況下都能夠保持較高的檢測準(zhǔn)確率。多目標(biāo)檢測:YOLOv3可以同時檢測多個行人目標(biāo),并且在重疊和遮擋情況下也能夠有效地處理。通過將整個圖像輸入神經(jīng)網(wǎng)絡(luò)中并在網(wǎng)絡(luò)中前向傳遞來實現(xiàn)多目標(biāo)檢測。與其他目標(biāo)檢測算法不同,YOLOv3對圖像進行了多尺度處理,并在不同的層次上進行檢測,以適應(yīng)不同尺寸和形狀的目標(biāo)對象。在簡單背景下,行人的大小、形狀、姿勢等變化較少,這使得YOLOv3的多尺度檢測能夠更好地發(fā)揮作用,從而提高檢測效率和準(zhǔn)確率。此外,YOLOv3還使用了許多技術(shù)來改善檢測效率和準(zhǔn)確性,例如卷積層、LeakyReLU激活函數(shù)等。結(jié)合了所有這些技術(shù)的YOLOv3成為一個強大的目標(biāo)檢測算法,在許多行人檢測任務(wù)中表現(xiàn)出色。圖3.7YOLOv3簡單場景行人檢測在輕微遮擋下,YOLOv3所使用的多尺度檢測技術(shù)能夠有效地適應(yīng)不同尺寸和形狀的目標(biāo),并且能夠通過特征圖間的信息交互來完成整個目標(biāo)的檢測。同時,YOLOv3的AnchorBox預(yù)測技術(shù)和目標(biāo)框回歸技術(shù)能夠提高目標(biāo)框的精度,并且在遮擋情況下能夠預(yù)測目標(biāo)框的位置和尺寸從而更好地解決遮擋問題。圖3.8輕微遮擋下行人檢測YOLOv3能夠同時檢測多個行人目標(biāo),并且在重疊和遮擋情況下也能夠有效地處理。這種多目標(biāo)檢測技術(shù)可以在輕微遮擋下更好地發(fā)揮作用,因為即使行人目標(biāo)被部分遮擋也可以通過檢測其他部分來完成整個目標(biāo)的檢測。在輕微遮擋下,行人的一部分可能會被遮擋,但是YOLOv3可以利用其感知廣的特點,識別出未被遮擋的行人部分,并且通過目標(biāo)框回歸技術(shù)來預(yù)測整個目標(biāo)的位置和尺寸。圖3.9遮擋面積較大環(huán)境下行人檢測YOLOv3在運動狀態(tài)下進行行人檢測的實驗結(jié)果表明,與靜態(tài)情況下的行人檢測相比,檢測精度有所下降,但在實際應(yīng)用中仍能夠達到較高的準(zhǔn)確率。此外,YOLOv3還針對移動物體的特點進行優(yōu)化,采用了一些特殊的技術(shù),如多尺度特征融合、卷積重量歸一化等,進一步提高了運動狀態(tài)下的行人檢測精度。需要注意的是,行人的速度及背景復(fù)雜度等因素也會影響行人檢測的準(zhǔn)確率。圖3.10運動狀態(tài)下行人檢測YOLOv3在陰天環(huán)境下行人檢測的結(jié)果可能會受到環(huán)境光線的影響,YOLOv3在陰天光線不足的環(huán)境下行人檢測效果可能會有所降低,但是具體結(jié)果還要取決于數(shù)據(jù)集和具體的場景。但是它仍然可以進行有效的行人檢測。改進后的YOLOv3算法在陰天環(huán)境下行人檢測方面表現(xiàn)優(yōu)秀,準(zhǔn)確率較高,檢測結(jié)果也非常好。圖3.11陰天環(huán)境下行人檢測在雨天環(huán)境下,YOLOv3的行人檢測結(jié)果可能會受到較大的影響。由于雨天環(huán)境下光線較差,且行人的外形可能會被雨傘、雨衣等物品遮擋,因此會導(dǎo)致檢測準(zhǔn)確率下降。為了提高YOLOv3在雨天環(huán)境下的檢測效果,對于被遮擋的行人,可以考慮采用多視角的檢測方式,行人部位在不同視角下的特征點等來提高檢測準(zhǔn)確率。本文中所引用的算法在雨天環(huán)境中也有良好表現(xiàn)。圖3.12雨天環(huán)境下行人檢測在夜晚環(huán)境下,行人檢測更具挑戰(zhàn)性,主要原因是缺少光線和低對比度,這會影響算法對行人的識別和定位。在實驗中,我們使用了YOLOv3算法對夜晚行人進行檢測,并評估了其檢測性能。圖3.13顯示,算法表現(xiàn)出色,在光照不足,人員相對密集的夜晚,仍然可以高效準(zhǔn)確地檢測到夜晚場景中的行人。為了更好地評估算法的性能,我們使用了幾個常用的指標(biāo),包括準(zhǔn)確率、召回率。我們的實驗結(jié)果表明,YOLOv3算法在夜晚行人檢測方面表現(xiàn)良好??偟膩碚f,YOLOv3算法在夜晚行人檢測方面表現(xiàn)出色,具有高效、準(zhǔn)確和穩(wěn)定的特點。然而,也需要注意到在某些特殊情況下,如夜晚道路過于繁忙、行人與背景難以區(qū)分等情況下,算法可能會存在一定的誤檢和漏檢,需要進一步完善和提高算法的魯棒性和適應(yīng)性。圖3.13夜晚環(huán)境下行人檢測在復(fù)雜背景下進行行人檢測是一個具有挑戰(zhàn)性的任務(wù),因為人與周圍環(huán)境的復(fù)雜背景相互干擾。YOLOv3是一種既快速又準(zhǔn)確的目標(biāo)檢測算法,非常適合于處理復(fù)雜環(huán)境下的行人檢測任務(wù)。本文的實驗數(shù)據(jù)集采用了MSCOCO,這是一個具有多樣性和復(fù)雜度的挑戰(zhàn)性數(shù)據(jù)集。其中包括了一些具有復(fù)雜背景的行人圖片。在復(fù)雜的背景下,YOLOv3在MSCOCO數(shù)據(jù)集上表現(xiàn)優(yōu)秀,并取得了非常出色的性能。特別是對于小物體的檢測,表現(xiàn)出色。YOLOv3使用了Darknet-53作為主干網(wǎng)絡(luò),能夠提取更加豐富的特征。此外,該算法采用了多個尺度的檢測來適應(yīng)不同大小的目標(biāo)。綜合來看,在復(fù)雜背景下進行行人檢測時,YOLOv3表現(xiàn)非常出色。其采用強大的特征提取網(wǎng)絡(luò)和多尺度檢測,并通過SPP模塊和FPN模塊來適應(yīng)不同大小的目標(biāo)。圖3.14復(fù)雜背景下行人檢測YOLOv3是一個高效的物體檢測算法,在密集行人背景下進行行人檢測時也有不錯的表現(xiàn)。在實驗中,YOLOv3的檢測準(zhǔn)確率在密集行人背景檢測中能夠達到較高水平。YOLOv3具有很快的檢測速度,可以實現(xiàn)實時檢測。在密集行人背景下,由于行人數(shù)量較多,YOLOv3的檢測速度可能會相應(yīng)降低,但其優(yōu)化后的模型仍能夠?qū)崿F(xiàn)較快的檢測速度。綜上所述,YOLOv3在密集行人環(huán)境中進行行人檢測時表現(xiàn)優(yōu)秀,具有高準(zhǔn)確率和高召回率,并且檢測速度也非???,特別適合實時性要求較高的應(yīng)用場景。圖3.15密集行人情況下行人檢測YOLOv3在小目標(biāo)行人檢測方面,YOLOv3也取得了很好的效果。對于YOLOv3算法來說,小目標(biāo)的行人檢測是一項巨大的挑戰(zhàn)。在YOLOv3的算法中,為了解決這個問題,作者引入了一些新的技術(shù),比如多尺度訓(xùn)練、數(shù)據(jù)增強、組合性預(yù)測等等。從總體上看,YOLOv3在小目標(biāo)行人檢測中表現(xiàn)良好,能夠快速準(zhǔn)確地識別行人目標(biāo)。但是,在一些特定場景下,模型還需要進一步優(yōu)化,以提升檢測精度并適應(yīng)更復(fù)雜的環(huán)境。圖3.16小目標(biāo)行人檢測在夜間大面積遮擋環(huán)境下進行行人檢測是一個具有挑戰(zhàn)性的問題。YOLOv3采用了特殊的設(shè)計和技術(shù)來應(yīng)對這個問題,但實驗結(jié)果也表明,在實際應(yīng)用中仍然存在一些限制。首先,YOLOv3在夜間大面積遮擋環(huán)境下的檢測結(jié)果可能會受到光照不均勻、背景噪音等因素的影響,導(dǎo)致誤檢率較高。其次,如果行人與其他物體重疊或者遮擋,則可能無法完整地檢測到行人的位置和姿態(tài)。為了減少誤檢率和漏檢率,可以采用一些方法來改善檢測效果。總的來說,雖然YOLOv3在夜間大面積遮擋環(huán)境下的行人檢測結(jié)果精度和準(zhǔn)確性有待提高,存在一些限制,但它仍然是一個非常優(yōu)秀的算法。通過合理的調(diào)整參數(shù)和采用一些改進方法,可以使得其在實際應(yīng)用中發(fā)揮更好的效果。圖3.17夜間大面積遮擋環(huán)境下行人檢測第4章結(jié)論YOLOv3是一種基于深度學(xué)習(xí)的行人檢測算法,其改進可以通過修改網(wǎng)絡(luò)結(jié)構(gòu)、訓(xùn)練技巧和數(shù)據(jù)增強等方面進行。許多研究人員已經(jīng)對YOLOv3算法進行了改進,并取得了一些令人鼓舞的結(jié)果。近年來,隨著深度學(xué)習(xí)技術(shù)的不斷發(fā)展,YOLOv3、逐漸成為了圖像處理研究領(lǐng)域中的熱門話題。然而,由于行人目標(biāo)具有種類繁多,且圖像背景復(fù)雜多變,在實際應(yīng)用中精確地檢測到行人目標(biāo)十分困難。本文引用了改進YOLOv3算法的行人目標(biāo)檢測方法,從而提高其在行人目標(biāo)檢測中的表現(xiàn)。用PyCharm完成對圖片中行人檢測的設(shè)計,通過實驗到如下結(jié)論:(1)本文使用YOLOv3中的Darknet-53網(wǎng)絡(luò)結(jié)合COCO數(shù)據(jù)集中的Person子集對圖像中的行人特征信息進行檢測和提取。采用公開的行人數(shù)據(jù)集作為測試集。在這個實驗中,我們將利用Darknet-53網(wǎng)絡(luò)對行人目標(biāo)特征進行提取和對比。整個實驗所依托的平臺和數(shù)據(jù)集都已經(jīng)得到充分的準(zhǔn)備和處理。然后介紹了本文的anchor策略,為了適配本文的訓(xùn)練任務(wù),重新使用K-means聚類算法對anchorbox進行重新聚類。(2)實驗顯示,YOLOv3算法改進后,在行人目標(biāo)定位與識別方面可以獲得更好的表現(xiàn),并且對于漏檢率高的問題也可以得到有效改善??稍诓煌N類的目標(biāo)檢測中應(yīng)用,且效果良好。具體來說,YOLOv3算法是一種單階段目標(biāo)檢測方法,通常情況下,其檢測準(zhǔn)確率較高,但漏檢率也相對較高。這是因為在單階段檢測中,模型需要同時完成目標(biāo)位置和類別的判斷,因此對于小目標(biāo)或者部分遮擋的目標(biāo)等特殊情況,容易出現(xiàn)漏檢的情況。本文引入的方法雖能夠完成對圖片中進行行人檢測,但是在方法上依舊存在著些許不足。像在小目標(biāo)以及過于密集的情況下,實驗結(jié)果存在著一定的誤。所以,如何對復(fù)雜情況下行人檢測還有待未來進一步的研究。
總結(jié)與體會經(jīng)過多年的研究和發(fā)展,現(xiàn)有的行人檢測算法已經(jīng)實現(xiàn)了優(yōu)秀的效果,但是在圖像中存在大量的干擾行人檢測的問題,都會對傳統(tǒng)的目標(biāo)檢測方法或基于深度學(xué)習(xí)的早期目標(biāo)檢測方法產(chǎn)生影響,無法實現(xiàn)行人目標(biāo)的精確定位。綜上所述,具有高速、精度高、多尺度、內(nèi)存占用少和適用性廣等優(yōu)勢的YOLOv3算法是實現(xiàn)行人檢測的較好選擇。這也使得該算法成為了目前應(yīng)用最廣泛的行人檢測算法之一。YOLOv3算法采用了全卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),可以直接對整張圖像進行處理,速度非??欤琘OLOv3算法具有更高的檢測精度,能夠更準(zhǔn)確地檢測到同一張圖片中的更多的行人目標(biāo),并且其誤檢率也較低。YOLOv3算法采用了多尺度檢測技術(shù),可以同時處理不同尺寸的目標(biāo)物體,提高了算法的適應(yīng)性和泛化性能。其通過卷積神經(jīng)網(wǎng)絡(luò)對圖像進行特征提取和目標(biāo)分類,實現(xiàn)了較好的檢測效果。在使用YOLOv3進行行人檢測時,我有以下幾點體會:網(wǎng)絡(luò)架構(gòu)復(fù)雜度高:與傳統(tǒng)的行人檢測算法相比,YOLOv3的網(wǎng)絡(luò)架構(gòu)更為復(fù)雜,需要處理大量的圖像信息和卷積操作。這要求我們具備較強的計算機硬件和編程能力,以便能夠快速調(diào)試和優(yōu)化算法。檢測效果較好:經(jīng)過多次實驗和調(diào)試,我發(fā)現(xiàn)YOLOv3在行人檢測中具有很高的準(zhǔn)確率和召回率,并且能夠快速地檢測圖像中的行人目標(biāo)。此外,YOLOv3的檢測速度也比較快,可適用于實時檢測和大規(guī)模圖像處理??蓴U展性強:由于YOLOv3是一種基于深度學(xué)習(xí)的算法,因此其具有很強的可擴展性和遷移性。我們可以通過修改網(wǎng)絡(luò)結(jié)構(gòu)、數(shù)據(jù)集和訓(xùn)練參數(shù)等方法,來適配不同的場景和數(shù)據(jù)需求,實現(xiàn)更廣泛的應(yīng)用。參考文獻張曉春,孫超,邵源,韓廣廣,徐丹.新時期中國智能交通發(fā)展戰(zhàn)略思考[J/OL].城市交通:1-9.蘇慶堂等.MATLAB原理及應(yīng)用案例教程[M].清華大學(xué)出版社,2016.于澤,寧念文,鄭燕柳,呂怡寧,劉富強,周毅.深度強化學(xué)習(xí)驅(qū)動的智能交通信號控制策略綜述[J/OL].計算機科學(xué):1-21.李偉.未來交通運輸是綜合和智慧的——以《“十三五”現(xiàn)代綜合交通運輸體系發(fā)展規(guī)劃》及相關(guān)研究為參考[J].中國公路,2018(05):72-74.李海濱,劉洪,孫麗玫.全國一體化大數(shù)據(jù)中心體系構(gòu)建背景下企業(yè)數(shù)據(jù)中心科學(xué)規(guī)劃的思考[J].電信工程技術(shù)與標(biāo)準(zhǔn)化,2021,34(08):11-15.蔣向利.做強做優(yōu)做大我國數(shù)字經(jīng)濟為經(jīng)濟社會發(fā)展提供強大動力——國務(wù)院印發(fā)《“十四五”數(shù)字經(jīng)濟發(fā)展規(guī)劃》[J].中國科技產(chǎn)業(yè),2022(02):14-19.孫奇茹.無人駕駛加速融入城市生活[N].北京日報,2023-01-29(007).金鳳.智慧交通“大腦”疏通城市堵點[N].科技日報,2023-01-05(007).李學(xué)鋆,汪怡平,蘇楚奇,宮新樂,黃晉,趙曉敏,張鎮(zhèn)濤.智能車輛路徑跟蹤控制方法研究[J/OL].控制與決策:1-9.肖順亮.面向無人駕駛場景中的行人檢測技術(shù)研究[D].中原工學(xué)院,2022.劉暢.基于深度學(xué)習(xí)的行人檢測算法研究[D].東北石油大學(xué),2022.婁翔飛,呂文濤,葉冬,郭慶,魯競,陳影柔.基于計算機視覺的行人檢測方法研究進展[J/OL].浙江理工大學(xué)學(xué)報(自然科學(xué)版):1-12.王麗園,趙陶,王文,肖進勝,熊聞心.具有姿態(tài)變化魯棒性的行人檢測跟蹤算法[J].計算機工程與設(shè)計,2022,43(10):2877-2881.王婷婷.面向道路交通場景的行人智能檢測方法研究[D].貴州大學(xué),2022.車啟謠,嚴(yán)運兵.基于改進YOLOv3的行人檢測研究[J].智能計算機與應(yīng)用,2022,12(08):8-13.汪潛.基于局部特征與空間變換的復(fù)雜場景行人再識別[D].合肥工業(yè)大學(xué),2020.田欣.智慧城市中視頻監(jiān)控大數(shù)據(jù)的應(yīng)用探討[J].數(shù)字通信世界,2022(05):106-108.劉艷,張海民.面向智慧社區(qū)的視頻監(jiān)控異常行為識別方法的研究[J].新型工業(yè)化,2020,10(08):17-18+23.蔣龍龍.運營商開啟5G智慧交通新未來[N].通信信息報,2022-11-16(003).李佳芯.讓智能交通管理系統(tǒng)發(fā)揮更大效能[J].道路交通管理,2022(06):86-87.于宵.綜合客運交通樞紐交通信息服務(wù)需求分析[J].交通與運輸,2020,33(S1):209-212.魏文強.人工智能在汽車自動駕駛中的應(yīng)用[J].時代汽車,2022(24):196-198.張濤.落實《國家綜合立體交通網(wǎng)規(guī)劃綱要》精神加快建設(shè)交通強國[J].中國水運,2021(04):10-13.羅艷,張重陽,田永鴻,郭捷,孫軍.深度學(xué)習(xí)行人檢測方法綜述[J].中國圖象圖形學(xué)報,2022,27(07):2094-2111.王釗,解文彬,文江.基于YOLO的多模態(tài)特征差分注意融合行人檢測[J/OL].計算機系統(tǒng)應(yīng)用:1-10.N.P.G.D.Navoda,M.D.W.Samaranayake,S.L.Liyanage,H.M.T.Herath,J.M.J.K.Jayasinghe.DeterminationofFunctionalPropertiesofSriLankanAmbarella(SpondiasdulcisForst.syn.SpondiascythereaSonn.)FruitandDevelopmentofVacuumDriedAmbarellaFruitPowderandIncorporatedSoupMix[J].AsianFoodScienceJournal,2021.ZhangFei,ZhenPeining,JingDishan,TangXiaotang,CHENHaiBao,YANJie.SVMBasedIntrusionDetectionMethodwithNonlinearScalingandFeatureSelection[J].IEICETransactionsonInformationandSystems,2022,E105.D(5).JiaZiguang,SuXin,MaGuangda,DaiTongtong,SunJiabin.CrackidentificationformarineengineeringequipmentbasedonimprovedSSDandYOLOv5[J].OceanEngineering,2023,268.YangYao,HuangCong,WangHuajun,WanJun,WangZhenheng,MaYu.ResearchonYOLOv3targetdetectionmodelinthefieldofremotesensing[J].JournalofPhysics:ConferenceSeries,2021,2029(1).GajeraHimanshuK.,NayakDeepakRanjan,ZaveriMukeshA..AcomprehensiveanalysisofdermoscopyimagesformelanomadetectionviadeepCNNfeatures[J].BiomedicalSignalProcessingandControl,2023,79(P2).LUTongWei,JIAShiHai,ZHANGHao.MemFRCN:FewShotObjectDetectionwithMemorableFaster-RCNN[J].IEICETransactionsonFundamentalsofElectronics,CommunicationsandComputerSciences,2022,E105.A(12).T-JCheng,BYang,CHolloway,NTyler.Effectofenvironmentalfactorsonhowolderpedestriansdetectanupcomingstep[J].LightingResearch&Technology,2018,50(3).ValarmathiB.,KshitijJain,DimpleRajpurohit,SrinivasaGuptaN.,HaroldRobinsonY.,ArulkumaranG.,MuluTadesse.HumanDetectionandActionRecognitionforSearchandRescueinDisastersUsingYOLOv3Algorithm[J].JournalofElectricalandComputerEngineering,2023,2023.ShenLingzhi,TaoHongfeng,NiYuanzhi,WangYue,StojanovicVladimir.ImprovedYOLOv3modelwithfeaturemapcroppingformulti-scaleroadobjectdetection[J].MeasurementScienceandTechnology,2023,34(4).KarKohitij,KornblithSimon,FedorenkoEvelina.Interpretabilityofartificialneuralnetworkmodelsinartificialintelligenceversusneuroscience[J].NatureMachineIntelligence,2022,4(12).YuanBH,LiuGH.Imageretrievalbasedongradient-structureshistogram[J].NeuralComputingandApplications,2020:1-11.張友海.淺談人工神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)算法[J].電腦知識與技術(shù),2018,14(19):218+220.QasimAbboodMahdi,AndriiShyshatskyi,OleksandrSymonenko,NadiiaProtas,OleksandrTrotsko,VolodymyrKyvliuk,ArtemShulhin,PetroSteshenko,EduardOstapchuk,TetianaHolenkovska.Developmentofamethodfortrainingartificialneuralnetworksforintelligentdecisionsupportsystems[J].Eastern-EuropeanJournalofEnterpriseTechnologies,2022,1(9).YuenBrosnan,HoangMinhTu,DongXiaodai,LuTao.Universalactivationfunction
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 2024年演出合同的演出內(nèi)容及演出報酬
- 商丘學(xué)院《中國傳統(tǒng)蒙養(yǎng)教育》2023-2024學(xué)年第一學(xué)期期末試卷
- 商丘學(xué)院《生物醫(yī)學(xué)建模與仿真》2023-2024學(xué)年第一學(xué)期期末試卷
- 2024年特色餐廳聯(lián)營協(xié)議
- 景觀設(shè)計意向合同范例
- 后澆帶的的施工方案
- 商洛職業(yè)技術(shù)學(xué)院《公共室內(nèi)空間設(shè)計》2023-2024學(xué)年第一學(xué)期期末試卷
- 汕頭大學(xué)《汽車輕量化技術(shù)》2023-2024學(xué)年第一學(xué)期期末試卷
- 2024至2030年蛋白石項鏈項目投資價值分析報告
- 2024至2030年手搖式中頻爐項目投資價值分析報告
- 《社會調(diào)查研究與方法》形成性考核冊及參考答案
- 建筑制圖基礎(chǔ)-國家開放大學(xué)電大機考網(wǎng)考題目答案
- 2023-2024學(xué)年高一上學(xué)期期末真題綜合測試遼寧卷A地理試題(解析版)
- 《Java程序設(shè)計基礎(chǔ)與應(yīng)用》全套教學(xué)課件
- 2024年山東省濟南市地理高一上學(xué)期試卷及解答
- 廣東省深圳市2024年九年級中考提分訓(xùn)練《六選五》專題練習(xí)
- 綿陽衛(wèi)生系統(tǒng)考試真題
- 注射相關(guān)感染預(yù)防與控制(全文)
- 升壓站土建施工合同2024年
- DB5334-T 12.1-2024 地理標(biāo)志證明商標(biāo) 香格里拉藏香豬 第1部分:品種要求
- NB-T31030-2012陸地和海上風(fēng)電場工程地質(zhì)勘察規(guī)范
評論
0/150
提交評論