版權說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權,請進行舉報或認領
文檔簡介
無人機遙感影像在油菜品種識別中的應用
李婕李毅張瑞杰李俐俐李禮姚劍喬江偉Summary:采用無人機遙感技術進行油菜品種識別,是產(chǎn)量預測及災害評估的重要前提和基礎。本研究利用無人機作為數(shù)據(jù)采集設備,以基地24個品種油菜苗期育種材料為識別數(shù)據(jù),將無人機獲取的影像進行拼接、裁剪、旋轉等預處理,按照4∶1劃分訓練集和測試集,構建注意力機制引導的卷積神經(jīng)網(wǎng)絡搭建油菜影像識別網(wǎng)絡模型,并采用總體準確率、Kappa系數(shù)等評價參數(shù)對識別結果進行評價。結果表明,本研究的網(wǎng)絡模型識別準確率和Kappa系數(shù)分別達到了89.60%和0.8894,高于5個經(jīng)典網(wǎng)絡模型。說明,注意力機制能夠更加充分地提取無人機遙感影像的油菜特征,有效地提高卷積神經(jīng)網(wǎng)絡對不同品種油菜的識別精度。本研究網(wǎng)絡模型彌補了傳統(tǒng)油菜細分需要人力統(tǒng)計及現(xiàn)有方法設備成本高的缺陷,為采用無人機遙感技術進行作物品種識別提供技術支撐。Key:油菜;無人機遙感技術;品種識別;卷積神經(jīng)網(wǎng)絡;注意力機制:TP75
:A
:1000-4440(2022)03-0675-10ApplicationofUAVremotesensingimageinrapevarietyidentificationLIJie1,LIYi1,ZHANGRui-jie2,LILi-li2
,LILi2,YAOJian2,QIAOJiang-wei3(1.SchoolofElectricalandElectronicEngineering,HubeiUniversityofTechnology,Wuhan430068,China;2.SchoolofRemoteSensingandInformationEngineering,WuhanUniversity,Wuhan430070,China;3.OilCropsResearchInstitute,ChineseAcademyofAgriculturalSciences,Wuhan430062,China)Abstract:Usingunmannedaerialvehicle(UAV)remotesensingtechnologytoidentifyrapevarietiesisanimportantprerequisiteandbasisforyieldpredictionanddisasterassessment.Inthisstudy,UAVwasusedasdataacquisitionequipment,andthebreedingmaterialsof24rapevarietiesatseedlingstageinthebasewereusedasidentificationdata.TheimagesobtainedbytheUAVwerepreprocessedsuchassplicing,clippingandrotation.Thetrainingsetandtestsetweredividedaccordingtotheratioof4∶1,andtheconvolutionalneuralnetworkguidedbyattentionmechanismwasconstructedtobuildtherecognitionmodel.Theoverallaccuracy,Kappacoefficientandotherevaluationparameterswereusedtoevaluatetherecognitionresults.TheresultsshowedthattherecognitionaccuracyandKappacoefficientofthenetworkmodelconstructedinthisstudyreached89.60%and0.8894,respectively,whichwerehigherthanthoseofthefiveclassicalnetworkmodels.TheattentionmechanismcanextracttherapefeaturesofUAVremotesensingimagesmorefully,andeffectivelyimprovetherecognitionaccuracyofconvolutionalneuralnetworkfordifferentvarietiesofrape.Thenetworkmodelconstructedinthisstudymakesupfortheshortcomingsofhumanstatisticsandhighcostofexistingmethodsandequipment,andprovidestechnicalsupportforcropvarietyidentificationusingUAVremotesensingtechnology.Keywords:rape;unmamedaerialvehicle(UAV)remotesensingtechnology;varietyidentification;convolutionalneuralnetwork;attentionmechanism油菜是中國主要的油料作物,占世界產(chǎn)量的20%,在國民經(jīng)濟發(fā)展中占據(jù)著舉足輕重的地位[1-2]。長江中下游作為油菜高產(chǎn)區(qū),油菜品種繁多,不同品種的產(chǎn)量、抗性等有所差異,因此,及時、準確地獲取油菜品種種植信息是產(chǎn)量預測及災害評估的重要前提和基礎,對油菜種植規(guī)劃及生產(chǎn)管理措施制定具有重要意義。長期以來,中國油菜品種種植信息等重要農(nóng)業(yè)統(tǒng)計數(shù)據(jù),主要通過人工統(tǒng)計等傳統(tǒng)方法獲得,普遍存在調查工作量龐大、財力和物力耗費高、調查周期長等諸多缺陷。如今,遙感技術發(fā)展迅速,利用高分辨率的衛(wèi)星并以地面采樣調查為輔助,可實現(xiàn)油菜種植品種信息的精細提取[3],但是由于衛(wèi)星重返周期長,指定區(qū)域的實時性數(shù)據(jù)無法保證,所以單一利用遙感進行油菜品種識別,監(jiān)測精度無法滿足實時性要求。因此,采用無人機遙感技術進行油菜品種細分成為必要。目前,無人機遙感結合深度學習技術在大面積、快速、不破壞作物結構的同時能夠獲取不同時空的多尺度作物冠層信息[4],為作物表型研究[5-6]、產(chǎn)量及品質監(jiān)控評估[7-8]、作物長勢動態(tài)[9]、精細農(nóng)業(yè)[10]等提供了可視化的分析依據(jù)。無人機根據(jù)載荷、監(jiān)測目的的不同能夠搭載不同類型的遙感傳感器。雖然無人機搭載多光譜成像傳感器的應用較多[11-12],但多光譜傳感器存在波段數(shù)有限、光譜信息量小、樣本標記代價高的問題,使其大面積推廣應用受到限制;而無人機搭載高光譜傳感器在農(nóng)作物精細識別方面得到廣泛應用[13-16],由于其獲取的影像包含數(shù)百個波段,光譜分辨率能夠達到2~4nm,因此高光譜成像傳感器能夠準確地反映大田中農(nóng)作物的光譜特征和不同農(nóng)作物之間的光譜差異[17],但也存在樣本標記代價高,實施成本昂貴的問題[18]。無人機搭載RGB相機,具有成本低且受天氣影響較小等優(yōu)點,能夠獲取占用內(nèi)存較小的數(shù)碼照片,使大面積農(nóng)田信息快速采集、簡單處理成為可能[19]。近年來國內(nèi)外學者運用無人機搭載RGB相機的數(shù)碼照片對農(nóng)作物信息進行提取取得了不錯的效果,Bendig等[20]利用數(shù)碼相機估算大麥的株高、葉面積指數(shù)、倒伏狀況等信息,牛慶林等[21]采用無人機RGB影像提取各個時期、各個田塊玉米的株高信息。目前應用低空無人機遙感手段估測油菜成長參數(shù)的研究尚處在初級階段,已有的基于RGB相機對油菜品種的細分研究主要以近距離拍攝的圖像作為輸入[22-23],鮮少僅以高空農(nóng)作物影像作為輸入。因此,本研究基于深度學習理論,以無人機獲取的影像為數(shù)據(jù),利用不同油菜品種的高空視覺表型特征,提出一種基于普通消費級無人機遙感影像的油菜品種的識別方法。該方法采用多尺度特征的提取方式,結合通道注意力機制,利用高維空間的最優(yōu)分類函數(shù),對模型進行優(yōu)化,使之與高空拍攝農(nóng)作物影像的識別與處理吻合。最后,通過構建多組數(shù)據(jù)、多種模型的對比試驗,驗證該方法的有效性,為油菜的品種識別及農(nóng)作物智慧決策提供有益補充。1材料與方法1.1試驗布置與數(shù)據(jù)采集油菜種植分為冬油菜(9底種植,次年5月收獲)和春油菜(4月底種植,9月收獲)。其中,冬油菜的種植面積和產(chǎn)量均占全國的90%以上,占世界的1/4。本研究選取湖北省武漢市新洲區(qū)中國農(nóng)業(yè)科學院油料作物研究所陽邏基地(30°42′E,14°30′N)作為研究區(qū)域(圖1),該區(qū)域海拔約24m,氣候類型為亞熱帶季風氣候。試驗田共分252個小區(qū),小區(qū)面積分為8m2(2m×4m)和6m2(2m×3m)2種。試驗選擇24個不同品種的油菜材料,以p1~p24依次命名,其中,p1~p6每個品種重復種植24個小區(qū),p7~p24每個油菜品種重復種植6個小區(qū)。試驗時間在冬油菜的幼苗期,即2020年10月至次年1月。數(shù)據(jù)采集使用的無人機型號為大疆精靈Phantom4ProV2.0,搭載相機為2×107像素,拍攝單張圖像尺寸為5472×3648,具體采集環(huán)境如表1所示。采用自動規(guī)劃航拍模式,航向重疊率和旁向重疊率設定為75%,飛行高度10m,以等距間隔方式進行拍照,飛行速度為1.9m/s,約10min完成研究區(qū)域數(shù)據(jù)采集。大田24個不同品種的油菜苗期影像數(shù)據(jù)輸入,按照從左至右,自上而下順序分別放置了第1種至第24種不同油菜品種材料影像(圖2)。由圖2可以發(fā)現(xiàn),部分品種視覺效果差異很小。1.2數(shù)據(jù)預處理為了獲取識別網(wǎng)絡模型的訓練樣本,無人機分別拍攝了油菜在六葉期、八葉期以及十葉期的影像數(shù)據(jù),每期包含p1~p24共24個油菜品種數(shù)據(jù)集,將獲取的無人機遙感影像數(shù)據(jù)進行預處理,每期油菜數(shù)據(jù)集進行4∶1劃分訓練集和測試集。具體步驟如圖3所示。首先將研究區(qū)域的無人機航拍影像進行拼接,獲取大田的正射影像,然后利用圖像處理軟件將正射影像按照實際地面尺寸進行裁剪,同時綜合大田種植時的數(shù)據(jù),為對應的影像打上標簽。因為試驗田和油菜品種有限,所以獲取的影像數(shù)據(jù)較少,可能不滿足模型訓練的特征提取,為了解決這個問題,本研究對標記好的原始圖片進行裁剪,并考慮到數(shù)據(jù)采集過程中天氣情況對圖像亮度的影響不同,對剪裁圖像的亮度進行了操作。首先將圖像從RGB色彩空間轉變到HSV色彩空間,然后對亮度進行調整,以10%的比例增加亮度,使網(wǎng)絡模型對不同天氣造成的亮度變化具有更強的適應性。為了增加訓練樣本以防止圖像數(shù)據(jù)過度擬合,需要對裁剪得到的中圖影像進行數(shù)據(jù)擴展。將獲取的單張品種p1~p6油菜中圖影像裁剪成18張小圖,品種p7~p24油菜中圖影像裁剪成15張小圖,得到最終的網(wǎng)絡模型訓練和測試所需要的剪裁后的數(shù)據(jù)集(圖3)。1.3油菜品種識別網(wǎng)絡模型本研究采用的網(wǎng)絡模型結構圖如圖4所示,其中主干網(wǎng)絡模型共分為3個尺度模塊,每個尺度模塊由2個連續(xù)的3×3卷積層(stride=1)及ReLU非線性激活函數(shù)組成,為了擴展到下一個尺度模塊,采用2×2最大池化層并保留輸出塊中的最大像素使輸出分辨率減半。雖然每個卷積步驟中都存在2個像素的損失,但由于本研究目標不是精確的特征定位,因此在不影響整體性能的情況下提高了訓練和推理速度??紤]到網(wǎng)絡模型的全局表現(xiàn)以及提升運行速度,在每一次非線性激活函數(shù)之后,實行批量歸一化。識別部分采用參數(shù)較少的卷積操作來完成,通過特征提取得到圖像的特征后,首先經(jīng)過1×1的卷積將特征圖維度調整成1,然后用全局平均池化層得到輸入圖像的24類識別結果,最終用Softmax將結果轉化為各品種的概率。為了讓網(wǎng)絡模型在通道之間篩選提取出更加有用的特征信息,本研究考慮在主干網(wǎng)絡模型的基礎上添加注意力模塊。具體的結構框圖如圖5所示。首先,通過對卷積得到的特征圖進行處理,得到一個和通道數(shù)相同的一維向量作為每個通道的評價分數(shù),然后將該分數(shù)分別施加到對應的通道上。假設特征圖維度為h×w×c,在此基礎上做全局池化,池化窗口為h×w,通道數(shù)不變,那么經(jīng)過池化操作得到
1×1×c的特征圖;然后,連接2個全連接層,其中,第一個全連接層神經(jīng)元個數(shù)為c/r,相當于對c進行了降維;輸入c個特征,第二個全連接層神經(jīng)元個數(shù)為c,相當于維度回到了c個特征,與直接用1個全連接層相比,這種鏈接方式具備更多的非線性,可以更好地擬合通道間復雜的相關性,因此極大地減少了參數(shù)量和計算量;最后,考慮到通道之間的相關性,連接1個sigmod層,得到1×1×c的特征圖輸出。主干網(wǎng)絡模型的特征圖維度h×w×c,輸入到注意力模塊,得到通道的權值,維度為1×1×c,將主干網(wǎng)絡模型特征圖與權重特征圖相乘,得到的特征圖對應的每個通道的重要性不同,權重大的特征值更大。在訓練過程中,采用Loss函數(shù)為交叉熵函數(shù),損失函數(shù)表達式如公式1所示:L=1N∑(-∑Mc=1yic
lgpic)(1)其中,M表示類別數(shù),yic
為指示變量,如果該類別與樣本i的類別相同則為1,否則為0;pic
表示觀測樣本i為類別c的預測概率;N為樣本的數(shù)量。而本研究所對應的任務,需要用多分類的交叉熵函數(shù)對24類的交叉熵函數(shù)進行擴展。1.4評價指標本研究深度學習運行硬件環(huán)境為Ubuntu16.04,硬件內(nèi)存為128G,2張NVIDIAGTX1080Ti顯卡。為了檢驗模型的穩(wěn)定性,本研究利用交叉驗證的方法,將樣本集分成5份,按照4∶1劃分訓練集和測試集,最終計算
n次訓練下的評價指標。本研究采用公式(2)~公式(7)所示的評價指標來評估網(wǎng)絡模型整體性能Top3和Top5準確率,即在概率向量最大的前3/前5中,只要出現(xiàn)了正確概率即為預測正確。A(Accuracy)=TP+TNTP+TN+FP+FN(2)P(Precision)=TPTP+FP(3)R(Recall)=TPTP+FN(4)F1=2×P×RP+R(5)MacroF1=∑F1
in(6)MicroF1=2×all_p×all_rall_p+all_r(7)其中,準確率(Accuracy):識別正確樣本數(shù)除以總樣本數(shù);查準率(Precision):識別正確的正樣本個數(shù)占分類器分成的所有正樣本個數(shù)的比例;召回率(Recall):識別正確的正樣本個數(shù)占實際正樣本個數(shù)的比例;MacroF1和MicroF1值:兼顧識別模型的查準率和召回率,是兩者的調和均值;
TP(True
Positive)表示正類樣本被模型分為正類樣本,F(xiàn)P(False
Positive)表示負類樣本被模型分為正類樣本。TN(True
Negetive)表示負類樣本被模型分為負類樣本,F(xiàn)N(False
Negetive)表示正類樣本被模型分為負類樣本。2結果與分析2.1本研究網(wǎng)絡模型的驗證為了驗證本研究網(wǎng)絡模型的有效性,本研究分別用4個單獨時期的油菜數(shù)據(jù)集進行試驗。每期數(shù)據(jù)按照4∶1的比例劃分訓練小區(qū)和測試小區(qū),然后將對應小區(qū)增強后的數(shù)據(jù)作為訓練數(shù)據(jù)集和測試數(shù)據(jù)集,得到參與訓練和測試的樣本數(shù)量分別為6510張和1914張,如表2和表3所示。經(jīng)過迭代后訓練效果如圖6所示,從圖6可以看出,隨著迭代次數(shù)的增加,精度提升,誤差降低,大約訓練150個周期后,誤差和精度趨于平穩(wěn),說明網(wǎng)絡模型的偏差、方差和精度接近完全收斂。在試驗中基本參數(shù)設置,學習率為0.01,batch_size為32,epoch為300。試驗得到6個性能指標在4個數(shù)據(jù)集里的整體性能如表4所示。對比不同油菜苗期數(shù)據(jù)集上的識別結果,總體上前期識別精度更高,各項性能指標更好,油菜在六葉期更加適合品種識別。為了評價本研究網(wǎng)絡模型識別不同品種油菜的效果,對24個油菜品種p1~p24進行歸類分析,每個品種識別精確度如圖7所示。對4個采集時期的每個油菜品種識別精度求平均,將平均識別精度效果分為4個層次,高于95.0%為識別效果最好,85.1%~95.0%為較好,75.1%~85.0%為一般,低于75%為較差,具體識別效果如表5所示。結果表明,本研究模型對p3、p5、p11、p12、p19、p22、p23、p24這8個油菜品種識別效果最好,平均精度都是95%以上,尤其是品種p12和p22,其識別精度分別達到了99.45%和99.19%;但是對品種p1和p7識別效果較差,其識別精度只有68.62%和72.73%,分析原因可能是品種p1和p7整體表型差異性較小,葉片密集且極度相似,視覺上難以區(qū)分(圖8),網(wǎng)絡模型對其誤判嚴重,所以導致識別精度不高。2.2本研究網(wǎng)絡模型在不同時期采集數(shù)據(jù)上的識別精度分析在4個采集時期中,本研究網(wǎng)絡模型隨著油菜成長期的推進對其識別的準確率呈下降趨勢,F(xiàn)1、Top3、Top5指標也相應下降。因為進入八葉期、十葉期,葉片逐漸茂盛,隨著生長發(fā)育進程的推進,油菜葉形不斷發(fā)生變化,而氣溫長時間在零下的越冬期,葉形最復雜,因為油菜葉片會出現(xiàn)受凍癥狀。圖9展示了油菜品種p1在同一位置的4個采集時期的影像,從圖9中可以發(fā)現(xiàn),第4次采集的數(shù)據(jù)與前面3次采集的數(shù)據(jù)相比,差異較大。因為第4次采集的數(shù)據(jù)采集時間正處于冬油菜的越冬期,由于氣溫較低,油菜葉片呈現(xiàn)卷曲現(xiàn)象,甚至有的葉片發(fā)紫變黃,出現(xiàn)不同程度的凍傷現(xiàn)象,從而導致準確率及識別精度與前面3次相比有所降低。圖10為本研究模型在4個采集時期形成的混淆矩陣,其中混淆矩陣的行表示真實值的樣本,每一行之和表示真實樣本數(shù)量;混淆矩陣的列表示預測樣本類別,每一列之和表示預測為該類別的樣本數(shù)量。通過混淆矩陣可以看出,基于當前的樣本集合,有一些類別具有較強相似性。2.3識別結果的可視化本研究在試驗田的測試區(qū)展示了第2次采集數(shù)據(jù)的識別結果。這種顯示方式一定程度上可以幫助管理者快速獲得識別結果。如圖11所示,黑色實線矩形框區(qū)域為本次分類實驗田,黑色虛線內(nèi)的白色矩形框區(qū)域為測試區(qū)的47個小區(qū),種有24個品種。放大的測試區(qū)中顏色越深表明小區(qū)的分類錯誤率越高,從試驗結果可以看出,測試區(qū)1主要為品種p1至p6,結果顯示無錯分類別;測試區(qū)2為品種p7至p24,其中,顏色最深的2塊小區(qū)對應的品種p16容易被錯分為品種p4,剩下的較淺的錯分區(qū)域主要為品種p13和p15分類混淆。本研究將錯分的類別影像進行了對比,分類錯誤的樣本與真實的樣本視覺上具有極高的相似度,導致本研究模型誤判,從而降低了不同油菜品種識別的區(qū)分精度,這幾個品種在幼苗期具有極強的相似性,油菜生長周期長,不同時期不同環(huán)境生長的油菜特征差異可能會更加明顯,因此可能需要在不同時期不同種植位置采集這幾個相似性強的品種,獲取更多數(shù)據(jù),增加差異性,得到更強的特征,從而更好地加以細分。由于本研究網(wǎng)絡模型屬于輕量化設計,所以網(wǎng)絡模型訓練參數(shù)量少,速度快,網(wǎng)絡模型結構簡單,因此對極相似油菜品種不易區(qū)分,后續(xù)考慮改進算法增加網(wǎng)絡模型復雜度和采集不同環(huán)境下的數(shù)據(jù),提高差異性較小的不同油菜品種的識別能力,增加網(wǎng)絡模型的魯棒性。2.4本研究網(wǎng)絡模型與傳統(tǒng)識別網(wǎng)絡模型的對比為了驗證本研究提出的網(wǎng)絡模型的客觀性,本研究將其分別與Resnet[24]、Densenet[25]、Resnext[26]、Efficientnet[27]、Shufflenet[28]
5種經(jīng)典的網(wǎng)絡模型進行對比,試驗過程中采用相同的基本參數(shù),由于不同品種油菜生長不同步,有的油菜品種早期葉片極度稀少,晚期油菜葉片有大量凍傷,這些數(shù)據(jù)會影響數(shù)據(jù)集的質量,所以本研究選擇在生長狀況較好的八葉期采集的數(shù)據(jù)。不同網(wǎng)絡模型在同一個數(shù)據(jù)集的相同基本參數(shù)下的各項性能指標如表6所示。從表6可以看出,本研究提出的網(wǎng)絡模型在各項指標上的精度都高于其他5個經(jīng)典網(wǎng)絡模型,準確率達到89.60%。Densenet網(wǎng)絡模型是通過每層直接相連的相鄰設置,對上一層學習到的特征進行重用,極大地減少網(wǎng)絡的參數(shù)量,加強了特征傳播,緩解了梯度消失的問題,便于更好訓練,提升了識別準確率,因此在5種經(jīng)典網(wǎng)絡模型中擁有最高的準確率。Resnext、Efficientnet、Resnext網(wǎng)絡模型的準確率相近,相比于Resnet網(wǎng)絡模型,準確率提升了4個百分點左右,而Resnet網(wǎng)絡模型卷積層層數(shù)多,參數(shù)量大,訓練時間長,在本研究構造的小數(shù)據(jù)集中的準確率最低。Resnext網(wǎng)絡模型利用分組卷積控制基數(shù)減少了超參數(shù),簡化了網(wǎng)絡模型結構。Efficientnet和Shufflenet網(wǎng)絡模型也通過建立輕量級網(wǎng)絡模型減少網(wǎng)絡模型復雜度和減少訓練時間來提升準確率,這2種網(wǎng)絡模型準確率、Macro_F1和Top3以及Top5的數(shù)值相近。總體而言,由于經(jīng)典網(wǎng)絡模型常具有較多的參數(shù)[29-30],因此容易發(fā)生過擬合,而本研究設計的網(wǎng)絡模型,結構簡單,參數(shù)量較少,并且能夠更精確地識別不同品種的油菜。3討論針對傳統(tǒng)油菜品種細分需要人力統(tǒng)計及現(xiàn)有方法設備成本高的問題,本研究提出了一種基于普通消費級無人機遙感影像的油菜品種識別方法,采用無人機遙感進行了數(shù)據(jù)采集、數(shù)據(jù)預處理等研究工作,結合本研究提出的網(wǎng)絡模型結構,首先對4次采集的油菜數(shù)據(jù)進行了試驗以尋找最適合分類的油菜時期,再用油菜八葉期的2個時間段合并的數(shù)據(jù)集與傳統(tǒng)網(wǎng)絡模型進行對比,并對識別結果進行分析,結果表明:(1)基于SE注意力模塊的卷積神經(jīng)網(wǎng)絡能夠從油菜作物無人機遙感影像中學習到表達力更強的語義特征,提取特征更加充分。且本研究網(wǎng)絡模型架構簡單,參數(shù)量較少,在增加SE注意力模塊后,網(wǎng)絡模型學習的特征信息豐富,從而能夠達到對油菜生長時期關鍵節(jié)點的影像快速分類的目的。與Resnet、Densenet、Resnext、Efficient、Shufflenet等傳統(tǒng)網(wǎng)絡模型相比,本研究網(wǎng)絡模型識別準確率和Kappa系數(shù)最高,達到了89.60%和0.8894,為利用無人機遙感影像識別油菜品種提供了一種新的技術參考。(2)通過對24個油菜品種進行歸類分析,發(fā)現(xiàn)在品種p1~p24中,本研究網(wǎng)絡模型最容易識別出品種p12和p22,其識別精度接近100%,對品種p3、p5、p11、p19、p23、p24這6個品種識別效果也很好,平均精度都在95%以上,但是對p1和p7識別效果較差,其精度只有70%左右,余下14個品種識別效果都處于較好級別,整體識別效果較好,表明無人機遙感影像結合增加注意力模塊的卷積神經(jīng)網(wǎng)絡能夠很好地對油菜品種進行識別。(3)冬油菜進入八葉期、十葉期,葉片逐漸茂盛,隨著生長發(fā)育進程的推進,油菜葉形不斷的發(fā)生變化,而當油菜長時間處于氣溫零下的越冬期時,葉形最復雜,溫度降低導致部分油菜品種葉片出現(xiàn)受凍癥狀,視覺效果呈現(xiàn)為葉片卷曲和顏色變深,具體表現(xiàn)為葉片發(fā)黃或發(fā)紫、皺縮、僵化、葉柄呈水漬狀;而當溫度回升、土壤解凍后,葉片逐漸萎蔫、變黃、脫落,導致同一品種的無人機遙感影像差異大,從而使網(wǎng)絡模型學習特征較難,致使網(wǎng)絡模型識別精度下降。因此,識別時期應選擇在幼苗期前期。結合無人機遙感影像與深度學習在油菜品種識別中展現(xiàn)出的較好效果,增加SE注意力模塊后的網(wǎng)絡模型與傳統(tǒng)網(wǎng)絡模型相比,在準確率上也有較大優(yōu)勢,各項性能指標均有提高。但由于試驗小區(qū)及品種的局限性,后續(xù)將考慮增加試驗田和油菜品種,用以驗證網(wǎng)絡模型結構的魯棒性;另外,考慮到在幼苗期部分品種的相似性,本研究考慮添加不同物候期的油菜數(shù)據(jù)用于后續(xù)精細化的識別研究。Reference:[1]QIONGH,WEIH,YANY,etal.RapeseedresearchandproductioninChina[J].TheCropJournal,2017,5(2):127-135.[2]劉成,馮中朝,肖唐華,等.我國油菜產(chǎn)業(yè)發(fā)展現(xiàn)狀、潛力及對策[J].中國油料作物學報,2019,41(4):485-489.[3]王晨宇,張亞民,吳伯彪,等.基于無人機遙感的農(nóng)作物自動分類研究[J].農(nóng)業(yè)與技術,2021,41(1):52-57.[4]尹凡,劉燕,董晶晶,等.基于冠層實測光譜的油菜品種識別[J].湖北農(nóng)業(yè)科學,2013,52(23):5866-5870.[5]袁培森,李潤隆,任守綱,等.表示學習技術研究進展及其在植物表型中應用分析[J].農(nóng)業(yè)機械學報,2020,51(6):1-14.[6]JIANGY,LIC.Convolutionalneuralnetworksforimage-basedhigh-throughputplantphenotyping:areview[J].PlantPhenomics,2020,2(1):1-22.[7]MASJEDIA,CARPENTERNR,CRAWFORDMM,etal.PredictionofsorghumbiomassusingUAVtimeseriesdataandrecurrentneuralnetworks[C].LongBeach,America:IEEE/CVF,2019.[8]MASJEDIA,ZHAOJ,ZHAOJ,etal.SorghumbiomasspredictionusingUAV-Basedremotesensingdataandcropmodelsimulation[C].Valencia,Spain:IEEE,2018.[9]KOHJCO,HAYDENM,DAETWYLERH,etal.EstimationofcropplantdensityatearlymixedgrowthstagesusingUAVimagery[J].PlantMethods,2019,15(1):1-9.[10]BAUERA,BOSTROMAG,BALLJ,etal.Combiningcomputervisionanddeeplearningtoenableultra-scaleaerialphenotypingandprecisionagriculture:acasestudyoflettuceproduction[J].HorticultureResearch,2019,6(1):1-12.[11]CANDIAGOS,REMONDINOF,GIGLIOMD,etal.Evaluating
multispectralimagesandvegetationindicesforprecisionfarmingapplicationsfromUAVimages[J].RemoteSensing,2015,7(4):4026-4047.[12]VERGERA,VIGNEAUN,CHRONC,etal.Greenareaindexfromanunmannedaerialsystemoverwheatandrapeseedcrops[J].RemoteSensingofEnvironment,2014,152:654-664.[13]張豐,熊楨,寇寧.高光譜遙感數(shù)據(jù)用于水稻精細分類研究[J].武漢理工大學學報,2002,24(10):36-39.[14]劉亮,姜小光,李顯彬,等.利用高光譜遙感數(shù)據(jù)進行農(nóng)作物分類方法研究[J].中國科學院研究生院學報,2006,23(4):484-488.[15]孫婷,田建平,胡新軍,等.基于高光譜成像技術的釀酒高粱品種分類[J].食品與發(fā)酵工業(yè),2021,47(5):186-192.[16]王林江,吳炳方,張淼,等.關鍵生育期冬小麥和油菜遙感分類方法[J].地球信息科學學報,2019,21(7):1121-1131.[17]COLOMINAI,MOLINAP.Unmannedaerialsystemsforphotogrammetryandremotesensing:areview[J].ISPRSJournalofPhotogrammetryandRemoteSensing,2014,92:79-97.[18]陳小幫,左亞堯,王銘鋒,等
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
- 4. 未經(jīng)權益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
- 6. 下載文件中如有侵權或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 關于一年級數(shù)學說課稿模板合集10篇
- 大學拔河比賽策劃書
- 經(jīng)理個人述職報告范文集錦9篇
- 2025年X射線管合作協(xié)議書
- 國旗下的講話期末復習制定一份合理的復習計劃參考講話
- 煤礦運輸應急預案
- 武漢汽車租賃合同
- 舞蹈教室場地租賃合同書
- 2024年銷售協(xié)議補充條款明細
- 2024授權代理合同
- 人教版(2024新版)八年級上冊物理期末必刷多項選擇題50題(含答案解析)
- PAS 2050:2011-商品和服務在生命周期內(nèi)的溫室氣體排放評價規(guī)范(中文)
- 手術分級目錄(2023年修訂)
- 理正深基坑之鋼板樁受力計算
- 國家開放大學電大??啤吨袊敶膶W》期末試題及答案
- 廣東話粵語姓名拼音大全
- 閘門及啟閉機安裝專項施工方案
- 應征公民體格檢查表(征兵)
- 鋼筋位置及保護層厚度檢測ppt課件
- 巖石堅固性和穩(wěn)定性分級表
- CNC程序控制管理辦法
評論
0/150
提交評論