豬動(dòng)物行為識(shí)別國(guó)內(nèi)外論文摘要與方法主要內(nèi)容整理版_第1頁(yè)
豬動(dòng)物行為識(shí)別國(guó)內(nèi)外論文摘要與方法主要內(nèi)容整理版_第2頁(yè)
豬動(dòng)物行為識(shí)別國(guó)內(nèi)外論文摘要與方法主要內(nèi)容整理版_第3頁(yè)
豬動(dòng)物行為識(shí)別國(guó)內(nèi)外論文摘要與方法主要內(nèi)容整理版_第4頁(yè)
豬動(dòng)物行為識(shí)別國(guó)內(nèi)外論文摘要與方法主要內(nèi)容整理版_第5頁(yè)
已閱讀5頁(yè),還剩16頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

(1)GaitAbnormalityDetectedofPigsBasedonMachineVision

【作者】WeiXingZhu*,JinJinZhou,YanWu【刊名】AppliedMechanicsandMaterials【出版日期】2014【卷號(hào)】Vol.614【頁(yè)碼】432-435【關(guān)鍵詞】\t"/views/specific/3004/_blank"ImageProcessing;\t"/views/specific/3004/_blank"LameWalk;\t"/views/specific/3004/_blank"Pig;\t"/views/specific/3004/_blank"StarSkeletonModel【摘要】Inordertodetectandidentifytheabnormalbehaviorofpigsandprovidereal-timewarning,thedetectionmethodofpig’sgaitabnormalitiesusingthegaitinformationandmachinevisiontechnologyisproposed.Firstofall,thesingleframeimagewasextractedfromtheobjectivevideos,whichwaspreprocessedtoobtaincontourofpigs.Secondly,thedistancecurveofcenter–edgepointofthecontourwasdrawn,hence,sevenkeycontourpoints,ears,nose,limbs,andtail,wereselectedfromthecurve.Sothestarskeletonmodelcouldbeestablishedaccordingtothekeycontourpointsofpigs.Thirdly,bytakingadvantageofthreekeycontourpointstogetaangle.Inthispaper,tochoosingear,centroidandtailofpigtostructureaangle,thedataaboutanglechangingofpigsbothlameandnormalwalkgaitsarecalculatedfromthemodelrespectively,whichcanbeusedtodetectlamewalk.Thispresentedstudyprovidesanewmethodforreal-timesurveillanceinanimalbehaviors.

為了檢測(cè)和識(shí)別豬的異常行為和提供實(shí)時(shí)警告,利用步態(tài)的信息和機(jī)器視覺(jué)技術(shù)提出了豬的步態(tài)異常的檢測(cè)方法。首先,從目標(biāo)視頻中提取單幀圖像作為預(yù)處理,以獲得豬輪廓提取。其次,繪制輪廓的中心邊緣點(diǎn)的距離的曲線,因此,7個(gè)關(guān)鍵鍵輪廓點(diǎn),耳,鼻,四肢和尾部,都是從曲線中選擇的。所以星型骨架模型可以根據(jù)豬的關(guān)鍵輪廓點(diǎn)確定。第三,通過(guò)采取三個(gè)關(guān)鍵輪廓分支的優(yōu)勢(shì)獲得角度。在本文中,選擇的耳朵,質(zhì)心和豬的尾巴來(lái)構(gòu)造一個(gè)角度,豬的跛和正常步行步態(tài)的角度變化數(shù)據(jù)都能分別從模型中計(jì)算出來(lái),它可用于檢測(cè)跛步行。這提供了研究實(shí)時(shí)監(jiān)視動(dòng)物行為的新方法。先對(duì)單幀圖像做預(yù)處理,將豬的輪廓提取出來(lái)計(jì)算輪廓中心點(diǎn),計(jì)算所有輪廓點(diǎn)與中心點(diǎn)的距離,畫(huà)出距離圖像平滑處理,降低噪聲影響。標(biāo)記7個(gè)關(guān)鍵點(diǎn)正常走的是一個(gè)連續(xù)的行為。然而,瘸子不是。5.選擇AOG三個(gè)點(diǎn)形成角度,通過(guò)角度觀察豬是否坡腳。結(jié)論:1)正常行走的角度鄰幀的最大差值為12度;然而不同的是,瘸子行走的最大差值為32度。2)在完整的行走過(guò)程中,正常走路的最大值和最小值的差是15度;然而,瘸子行走的最大值和最小值的差是35度。單只豬輪廓圖的側(cè)視圖識(shí)別

【作

者】

\t"/views/specific/3004/_blank"馬麗;\t"/views/specific/3004/_blank"紀(jì)濱;\t"/views/specific/3004/_blank"劉宏申;\t"/views/specific/3004/_blank"朱偉興;\t"/views/specific/3004/_blank"李偉;\t"/views/specific/3004/_blank"張濤【刊

名】

\t"/views/specific/3004/_blank"農(nóng)業(yè)工程學(xué)報(bào)【ISSN】10026819【出版日期】2013【期

號(hào)】第10期【基金項(xiàng)目】國(guó)家自然科學(xué)基金項(xiàng)目(31172243);安徽省教育廳高等學(xué)校自然科學(xué)項(xiàng)目(KJ2012Z032)【作者單位】安徽工業(yè)大學(xué)教師能力發(fā)展中心;安徽工業(yè)大學(xué)計(jì)算機(jī)學(xué)院;江蘇大學(xué)電氣信息工程學(xué)院【參考文獻(xiàn)格式】馬麗,紀(jì)濱,劉宏申,朱偉興,李偉,張濤.單只豬輪廓圖的側(cè)視圖識(shí)別[J].農(nóng)業(yè)工程學(xué)報(bào),2013,(第10期).【摘要】由于完整輪廓豬只的側(cè)視圖具有便于行為分析的價(jià)值,因此,研究從豬舍監(jiān)控視頻中自動(dòng)分割出單只豬理想側(cè)視圖的視頻段對(duì)豬的行為分析是有意義的。為了識(shí)別每幀圖像豬輪廓圖的側(cè)視圖屬性,該文通過(guò)圖像處理獲取豬只輪廓圖后,提出聯(lián)立豬只外接矩形高寬比和低頻傅里葉系數(shù)構(gòu)建豬只側(cè)視圖的特征向量,并根據(jù)樣本訓(xùn)練集得到理想側(cè)視圖和非理想側(cè)視圖特征向量均值和方差,利用馬氏距離判別法從測(cè)試視頻中識(shí)別未知幀圖像的類別,結(jié)果表明有91.7%豬只輪廓圖的側(cè)視圖屬性能正確識(shí)別,表明本方法是有效的。本研究可為后繼單只疑似病豬行為分析提供條件。多特征Camshift和Kalman濾波結(jié)合的豬只智能跟蹤

【作

者】

\t"/views/specific/3004/_blank"周勇鈞;\t"/views/specific/3004/_blank"俞守華;\t"/views/specific/3004/_blank"區(qū)晶瑩【刊

名】

\t"/views/specific/3004/_blank"廣東農(nóng)業(yè)科學(xué)【ISSN】1004874X【出版日期】2013【期

號(hào)】第9期【基金項(xiàng)目】廣東省科技計(jì)劃項(xiàng)目;廣東省大學(xué)生創(chuàng)新實(shí)驗(yàn)項(xiàng)目【作者單位】華南農(nóng)業(yè)大學(xué)信息學(xué)院;華南農(nóng)業(yè)大學(xué)公共管理學(xué)院【參考文獻(xiàn)格式】周勇鈞,俞守華,區(qū)晶瑩.多特征Camshift和Kalman濾波結(jié)合的豬只智能跟蹤[J].廣東農(nóng)業(yè)科學(xué),2013,(第9期).【摘要】為了實(shí)現(xiàn)豬只的智能跟蹤,提出了一種多特征Camshift和Kalman濾波結(jié)合的豬只跟蹤算法.首先采用最大類間方差法從背景中分割出豬只,從而統(tǒng)計(jì)出豬只的顏色特征和紋理特征;然后獲取當(dāng)前幀圖像的聯(lián)合特征概率分布圖,利用Camshift算法求得豬只的位置;最后使用Kalman濾波預(yù)測(cè)豬只下一幀位置,實(shí)現(xiàn)多豬只跟蹤.研究結(jié)果表明,豬只跟蹤算法具有較強(qiáng)的魯棒性,且更好滿足實(shí)時(shí)性的要求.研究結(jié)果可為豬只健康養(yǎng)殖提供技術(shù)上的支持.

Study

on

the

Detection

Method

of

Pigs

in

Piglet

PigstyBased

on

theCharacteristics

of

Pigs作者:\o"查找此作者的更多記錄"Yu,SH

(YuShouhua)[

1

]

;

\o"查找此作者的更多記錄"Chen,JH

(ChenJihong)[

1

]

;

\o"查找此作者的更多記錄"Ou,JY

(OuJingying)編者:\o"查找由此編者撰寫(xiě)的其他文獻(xiàn)記錄"Yuan,LMEMS,NANOANDSMARTSYSTEMS,PTS1-6叢書(shū):

AdvancedMaterialsResearch卷:

403-408頁(yè):

2271-2276DOI:

10.4028//AMR.403-408.2271出版年:

2012會(huì)議名稱會(huì)議:

7thInternationalConferenceonMEMS,NANOandSmartSystems(ICMENS2011)會(huì)議地點(diǎn):

KualaLumpur,MALAYSIA會(huì)議日期:

NOV04-06,2011會(huì)議贊助商:IntAssocCompSci&InformatTechnol;SingaporeInstElect摘要Pigdetectionplaysanimportantroleinintelligentmonitoringsystemofpigsty.Accordingtothefeaturesofpigletsactinginalargescopewithhighfrequency,animprovedGaussianmixturebackgroundmodelwasproposedfordetectingpiglets,whichimprovesprocessingspeedbyreducingthenumberofGaussianfunctions.Sincethesowisconfinedtothesowlimitationcrateanditsactivities'stateissimplewithinasmallrange,anskincolorlook-uptablemethodwhichwasbasedoncharacteristicsofskinwasproposedfordetectingthesow.TheexperimentalresultsdemonstratedthatthepigsdetectionmethodsincludinganimprovedmixtureGaussianbackgroundmodelandanskincolorlook-uptablemethodaresuperiortoframesubtractionmethod,mixtureGaussianbackgroundmodelmethodandopticalflowmethod.關(guān)鍵詞作者關(guān)鍵詞:\o"查找此作者關(guān)鍵詞的更多記錄"thedetectionmethodofpigs;

\o"查找此作者關(guān)鍵詞的更多記錄"Gaussianmixturebackgroundmodeling;

\o"查找此作者關(guān)鍵詞的更多記錄"skincolorlook-uptablemethod;

\o"查找此作者關(guān)鍵詞的更多記錄"pigletpigsty豬檢測(cè)在豬舍智能監(jiān)控系統(tǒng)中起著重要作用。根據(jù)仔豬在高頻率地大范圍活動(dòng)的特點(diǎn),提出了一種改進(jìn)的混合高斯背景模型來(lái)檢測(cè)仔豬,通過(guò)減少高斯函數(shù)的個(gè)數(shù)提高加工速度。由于豬是局限于母豬限箱及其活動(dòng)的狀態(tài)是簡(jiǎn)單的小范圍,提出了一個(gè)基于特征皮膚顏色查找表的方法用于檢測(cè)豬皮膚。實(shí)驗(yàn)結(jié)果表明,包括改進(jìn)的混合高斯背景模型和皮膚顏色查找表的方法的豬的檢測(cè)方法,優(yōu)于幀差法,混合高斯背景模型法和光流法。Imagefeatureextractionforclassificationofaggressiveinteractionsamongpigs

【作者】S.Viazzi;G.Ismayilova;M.Oczak;L.T.Sonoda;M.Fels;M.Guarino;E.Vranken;J.Hartung;C.Bahr;D.Berckmans【刊名】ComputersandElectronicsinAgriculture【影響因子】2013:1.486;2012:1.766;2011:1.846;2010:1.431;2009:1.312;【出版日期】2014【卷號(hào)】Vol.104【頁(yè)碼】57-62【作者單位】aDivisionofMeasure,Model&ManageBioresponses(M3-Biores),KULeuven,KasteelparkArenberg30,3001Leuven,BelgiumbDepartmentofVeterinaryandTechnologicalSciencesforFoodSafety,FacultyofVeterinaryMedicine,UniversitàdegliStudi,ViaCeloria10,20133Milan,ItalycUniversityofVeterinaryMedicineHannover,Foundation,InstituteforAnimalHygiene,AnimalWelfareandFarmAnimalBehaviour,Bünteweg17p,30559Hannover,Germany【關(guān)鍵詞】\t"/views/specific/3004/_blank"Pigbehaviour;\t"/views/specific/3004/_blank"Monitoringtool;\t"/views/specific/3004/_blank"Imageprocessing;\t"/views/specific/3004/_blank"Precisionlivestockfarming【摘要】Theaimofthisstudyistodevelopamethodforcontinuousautomateddetectionofaggressivebehaviouramongpigsbymeansofimageprocessing.Fiverepetitionsofthesameexperimentwereperformed.Ineachoftheexperiment,24pigletsweremixedafterweaningfromfourlittersintwopenswith12pigletseachandcapturedonvideoforatotalof60h.Fromthesevideorecordings,adatasetcontaining150episodeswithand150episodeswithoutaggressiveinteractionswasbuiltthroughmanuallabelling.TheMotionHistoryImagewasusedtogaininformationaboutthepigs’motionandtorelatethisinformationtoaggressiveinteractions.TwofeatureswereextractedfromthesegmentedregionoftheMotionHistoryImage:themeanintensityofmotionandtheoccupationindex.Basedonthesetwofeatures,theLinearDiscriminantAnalysiswasusedtoclassifyaggressiveinteractionsineveryepisode.Applyingleave-one-outcross-validation,theaccuracyofthesystemwas89.0%withasensitivityof88.7%andaspecificityof89.3%.Theseresultsshowthatitispossibletouseimageanalysisinordertoautomaticallydetectaggressivebehavioursamongpigs.

本研究的目的是通過(guò)圖像處理裝置制定豬之間攻擊性行為連續(xù)自動(dòng)檢測(cè)的方法。重復(fù)進(jìn)行了五次同樣的實(shí)驗(yàn)。在每一個(gè)實(shí)驗(yàn)中,四個(gè)窩里的24仔豬分成兩筆每筆12仔豬斷奶后混合并抓獲共60小時(shí)的錄像。這些錄像,含150事件與150沒(méi)有侵略性的事件相互作用的數(shù)據(jù)集,通過(guò)手工貼標(biāo)建成。該運(yùn)動(dòng)歷史圖像用來(lái)獲得有關(guān)豬的運(yùn)動(dòng)信息,并將該信息與交互侵略性聯(lián)系起來(lái)。從運(yùn)動(dòng)歷史圖像的分割區(qū)域分別提取兩個(gè)特征:運(yùn)動(dòng)的平均強(qiáng)度和占領(lǐng)指數(shù)?;谶@兩個(gè)特點(diǎn),利用線性判別分析在每個(gè)情節(jié)侵略性的相互作用中進(jìn)行分類。施加留一法交叉驗(yàn)證,該系統(tǒng)的準(zhǔn)確度為89.0%與靈敏度為88.7%和特異性為89.3%。這些結(jié)果表明,使用圖像分析以自動(dòng)檢測(cè)豬之間攻擊性行為是可行的。1.特征1:平均強(qiáng)度,標(biāo)量,該指定地區(qū)所有強(qiáng)度的平均值。此特征代表圖像中運(yùn)動(dòng)的強(qiáng)大和激烈程度。特征2,占用指數(shù),標(biāo)量,表示區(qū)域內(nèi)運(yùn)動(dòng)的分布量,這個(gè)分布量是由該區(qū)域內(nèi)不等于零的象素與在該區(qū)域內(nèi)總的像素的比率計(jì)算所得。此特征能夠得到運(yùn)動(dòng)的分布信息。2.運(yùn)動(dòng)歷史圖像更亮的部分對(duì)應(yīng)更近期的運(yùn)動(dòng)侵略性相互作用發(fā)生在至少兩個(gè)豬之間,一頭豬的平均像素為20,000像素,動(dòng)作分割區(qū)小于24,000像素的將被過(guò)濾掉并排除進(jìn)一步分析。4.散點(diǎn)圖描述了所提取的兩個(gè)特征之間的關(guān)系。這兩個(gè)特征是從MHI手動(dòng)選擇低,中,高組的侵略和沒(méi)有侵略的兩個(gè)類活動(dòng)。那條線是計(jì)算LDA邊界,代表兩個(gè)簇?cái)?shù)據(jù)之間的分割。Analysisofaggressivebehavioursofpigsbyautomaticvideorecordings

(和上一篇是同樣的作者)【作者】MaciejOczak;GunelIsmayilova;AnnamariaCosta;StefanoViazzi;LiliaThaysSonoda;MichaelaFels;ClaudiaBahr;J?rgHartung;MarcellaGuarino;DanielBerckmans;ErikVranken【刊名】ComputersandElectronicsinAgriculture【影響因子】2013:1.486;2012:1.766;2011:1.846;2010:1.431;2009:1.312;【出版日期】2013【卷號(hào)】Vol.99【頁(yè)碼】209-217【作者單位】aFancomResearch,Panningen,Industrieterrein34,5981NKPanningen,TheNetherlands;bM3-BIORES:Measure,Model,ManageBioresponses,KatholiekeUniversiteitLeuven,KasteelparkArenberg30,B-3001Leuven,Belgium;cDepartmentofHealth,AnimalscienceandFoodSafety,FacultyofVeterinaryMedicine,UniversitàdegliStudi,viaCeloria10,20133Milan,Italy;dUniversityofVeterinaryMedicineHannover,Foundation,InstituteforAnimalHygiene,AnimalWelfareandFarmAnimalBehaviour,Buenteweg17p,30559Hannover,Germany

【關(guān)鍵詞】\t"/views/specific/3004/_blank"Pigs;\t"/views/specific/3004/_blank"Aggression;\t"/views/specific/3004/_blank"Behaviour;\t"/views/specific/3004/_blank"Phases【摘要】Aggressionamongpigsintoday’sproductionsystemsresultsinnegativeimpactonhealthandwelfareofanimalsaswellasonproductivityofthesystems.PrecisionLivestockFarmingtechnologymightpotentiallyofferapossibilitytomonitorandreducethelevelofaggressionandhenceitsnegativeimpact.Thispaperreportsabouttheinitialpartofalargerstudyinvestigatingthepossibilitiesofapplyingcontinuousautomaticmonitoringofaggressivebehaviouramongpigs.Itinvestigateshowbehaviouralpatternsinpig’saggressivebehaviourcanbeidentifiedandutilizedinordertopredictsevereformsofaggression(biting)expressedinlaterphasesofaggressiveinteractions.Anexperimentwascarriedoutatacommercialfarmonagroupof11malepigsweighingonaverage23kgandkeptinapenof4m×2.5m.Duringthefirst3daysaftermixingintotal8hofvideorecordingwereregisteredwithatopviewcameraforlateranalysisofanimalbehaviour.Asaresultoflabellingofthevideorecordings,157aggressiveinteractionswereidentifiedwith12behaviourtypesexpressedfor860timeswithintheinteractions.Theidentifiedinteractionsweredividedintointeractionsthatledtobitingandthosethatdidnotleadtobitingbehaviour.Theinteractionsthatledtobitingbehaviouraccountedfor36.3%(57)ofallaggressiveinteractionswhileinteractionsthatdidnotleadtobitingbehaviourwere63.7%(100)oftheinteractions.Theaveragedurationofinitiating(nosing)phaseofaggressiveinteractions(3.32s)lastedlonger(P<0.05)ininteractionsthatledtobitingbehaviourthanininteractionsthatdidnotleadtobitingbehaviour(1.94s).Thenextphaseofaggressiveinteractions–mediumphase–similarlytoinitiatingphase,lastedonaveragelonger(18.21s)(P<0.01)ininteractionsthatledtobitingbehaviourthanininteractionsthatdidnotleadtobitingbehaviour(16.15s).Withthedifferencesfoundbetweeninteractionsthatledanddidnotleadtobitingbehaviouritseemstobepossibletodiscriminatebetweenbothtypesofinteractionsinanearlyphaseofaggression.Thedifferencesfoundmightserveasearlysignsinamanagementsupportsystemthataimstopreventsevereformsofaggressivebehaviour(biting)amongpigs.

在當(dāng)今的生產(chǎn)系統(tǒng)中豬之間的侵略行為導(dǎo)致動(dòng)物健康和繁殖方面的消極影響,在系統(tǒng)的生產(chǎn)率方面也有負(fù)面影響。精密畜牧業(yè)技術(shù)可能會(huì)潛在地提供了一種可能性,以監(jiān)測(cè)和減少侵略水平和所帶來(lái)的負(fù)面影響。本文報(bào)道了一個(gè)更大的應(yīng)用連續(xù)自動(dòng)監(jiān)測(cè)豬之間攻擊行為可能性的研究調(diào)查的開(kāi)始部分。它研究怎樣的豬之間攻擊行為的行為模式才能夠被識(shí)別并利用于預(yù)測(cè)以后階段的侵略性相互作用侵略(咬)的嚴(yán)重形式。實(shí)驗(yàn)中,一組商業(yè)農(nóng)場(chǎng)體重平均為23千克的11只雄性豬,并維持在每筆4米×2.5米的空間內(nèi)?;旌峡偣?小時(shí)的錄像后頭3天為以后動(dòng)物行為分析而注冊(cè)俯視攝像頭。錄像標(biāo)記的結(jié)果,157個(gè)侵略相互作用被交互內(nèi)860次的12個(gè)行為類型識(shí)別出來(lái)。所識(shí)別的相互作用分為導(dǎo)致咬和那些沒(méi)有導(dǎo)致咬的行為交互。導(dǎo)致咬行為的相互作用占所有侵略性相互作用的36.3%(57),而交互未導(dǎo)致咬行為的相互作用為63.7%(100)。導(dǎo)致咬行為的侵略性互動(dòng)的啟動(dòng)(收口)階段的平均持續(xù)時(shí)間(3.32S)比不會(huì)導(dǎo)致咬行為的相互作用時(shí)間(1.94S)長(zhǎng)(P<0.05)。侵略性互動(dòng)的下一階段-中階段-類似于啟動(dòng)階段,導(dǎo)致咬行為的相互作用比不會(huì)導(dǎo)致咬行為(16.15S)互動(dòng)的平均歷時(shí)更長(zhǎng)(18.21S)(P<0.01)。交互之間存在的差異是否會(huì)導(dǎo)致咬行為,這可以用來(lái)區(qū)分侵略早期階段兩種類型的相互作用。在管理支撐系統(tǒng)中,這種差異可以作為早期跡象,其目的是防止豬之間攻擊行為(咬)的嚴(yán)重形式。1.行為類別無(wú)法量化,所以沒(méi)有對(duì)行為類別分析,主要分析其中被量化為事件的頻率和持續(xù)時(shí)間。相互作用中行為的三個(gè)階段的劃分是基于時(shí)序發(fā)生的順序。實(shí)驗(yàn)樣本積極的互動(dòng),發(fā)起(突緣)階段,中期階段和高(咬)階段的持續(xù)時(shí)間的概述。5.通過(guò)統(tǒng)計(jì)分析,主要參考的分類指標(biāo)為持續(xù)時(shí)間的長(zhǎng)短。Automaticmonitoringofpiglocomotionusingimageanalysis

【作者】MohammadAminKashiha;ClaudiaBahr;SanneOtt;ChristelP.H.Moons;TheoA.Niewold;FrankTuyttens;DanielBerckmans【刊名】LivestockScience【影響因子】2013:1.100;2012:1.249;2011:1.506;2010:1.295;2009:1.410;【出版日期】2014【卷號(hào)】Vol.159【作者簡(jiǎn)介】Correspondingauthor.Tel.:+3216377066;fax:+3216321480.【頁(yè)碼】141-148【作者單位】aM3-BIORES–Measure,Model&ManageBioresponses,KULeuven,KasteelparkArenberg30,3001Leuven,Belgium;bGhentUniversity,DepartmentofAnimalNutrition,Genetics,ProductionandEthology,Heidestraat19,9820Merelbeke,Belgium;cDivisionofLivestock-Nutrition-Quality,DepartmentofBiosystems,KULeuven,KasteelparkArenberg30,3001Leuven,Belgium;dInstituteforAgriculturalandFisheriesResearch(ILVO,),AnimalSciencesUnit,Scheldeweg68,B-9090Melle,Belgium

【關(guān)鍵詞】\t"/views/specific/3004/_blank"Ellipsefitting;\t"/views/specific/3004/_blank"eYeNamic;\t"/views/specific/3004/_blank"Imageanalysis;\t"/views/specific/3004/_blank"Locomotion;\t"/views/specific/3004/_blank"Pig【摘要】Thepurposeofthisstudywastoinvestigatethefeasibilityandvalidityofanautomatedimageprocessingmethodtodetectthelocomotionofpigsinagrouphousedenvironmentandunderexperimentalconditions.Topviewvideoimageswerecapturedforfortypiglets,housedtenperpen.Onaverage,pigletshadaweightof27kg(SD=4.4kg)atthestartofexperimentsand40kg(SD=6.5)attheend.EachpenwasmonitoredbyatopviewCCDcamera.Theimageanalysisprotocoltoautomaticallyquantifylocomotioninvolvedlocalisingpigsthroughbackgroundsubtractionandtrackingthemoverasetperiodoftime.Tovalidatetheaccuracyofdetectingpigs“InLocomotion”or“NotInLocomotion”,theywerecomparedtoofflinemanuallylabelledbehaviouraldata(“InLocomotion”versus“NotInLocomotion”).Thisisthefirststudytoshowthatthelocomotionofpigsinagroupcanbedeterminedusingimageanalysiswithanaccuracyof89.8%.Sincelocomotionisknowntobeassociatedwithissuessuchaslameness,carefulmonitoringcangiveanaccurateindicationofthehealthandwelfareofpigs.

本研究的目的是調(diào)查的自動(dòng)圖像處理方法的可行性和有效性,用以檢測(cè)豬在豬房和實(shí)驗(yàn)環(huán)境下的運(yùn)動(dòng)。頂視圖的視頻圖抓獲40頭仔豬,每欄飼養(yǎng)10只。平均來(lái)說(shuō),在實(shí)驗(yàn)開(kāi)始時(shí)仔豬為27公斤(SD=4.4Hz千克)和在最后的重量為40公斤(標(biāo)準(zhǔn)差=6.5)。每筆由冠捷CCD攝像頭監(jiān)控。圖像分析協(xié)議可以自動(dòng)量化運(yùn)動(dòng)涉及通過(guò)背景減除局部化豬和在一段設(shè)定的時(shí)間內(nèi)跟蹤它們。他們被用來(lái)驗(yàn)證檢測(cè)豬“在運(yùn)動(dòng)”或“未在運(yùn)動(dòng)”的精確度與脫機(jī)手動(dòng)標(biāo)記的行為數(shù)據(jù)(“在運(yùn)動(dòng)”與“不運(yùn)動(dòng)”)相比較。這是第一次研究表明,一組豬的運(yùn)動(dòng)可以通過(guò)分析圖像以89.8%的準(zhǔn)確度來(lái)確定。因?yàn)檫\(yùn)動(dòng)很多與已知問(wèn)題如跛行相關(guān),仔細(xì)監(jiān)測(cè)可以給健康豬的繁殖的提供準(zhǔn)確指示。1.2.RandomForests

(隨機(jī)森林最先提出的論文)【作者】LEOBREIMAN【刊名】MachineLearning【影響因子】2013:1.689;2012:1.467;2011:1.587;2010:1.956;2009:1.663;2008:2.326;2007:1.742;【出版日期】2001【卷號(hào)】Vol.45【期號(hào)】NO.1【頁(yè)碼】5-32【作者單位】1.StatisticsDepartment,UniversityofCalifornia,Berkeley,CA,94720;

【關(guān)鍵詞】\t"/views/specific/3004/_blank"classification;\t"/views/specific/3004/_blank"regression;\t"/views/specific/3004/_blank"ensemble【摘要】Randomforestsareacombinationoftreepredictorssuchthateachtreedependsonthevaluesofarandomvectorsampledindependentlyandwiththesamedistributionforalltreesintheforest.Thegeneralizationerrorforforestsconverges%a.s.toalimitasthenumberoftreesintheforestbecomeslarge.Thegeneralizationerrorofaforestoftreeclassifiersdependsonthestrengthoftheindividualtreesintheforestandthecorrelationbetweenthem.

隨機(jī)森林是每棵依賴于隨機(jī)向量的獨(dú)立采樣值的樹(shù)預(yù)測(cè)與同樣分布在森林里的所有樹(shù)木相結(jié)合。森林普遍化的錯(cuò)誤收斂于%a.s.作為一個(gè)森林里樹(shù)木數(shù)量變大的極限。分類樹(shù)的森林的泛化誤差取決于森林個(gè)別樹(shù)木的實(shí)力以及它們之間的相關(guān)性。隨機(jī)森林是由若干決策樹(shù)通過(guò)一定方式組成。決策樹(shù)被認(rèn)為是一種有效的分類方法。為了接近完美的訓(xùn)練出決策樹(shù)模型,我們通常會(huì)加大樹(shù)的深度。然而這樣的方式會(huì)使得決策樹(shù)在訓(xùn)練樣本集上有接近完美的預(yù)測(cè),但是在預(yù)測(cè)樣本集中有著較差的效果,即決策樹(shù)過(guò)擬合。盡管后續(xù)提出了許多決策樹(shù)剪枝的方式,但是對(duì)于多類別區(qū)分,即使使用GART代替?zhèn)鹘y(tǒng)離散類別決策樹(shù),單棵樹(shù)還是略顯薄弱。隨機(jī)森林算法是LeoBreiman和AdeleCutler2001年共同提出的一種分類算法。該方法利用若干棵相互獨(dú)立的決策樹(shù)共同表決得到預(yù)測(cè)結(jié)果,回避單棵決策樹(shù)造成過(guò)擬合問(wèn)題。隨機(jī)森林利用Bagging模型,采用訓(xùn)練樣本集隨機(jī),特征集隨機(jī)的雙隨機(jī)方式構(gòu)造出若干顆獨(dú)立的樹(shù),組成森林。在樹(shù)的構(gòu)造過(guò)程中,從總的訓(xùn)練樣本空間中隨機(jī)抽取一部分為子集作為單棵樹(shù)的訓(xùn)練數(shù)據(jù),在訓(xùn)練樣本上保證了樹(shù)與樹(shù)之間的獨(dú)立性。對(duì)于每一個(gè)分裂節(jié)點(diǎn)(非葉子節(jié)點(diǎn)),都在總特征空間中隨機(jī)抽取特征子集作為每個(gè)節(jié)點(diǎn)的候選特征集,使得樹(shù)與樹(shù)的節(jié)點(diǎn)之間,以及每棵樹(shù)的各個(gè)節(jié)點(diǎn)之間的特征子集都不同,在特征集上保證了樹(shù)的獨(dú)立性。由于參與訓(xùn)練每棵樹(shù)的樣本集與特征集都不會(huì)完全覆蓋樣本空間及特征空間,每棵樹(shù)對(duì)訓(xùn)練樣本集的噪聲有很大的容忍性。隨機(jī)森林的精髓在于每棵樹(shù)之間的獨(dú)立。獨(dú)立的直觀反映是每棵樹(shù)的分工不同,每棵樹(shù)相當(dāng)于是對(duì)于某個(gè)或者某少部分領(lǐng)域的專家。預(yù)測(cè)過(guò)程中,是由各個(gè)專家綜合投票決定出預(yù)測(cè)樣本所屬的類別?;诰植枯喞碗S機(jī)森林的人體行為識(shí)別

【作

者】

\t"/views/specific/3004/_blank"蔡加欣;\t"/views/specific/3004/_blank"馮國(guó)燦;\t"/views/specific/3004/_blank"湯鑫;\t"/views/specific/3004/_blank"羅志宏【刊

名】

\t"/views/specific/3004/_blank"光學(xué)學(xué)報(bào)【ISSN】02532239【出版日期】2014【期

號(hào)】第10期【頁(yè)

碼】1015006【基金項(xiàng)目】國(guó)家自然科學(xué)基金(61272338)【作者單位】中山大學(xué)數(shù)學(xué)與計(jì)算科學(xué)學(xué)院;廣東省計(jì)算科學(xué)重點(diǎn)實(shí)驗(yàn)室;中山大學(xué)數(shù)學(xué)與計(jì)算科學(xué)學(xué)院;廣東省計(jì)算科學(xué)重點(diǎn)實(shí)驗(yàn)室;中山大學(xué)數(shù)學(xué)與計(jì)算科學(xué)學(xué)院;廣東省計(jì)算科學(xué)重點(diǎn)實(shí)驗(yàn)室;中山大學(xué)信息科學(xué)與技術(shù)科學(xué)學(xué)院【參考文獻(xiàn)格式】蔡加欣,馮國(guó)燦,湯鑫,羅志宏.基于局部輪廓和隨機(jī)森林的人體行為識(shí)別[J].光學(xué)學(xué)報(bào),2014,(第10期).【摘要】基于視頻信息的人體行為識(shí)別得到了越來(lái)越多的關(guān)注。針對(duì)人體行為的局部表達(dá),提出了一種新的局部輪廓特征來(lái)描述人體的外觀姿勢(shì),可以同時(shí)利用水平和豎直方向上的輪廓變化信息。該特征能有效區(qū)分不同動(dòng)作,與輪廓起始點(diǎn)無(wú)關(guān),具有平移、尺度和旋轉(zhuǎn)不變性。針對(duì)該特征,提出了一種基于隨機(jī)森林的兩階段分類方法,使用隨機(jī)森林分類器對(duì)行為視頻的局部輪廓進(jìn)行初分類,并根據(jù)每個(gè)局部輪廓對(duì)應(yīng)決策類的分類樹(shù)數(shù)目占總分類樹(shù)數(shù)目的比例,提出了一種基于袋外(OOB)數(shù)據(jù)誤差加權(quán)投票準(zhǔn)則的行為視頻分類算法。在測(cè)試數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果證實(shí)了該方法的有效性。

特征輪廓提取基于隨機(jī)森林的兩階段識(shí)別算法測(cè)試集則是測(cè)試視頻包含的幀。每一幀的輸出類別取為隨機(jī)森林中決策樹(shù)輸出類別的眾數(shù)。(1)對(duì)訓(xùn)練圖像集,用采樣生成N個(gè)子樣本集。(2)對(duì)每個(gè)子訓(xùn)練集,隨機(jī)選擇m個(gè)屬性作為節(jié)點(diǎn)分裂的候選屬性。(3)計(jì)算每個(gè)子樣本集在每個(gè)候選節(jié)點(diǎn)上的Gini指數(shù)。(4)在每個(gè)子樣本集上生成一個(gè)決策樹(shù)。(5)訓(xùn)練完所有決策樹(shù)后,使用決策樹(shù)對(duì)未被采樣的袋外訓(xùn)練樣本進(jìn)行分類。將得到的分類結(jié)果與袋外訓(xùn)練樣本的類別相比較,計(jì)算誤差。(6)對(duì)測(cè)試視頻的每一圖像幀用已生成的決策樹(shù)分類,得到每個(gè)決策樹(shù)對(duì)每一幀的分類結(jié)果。使用隨機(jī)森林中決策樹(shù)輸出類別的眾數(shù)作為每一幀的輸出類別。兩種投票策略在得到所有幀的類別后,每個(gè)行為視頻的類別就可以由之前隨機(jī)森林算法所得到的幀分類結(jié)果來(lái)投票決定。(1)RF-0在這種投票方案中,視頻的分類結(jié)果由每一幀的分類結(jié)果投票決定,最終的決策結(jié)果是所有幀歸屬類別的眾數(shù)。(2)RF-1使用袋外數(shù)據(jù)誤差加權(quán)投票,分類結(jié)果由視頻中所有幀對(duì)應(yīng)于每一類的決策樹(shù)數(shù)目及決策樹(shù)的袋外數(shù)據(jù)誤差決定。袋外數(shù)據(jù)誤差的作用是用來(lái)衡量各決策樹(shù)分類結(jié)果的信度??梢詫?duì)每顆決策樹(shù)設(shè)置不同的權(quán)重,使得袋外誤差小的決策樹(shù)具有較大的權(quán)重,從而使得在投票時(shí)分類置信度越大的決策樹(shù)對(duì)投票結(jié)果具有越大的影響。通過(guò)袋外誤差進(jìn)行加權(quán)投票,能使分類器具有更好的對(duì)抗噪聲的能力。結(jié)論將本文的方法與本文多篇參考文獻(xiàn)中用到的方法進(jìn)行比較,從分類結(jié)果的混淆矩陣,數(shù)據(jù)庫(kù)識(shí)別率,平均計(jì)算耗時(shí)等多個(gè)方面的數(shù)據(jù),表明本文的方法具有有效性和優(yōu)越性?;诟倪M(jìn)的隨機(jī)森林的人體部件識(shí)別

【作

者】

\t"/views/specific/3004/_blank"郭天楚;\t"/views/specific/3004/_blank"吳曉雨;\t"/views/specific/3004/_blank"楊磊;\t"/views/specific/3004/_blank"黃向生【刊

名】

\t"/views/specific/3004/_blank"中國(guó)傳媒大學(xué)學(xué)報(bào)(自然科學(xué)版)【ISSN】16734793【出版日期】2014【期

號(hào)】第5期【頁(yè)

碼】32-38【基金項(xiàng)目】國(guó)家自然科學(xué)基金:基于超多視角成像的三維重建關(guān)鍵技術(shù)研究(項(xiàng)目編號(hào):61175034);大范圍室內(nèi)增強(qiáng)現(xiàn)實(shí)系統(tǒng)的混合跟蹤定位關(guān)鍵技術(shù)研究(項(xiàng)目編號(hào):61103154)【作者單位】中國(guó)傳媒大學(xué)信息工程學(xué)院;中國(guó)科學(xué)院自動(dòng)化研究所【參考文獻(xiàn)格式】郭天楚,吳曉雨,楊磊,黃向生.基于改進(jìn)的隨機(jī)森林的人體部件識(shí)別[J].中國(guó)傳媒大學(xué)學(xué)報(bào)(自然科學(xué)版),2014,(第5期).【摘要】姿態(tài)估計(jì)是自然人機(jī)交互最為重要的環(huán)節(jié),人體部件識(shí)別是姿態(tài)估計(jì)的重要步驟。本文介紹了一種基于特征預(yù)篩選的改進(jìn)的隨機(jī)森林的方法來(lái)識(shí)別人體各個(gè)部件。與傳統(tǒng)的隨機(jī)森林構(gòu)造不同,在該方法中,對(duì)于特征空間十分龐大的實(shí)例給出了特征預(yù)篩選方法,使得每個(gè)分裂節(jié)點(diǎn)的特征子集更為高效。該方法既保證了樹(shù)與樹(shù)之間的獨(dú)立,又保證了每棵樹(shù)的分類性能。在樹(shù)與樹(shù)之間的組合中,根據(jù)人體部件構(gòu)造,引入了和分層樹(shù)的組合模型方式,提高了差異較小類的分類性能,進(jìn)而提高了森林的準(zhǔn)確性。1.根據(jù)隨機(jī)森林特征的選取方式,我們隨機(jī)選取特定數(shù)目的特征,組成特征子集,再?gòu)奶卣髯蛹羞x取最有效的特征作為樹(shù)節(jié)點(diǎn)的分裂特征?;贐in方差的篩選隨著樣本空間的增大,特征響應(yīng)趨于多樣化,無(wú)效特征率會(huì)降低。當(dāng)樹(shù)節(jié)點(diǎn)越遠(yuǎn)離根節(jié)點(diǎn)時(shí),節(jié)點(diǎn)包含類別越少,越趨于一致化,該方法可以篩選掉更多的無(wú)效特征。定義節(jié)點(diǎn)分裂準(zhǔn)則,森林分層,將人體上半身和下半身分開(kāi)來(lái)分類。誤差計(jì)算。Multi-viewactionrecognitionusinglocalsimilarityrandomforestsandsensorfusion

【作者】FanZhu;LingShao;MingxiuLin【刊名】PatternRecognitionLetters【影響因子】2013:1.062;2012:1.266;2011:1.034;2010:1.213;2009:1.303;2008:1.559;2007:0.853;【出版日期】2013【卷號(hào)】Vol.34【期號(hào)】No.1【頁(yè)碼】20-24【作者單位】aDepartmentofElectronicandElectricalEngineering,TheUniversityofSheffield,UK;bCollegeofInformationScienceandEngineering,NortheasternUniversity,China

【關(guān)鍵詞】\t"/views/specific/3004/_blank"Localsimilarity;\t"/views/specific/3004/_blank"Randomforests;\t"/views/specific/3004/_blank"Sensorfusion;\t"/views/specific/3004/_blank"Votingstrategy;\t"/views/specific/3004/_blank"IXMAS;\t"/views/specific/3004/_blank"Actionrecognition【摘要】Thispaperaddressesthemulti-viewactionrecognitionproblemwithalocalsegmentsimilarityvotingscheme,uponwhichwebuildanovelmulti-sensorfusionmethod.Therecentlyproposedrandomforestsclassifierisusedtomapthelocalsegmentfeaturestotheircorrespondingpredictionhistograms.WecomparetheresultsofourapproachwiththoseofthebaselineBag-of-Words(BoW)andtheNa?ve–BayesNearestNeighbor(NBNN)methodsonthemulti-viewIXMASdataset.Additionally,comparisonsbetweenourmulti-camerafusionstrategyandthenormallyusedearlyfeatureconcatenatingstrategyarealsocarriedoutusingdifferentcameraviewsanddifferentsegmentscales.Itisproventhattheproposedsensorfusiontechnique,coupledwiththerandomforestsclassifier,iseffectiveformultipleviewhumanactionrecognition.本文中我們建立了一種新的多傳感器融合方法,討論了一個(gè)局部緩解的相似投票方案的多視圖動(dòng)作識(shí)別問(wèn)題。最近提出的隨機(jī)森林分類器用于描繪局部環(huán)節(jié)特征及其相應(yīng)的預(yù)測(cè)圖。在多視點(diǎn)IXMAS數(shù)據(jù)集中,使用不同的相機(jī)視圖和不同分割尺度用我們的方法所得的結(jié)果與基于詞袋(BOW)【這個(gè)方法下面的2篇文章有用到】和Na?VE–Bayes的最近鄰(NBNN)方法作出了比較。此外,使用不同的相機(jī)視圖和不同分割尺度,我們的多攝像機(jī)融合策略和早期利用特征級(jí)聯(lián)策略也進(jìn)行了比較。實(shí)踐證明,該傳感器融合技術(shù),結(jié)合隨機(jī)森林分類器,對(duì)多視角的人體動(dòng)作識(shí)別有效。Abagofwordsapproachtosubjectspecific3Dhumanposeinteractionclassificationwithrandomdecisionforests

【作者】JingjingDeng;XianghuaXie;BenDaubney【刊名】GraphicalModels【影響因子】2013:0.967;2012:0.697;2011:1.000;2010:0.828;2009:0.926;【出版日期】2014【卷號(hào)】Vol.76【期號(hào)】No.3【頁(yè)碼】162-171【作者單位】DepartmentofComputerScience,SwanseaUniversity,Swansea,UK

【關(guān)鍵詞】\t"/views/specific/3004/

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論