含參數(shù)導(dǎo)數(shù)方法總結(jié)及行人識(shí)別技術(shù)的研究與實(shí)現(xiàn)_第1頁(yè)
含參數(shù)導(dǎo)數(shù)方法總結(jié)及行人識(shí)別技術(shù)的研究與實(shí)現(xiàn)_第2頁(yè)
含參數(shù)導(dǎo)數(shù)方法總結(jié)及行人識(shí)別技術(shù)的研究與實(shí)現(xiàn)_第3頁(yè)
含參數(shù)導(dǎo)數(shù)方法總結(jié)及行人識(shí)別技術(shù)的研究與實(shí)現(xiàn)_第4頁(yè)
含參數(shù)導(dǎo)數(shù)方法總結(jié)及行人識(shí)別技術(shù)的研究與實(shí)現(xiàn)_第5頁(yè)
已閱讀5頁(yè),還剩67頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

中文摘要錯(cuò)誤!未找到引用源。的連通區(qū)域作為下一步(寬高比過(guò)濾)的輸入。其中,low和high是面積的上界和下界,主要是根據(jù)實(shí)際情況設(shè)定。4.3.2寬高比對(duì)于寬高比,我們認(rèn)為1≤aspectRatio≤6的區(qū)域有可能是行人,其中aspectRatio=rect.height/rect.width。在這里還做了另外的處理,對(duì)于1≤aspectRatio≤2的情況,有可能是行人,但是可能分割不完全,因此,對(duì)該區(qū)域的高度方向做一個(gè)延伸。具體做法如下,(1)把得到的外接矩形對(duì)應(yīng)到原圖像中,并作后續(xù)處理;(2)取外接矩形中均勻分布的9個(gè)點(diǎn),求得它們的平均值mean和標(biāo)準(zhǔn)差delta;(3)在垂直方向上,如圖4-2所示,分別從外接矩形的上下兩條實(shí)線開始延伸,如果該點(diǎn)的像素值介于mean-delta和mean+delta之間,則繼續(xù)延伸,否則,停止。(4)得到垂直方向3條直線,并分別取向上最長(zhǎng)和向下最長(zhǎng)的點(diǎn),截取并得到新的外接矩形,如圖4-2所示。圖4.2高度再生成Fig.4.2Heightof對(duì)于高度再生成后的外接矩形,首先判斷它的寬高比是否符合2≤aspectRatio≤6,然后與無(wú)須高度再生成的外接矩形一樣,作為下一步(距離高度)的輸入。4.3.3距離高度距離高度是主要是基于行人距離攝像頭不同的距離,高度不同的事實(shí)。a)b)圖4.3距離高度Fig.4.3Rangeheight通過(guò)實(shí)驗(yàn),我們發(fā)現(xiàn),在該視頻中,行人的高度和他的腳部到圖像水平中線的垂直距離大約成正比關(guān)系,如圖4-3所示。因此,有如下公式,而對(duì)于圖像分割后的行人外接矩形,有其中,minRatio和maxRatio為上一步輸入的最小和最大寬高比。并且假設(shè)行人的外接矩形的寬度(rectWidth)保持不變,則在可接受的最壞的分割情況下,行人只被分割了上身部分,并且此時(shí)的寬高比為minRatio,如圖4-4所示,則此時(shí)的估計(jì)高度為其中,此時(shí)的外接矩形的下端距離圖像的水平中線的距離為L(zhǎng)1。而在事實(shí)上,假設(shè)該行人被完整的分割了,并且該行人具有最高的寬高比,如圖4.4所示,那么就有:以上兩式想減,得到同時(shí),還有由以上公式可以得到,圖4.4距離估計(jì)高度計(jì)算Fig.4.4Distanceestimationheightcalculation由公式(15),可以過(guò)濾掉外接矩形高度與攝像頭的距離不相符的情況。事實(shí)證明,這個(gè)估計(jì)可以過(guò)濾掉很多非行人的區(qū)域。從工程的角度來(lái)說(shuō),它是切實(shí)可行的。4.3.4特征點(diǎn)的均值和方差通過(guò)分析該視頻中的行人的特點(diǎn),我們發(fā)現(xiàn),行人區(qū)域的像素值的均值和方差穩(wěn)定在一定的范圍內(nèi),因此,如圖4-2所示,在外接矩形中取均勻的9個(gè)點(diǎn),計(jì)算均值mean和方差variation,通過(guò)實(shí)驗(yàn),發(fā)現(xiàn)這兩個(gè)值穩(wěn)定在一個(gè)范圍內(nèi),所以可以作為下一步判別的方法。即滿足如下條件的可能為行人??捎扇缦鹿奖硎?,由公式(16),可以過(guò)濾掉如車輛等具有局部亮度高特點(diǎn)的區(qū)域,而對(duì)于具有均勻分布像素特點(diǎn)的行人則可以保留下來(lái)。然而,該方法無(wú)法識(shí)別騎車的行人,這是由于該方法是基于像素均勻分布的假設(shè)的,因此,對(duì)于騎車的行人的特殊情況還是無(wú)法識(shí)別的。通過(guò)以上的候選區(qū)域過(guò)濾步驟后,剩下的區(qū)域就認(rèn)定為行人。然而,在實(shí)驗(yàn)中,我們發(fā)現(xiàn),對(duì)于有些幀上,雖然有行人,卻檢測(cè)不到。分析了原因,我們發(fā)現(xiàn),這主要是由于圖像分割不完全引起的,如圖3-4c)和d)所示。為了彌補(bǔ)分割算法的缺陷,加入了跟蹤的步驟。將在下一節(jié)具體介紹。4.4跟蹤如前所述,為了降低分割算法分割不完全而導(dǎo)致高漏檢率。在這里加入了跟蹤的步驟。(1)對(duì)于每一幀圖像,將該幀檢測(cè)到的行人區(qū)域(包括外接矩形(rect)和速度(speed))記錄到一個(gè)鏈表L中,作為下一幀的跟蹤步驟的輸入。(2)假設(shè)在第i幀圖像中,檢測(cè)到了第j個(gè)行人,則其外接矩形(recti,j)可以直接得到,然后對(duì)Li遍歷,如果找到某個(gè)外接矩形Lrecti,k,其中心與recti,j的中心的距離小于ε,則認(rèn)為這兩個(gè)矩形外接的是同一個(gè)人。將Lrecti,k其中,ε是一個(gè)較小的值。如果找不到這個(gè)外接矩形,則直接將該行人的外接矩形recti+1和設(shè)為0的speedi+1存入(3)如果此時(shí)Li中還有元素,則逐一判斷各個(gè)元素,如果該元素的速度不為0,則可以按照該速度移動(dòng)該外接矩形至該幀圖像的新的位置,并用前面所述的算法來(lái)判斷該區(qū)域是否為行人。如果該元素的速度為0,則對(duì)其中心旁邊設(shè)定的范圍內(nèi),按照固定的外接矩形大小,從各個(gè)方向進(jìn)行掃描,并對(duì)掃描的外接矩形應(yīng)用前面所述的算法來(lái)判斷該區(qū)域是否為行人。如果有行人,則記錄該外接矩形并停止,并且按照步驟(2)一樣,將外接矩形recti+1和速度speedi+1存入下一幀的L圖4.5外接矩形的掃描過(guò)程Fig.4.5Exteriorrectangleofthescanningprocess在實(shí)驗(yàn)中,通過(guò)增加了本節(jié)介紹的跟蹤步驟,在一定程度上提高了識(shí)別率,但是也加大了誤檢率。必須根據(jù)實(shí)際情況來(lái)進(jìn)行權(quán)衡。4.5提高效率的方法由于要處理的是紅外視頻,因此必須滿足實(shí)時(shí)性,即每幀的處理時(shí)間必須限定在一定的范圍內(nèi)。本小節(jié)將介紹針對(duì)該紅外視頻使用到的提高效率的方法。4.5.1原圖像縮小該紅外視頻的原圖像大小為720×576,而雙閾值分割算法的時(shí)間復(fù)雜度為Θ(M×N),其中,M和N為圖像的寬度和高度。采用最近鄰插值算法,將原圖像的長(zhǎng)度和寬度縮小為原來(lái)的一半。則后續(xù)的圖像分割和候選區(qū)域過(guò)濾以及跟蹤步驟的效率都能夠得到提高。最終減少每幀的計(jì)算時(shí)間。4.5.2設(shè)定感興趣的范圍觀察該視頻的圖像,我們發(fā)現(xiàn),行人可能出現(xiàn)的區(qū)域只在圖像的中下部分,上面以及兩側(cè)的一定范圍內(nèi)不可能出現(xiàn)行人,因此不必考慮。如圖4-3a)所示的圖像中的矩形框的區(qū)域內(nèi)。因此,只對(duì)該矩形框內(nèi)的區(qū)域進(jìn)行計(jì)算,可以很大程度的減少計(jì)算量,提高效率。如圖4-3a)所示的圖像中的較大的矩形框即為設(shè)定的感興趣區(qū)域。4.6實(shí)驗(yàn)結(jié)果與分析本方法主要是針對(duì)給出的紅外視頻的特定而設(shè)計(jì)的工程方法。通過(guò)實(shí)驗(yàn),在視頻的第100至第220幀,共121幀圖像中,共檢測(cè)出了14個(gè)幀中的行人,虛警9個(gè)。識(shí)別率為11.6%,準(zhǔn)確率為61%,虛警率為39%。由此可見(jiàn),該方法在一定程度上提高了識(shí)別率,同時(shí)也稍微地增加了虛警率。然而,該方法在該視頻的后續(xù)幀中仍能檢測(cè)出行人,相對(duì)于前面所述的HOG+SVM算法在后續(xù)幀很少(幾乎沒(méi)有)檢測(cè)出行人,也算是一個(gè)進(jìn)步。圖4.6給出了該方法的某些幀的檢測(cè)結(jié)果,其中,圖像中較大的矩形框是為了提高運(yùn)算效率,而設(shè)定的感興趣區(qū)域。在該算法的執(zhí)行效率上,作者在32位雙核2.2GHZ的處理器,2GB大小的內(nèi)存,操作系統(tǒng)為WindowsXP的機(jī)器上運(yùn)行該算法,從第100幀計(jì)算至第220幀圖像,一共花了7687毫秒(ms),平均每幀所用的時(shí)間為63.5毫秒(ms)。由此可見(jiàn),算法的執(zhí)行效率還是挺高的,可以滿足實(shí)時(shí)性的要求。對(duì)于該方法能夠比上章提到的方法具有更好的識(shí)別率,主要是由于該方法是一個(gè)工程的解決方法,理論性不強(qiáng),針對(duì)的是該視頻中行人的特征來(lái)設(shè)計(jì)算法,所以能夠取得較好的效果。然而,該方法在識(shí)別率上還不能滿足實(shí)際應(yīng)用的需求,并且具有主觀性,因此,必須改進(jìn)算法,不斷提高識(shí)別率,來(lái)達(dá)到實(shí)際應(yīng)用的需求。a)b)c)d)圖4.6工程方法某些幀的識(shí)別結(jié)果a)和b)為正確識(shí)別的幀圖像。c)和d)為錯(cuò)誤識(shí)別的幀圖像。Fig.4.6Engineeringmethodinsomeframerecognitionresultsa)andb)forthecorrectidentificationoftheimageframe.c)andd)totheerroridentificationframeimage.根據(jù)手動(dòng)下載的1200篇中文網(wǎng)頁(yè),按照旅游、體育、財(cái)經(jīng)、軍事、娛樂(lè)和教育6大類,進(jìn)行手工分類,采用上述通用的召回率和準(zhǔn)確率對(duì)系統(tǒng)性能進(jìn)行測(cè)試。從中任意選取1000篇網(wǎng)頁(yè)作為訓(xùn)練集,其它200篇網(wǎng)頁(yè)作為測(cè)試集。用上述的方法和數(shù)據(jù)進(jìn)行訓(xùn)練和測(cè)試,其實(shí)驗(yàn)結(jié)果如表4.1所示。表4.1實(shí)驗(yàn)結(jié)果Table5.1Experimentalresults類別行人1行人2行人3行人4行人5行人6訓(xùn)練樣本數(shù)19020021015018070測(cè)試樣本數(shù)403149303614準(zhǔn)確率95.3%96.8%97.2%96.3%90.8%92.5%識(shí)別率93.6%95.1%95.8%95.8%89.1%90.3%F94.4%95.9%96.5%96.0%89.9%91.4%從上述實(shí)驗(yàn)結(jié)果,可以計(jì)算出平均準(zhǔn)確率94.8%,平均召回率93.3%,平均F1值94.0%。通過(guò)實(shí)驗(yàn)可以看出,該SVM的中文網(wǎng)頁(yè)分類算法具有較好的分類效果。4.7本章小結(jié)本章主要介紹了利用工程方法來(lái)針對(duì)紅外視頻進(jìn)行行人識(shí)別,這當(dāng)中包括了圖像分割算法的選取,候選區(qū)域的過(guò)濾以及行人的跟蹤。對(duì)于圖像分割算法,和前面一樣,選用了雙閾值分割算法。候選區(qū)域通過(guò)了面積、寬高比、距離高度、特征點(diǎn)的均值和方差等特征來(lái)進(jìn)行過(guò)濾。跟蹤算法,通過(guò)對(duì)行人目標(biāo)的移動(dòng)序列進(jìn)行跟蹤,來(lái)預(yù)測(cè)行人在下一幀圖像中出現(xiàn)的位置,并進(jìn)行行人判斷檢測(cè),以此來(lái)彌補(bǔ)分割算法分割不完全的缺陷。之后,本章還提出了提高運(yùn)行算法效率的方法,并在最后給出了針對(duì)紅外視頻樣本集的實(shí)驗(yàn)結(jié)果,并與前面的HOG+SVM算法進(jìn)行了對(duì)比和總結(jié)。重慶大學(xué)碩士學(xué)位論文 5結(jié)論5結(jié)論行人識(shí)別是一個(gè)熱門又富有挑戰(zhàn)性的課題,本文針對(duì)該課題作了一些嘗試,取得了一定程度的成果,也獲益良多。接下來(lái),將概述本文的研究工作內(nèi)容、在研究過(guò)程中從中得到的一些啟示以及對(duì)未來(lái)工作的展望。5.1本文工作內(nèi)容總結(jié)行人識(shí)別技術(shù),特別是基于圖像序列的行人識(shí)別技術(shù),是本文研究工作的主要內(nèi)容。本文運(yùn)用了圖像處理、模式識(shí)別、工程化的方法來(lái)嘗試解決這個(gè)問(wèn)題。在研究的初期階段,主要把重心放在圖像分割算法的研究和選取上。選取了一個(gè)較好的圖像分割算法后,工作重心主要是在行人識(shí)別算法的研究上,作者分別采用了兩種方法來(lái)嘗試解決行人識(shí)別這個(gè)難題。包括比較理論的方法,HOG和SVM分類器相結(jié)合的方法。也包括比較偏工程化的方法,根據(jù)實(shí)際情況來(lái)解決這個(gè)問(wèn)題。不僅如此,由于研究的是紅外視頻,因此,必須考慮實(shí)時(shí)性的需求,必須提高算法的運(yùn)行效率。接下來(lái)將簡(jiǎn)單敘述下本文的研究?jī)?nèi)容。1)圖像分割算法的研究。通過(guò)比較單閾值分割算法、幀間差分法以及雙閾值分割算法這三種圖像分割算法的分割效果,選用適應(yīng)性最好,效果也不錯(cuò)的雙閾值分割算法作為本文研究使用的分割算法。2)特征和分類器的選取。選取能夠很好描述行人的特征HOG(梯度方向直方圖),由于該特征能很好的描述行人,因此采用比較簡(jiǎn)單的SVM(支持向量機(jī))分類器就可以了。3)工程方法的研究。在嘗試使用工程的方法去解決行人識(shí)別的這個(gè)問(wèn)題時(shí),做了一些嘗試,其中就包括對(duì)候選區(qū)域過(guò)濾的研究,也包括對(duì)跟蹤算法的研究,并取得一定的效果。5.2工作啟示在行人識(shí)別算法研究的過(guò)程中,作者閱讀了國(guó)內(nèi)外的論文研究成果,也做了一些嘗試,如第四章和第五章所述的兩個(gè)算法。分別從理論角度和工程的角度來(lái)進(jìn)行研究與實(shí)現(xiàn)。從中也得到一些啟示,1)根據(jù)實(shí)際情況來(lái)選擇合適的算法。比如說(shuō),對(duì)于圖像分割算法,差分法適用于圖像序列,而對(duì)于單幀圖像卻不適用。雙閾值分割算法,適用于行人的像素值高于背景的像素值的情況,對(duì)于行人和背景接近融合的情況,就不能很好的適應(yīng)了,必須重新選擇新的分割算法來(lái)進(jìn)行圖像分割。2)現(xiàn)存的理論可能解決不了的問(wèn)題可以通過(guò)工程化的方法來(lái)適當(dāng)?shù)亟鉀Q。5.3未來(lái)工作展望本文對(duì)行人識(shí)別算法的研究做了一些嘗試,也取得了一些成果。考慮到識(shí)別率還未能達(dá)到實(shí)際應(yīng)用的需求,因此,在未來(lái)的工作中,將以提高識(shí)別率,降低虛警率作為下一步研究的工作重點(diǎn)。主要從以下幾個(gè)方面出發(fā)考慮。1)圖像分割算法的選取。圖像分割算法分割的效果的好壞直接關(guān)系到后續(xù)處理操作的有效性。分割得好,對(duì)后續(xù)工作有很大的促進(jìn)作用,但是如果分割得不好,就會(huì)阻礙后續(xù)工作的進(jìn)展。俗話說(shuō)得好“一個(gè)好的開始就是成功的一半?!?,因此,未來(lái)的工作重點(diǎn)之一就是對(duì)圖像分割算法的研究。2)特征的選取。一個(gè)好的特征不僅能夠很好的表現(xiàn)行人,而且必須具備簡(jiǎn)單的特點(diǎn)。針對(duì)不同的圖像,特征的選取可能不同,所以,必須根據(jù)實(shí)際情況來(lái)選取特征。3)分類器的選取和訓(xùn)練。選取一個(gè)好的分類器也是很重要的。因此,接下來(lái)可以嘗試采用如AdaBoost、ANN(人工神經(jīng)網(wǎng)絡(luò))等分類器來(lái)進(jìn)行行人的分類識(shí)別??偟膩?lái)說(shuō),就是針對(duì)前面工作出現(xiàn)的問(wèn)題,進(jìn)一步來(lái)研究與解決,從而達(dá)到更進(jìn)一步的成果。重慶大學(xué)碩士學(xué)位論文 參考文獻(xiàn)參考文獻(xiàn)[1]郭烈,王榮本,顧柏園,余天洪.世界智能車輛行人檢測(cè)技術(shù)綜述.公路交通科技[J],2005,22(11):133-137.[2]H.NandaandL.Davis.Probabilistictemplatebasedpedestriandetectionininfraredvideos.Proc.IEEEIntell.VehiclesSymp[J],2002:15–20.[3]JianfeiDong,JunfengGe,YupinLuo.Nighttimepedestriandetectionwithnearinfraredusingcascadedclassifiers.Proc.IEEE[J],2007,6:185-188.[4]YajunFang,YajunFang,YoshikiNinomiya,BertholdK.P.Horn,andIchiroMasaki.AShape-IndependentMethodforPedestrianDetectionWithFar-InfraredImages.IEEETRANSACTIONSONVEHICULARTECHNOLOGY[J],2004,53:1679-1697.[5]A.Broggi,M.Bertozzi,A.Fascioli,andM.Sechi.Shape-basedpedestriandetection.Proc.IEEEIntell.VehiclesSymp.[J],2000,200–215.[6]M.Bertozzi,A.Broggi,A.Fascioli,A.Tibaldi,R.Chapuis,andF.Chausse.PedestrianlocalizationandtrackingsystemwithKalmanfiltering.Proc.IEEEIntell.VehiclesSymp.[J],2004,584–589.[7]Q.Tian,H.Sun,Y.Luo,andD.Hu.NighttimepedestriandetectionwithanormalcamerausingSVMclassifier.Proc.2nd.ISNN[J],2005,3497:189–194.[8]N.DalalandB.Triggs.Histogramsoforientedgradientsforhumandetection.Proc.IEEEConf.Comput.Vis.PatternRecog.[J],2005,886–893.[9]L.ZhaoandC.Thorpe.Stereo-andneuralnetwork-basedpedestriandetection.IEEETrans.Intell.Transp.Syst.[J],2000,1(3):148–154.[10]D.GavrilaandS.Munder.Multi-cuepedestriandetectionandtrackingfromamovingvehicle.Int.J.Comput.Vis.[J],2007,73(1):41–59.[11]P.Alonso,I.Llorca,D.Sotelo,Bergasa,L.deToro,Nuevo,Ocana,andGarrido.CombinationoffeatureextractionmethodsforSVMpedestriandetection.IEEETrans.Intell.Transp.Syst.[J],2007,8(2):292–307.[12]F.Xu,X.Liu,andK.Fujimura.Pedestriandetectionandtrackingwithnightvision.IEEETrans.Intell.Transp.Syst.[J],2005,6(1):63–71.[13]A.Shashua,Y.Gdalyahu,andG.Hayun.Pedestriandetectionfordrivingassistancesystems:Single-frameclassificationandsystemlevelperformance.Proc.IEEEIntell.VehiclesSymp.[J],2004,1–6.[14]X.Cao,H.Qiao,andJ.Keane.Alow-costpedestrian-detectionsystemwithasingleopticalcamera.IEEETrans.Intell.Transp.Syst.[J],2005,9(1):58–67.[15]JunfengGe,YupinLuo,andGyomeiTei.Real-TimePedestrianDetectionandTrackingatNighttimeforDriver-AssistanceSystems.IEEETrans.Intell.Transp.Syst.[J],2009,10:283-298.[16]艾海舟,呂風(fēng)軍,面向視覺(jué)監(jiān)視的交化檢測(cè)與分割[J],計(jì)算機(jī)工程與應(yīng)用,Vol.37(5),pp:75~77,2000[17]王亮,胡衛(wèi)明,譚鐵牛.人運(yùn)動(dòng)的視覺(jué)分析綜述[J],j計(jì)算機(jī)學(xué)報(bào),Vol.25(3),pp:1~16,2002[18]王亮,胡衛(wèi)明,譚鐵牛.基于步態(tài)的身份識(shí)別[J],計(jì)算機(jī)學(xué)報(bào),Vol.26(3),pp:354~360,2003[19]孫慶杰.靜態(tài)圖像中人體檢測(cè)技術(shù)研究[D],中國(guó)科學(xué)院博士學(xué)位論文,第17頁(yè),2004[20]賈慧星,章毓晉.車輛輔助駕駛系統(tǒng)中基予計(jì)算機(jī)視覺(jué)的行人檢測(cè)研究綜述,自動(dòng)化學(xué)報(bào),Vol.33(1),pp:84~90,2007[21]馬義德,朱望飛,安世霞.改進(jìn)的基于高斯混合模型的運(yùn)動(dòng)目標(biāo)檢測(cè)方法[J],計(jì)算機(jī)應(yīng)用,Vol.27(10),2007[22]&Adams,L.Bischof,Seededregiongrowing[J],IEEETransactionsonPatternAnalysisandMachineIntelligence.v01.16(6),pp:641-647,1994.[23]J.KAgarwal,Q.Cai,Humanmotionanalysis:areview[I],ComputerHsionandImageUnderstanding,V01.73(3),lap:428-440,1999.[24]S.AgarwalandD.Roth,Learningasparserepresentationforobjectdetection[C],EuropeanConferenceonComputerHsion,2002.[25]YAbramson,B.Steux,Hardware·friendlypedestriandetectionandimpactprediction[C],IEEEIntelligentVehiclesSymposium,Parma,[26]A.Andreone,EBellotti,A.D.Gloriactal,SVM-basedpedestrianrecognitiononnear-infraredimages[C],4thInternationalSymposiumonImageandSignalProcessingandAnalysis,Zagreb,pp:274~278,2005.[27] 魯明羽,沈抖,郭崇慧,陸玉昌.面向網(wǎng)頁(yè)分類的網(wǎng)頁(yè)摘要方法[J].電子學(xué)報(bào),2006,34(8):1475-1479[28] 劉衛(wèi)紅,方衛(wèi)東,董守斌,張凌.基于內(nèi)容與鏈接特征的中文垃圾網(wǎng)頁(yè)分類[J].微計(jì)算機(jī)信息.2010,26(3-3):5-8.[29] 張義忠,趙明生,梁久禎.基于自組織特征映射的網(wǎng)頁(yè)分類研究[J].信息與控制,2003,32(2):108-117[30] 李滔,王俊普,徐揚(yáng).一種基于粗糙集的網(wǎng)頁(yè)分類方法[J].小型微型計(jì)算機(jī)系統(tǒng),2005,24(3):520-522[31] McCallumA,NigamK.AComparisonofEventModelsforNaiveBayesTextClass

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論