概率圖模型介紹與計算_第1頁
概率圖模型介紹與計算_第2頁
概率圖模型介紹與計算_第3頁
概率圖模型介紹與計算_第4頁
概率圖模型介紹與計算_第5頁
已閱讀5頁,還剩12頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認(rèn)領(lǐng)

文檔簡介

1、概率圖模型介紹與計算01簡單介紹概率圖模型是圖論和概率論結(jié)合的產(chǎn)物,它的開創(chuàng)者是鼎鼎大名的JudeaPearl,我十分喜歡概率圖模型這個工具,它是一個很有力的多變量而且變量關(guān)系可視化的建模工具,主要包括兩個大方向:無向圖模型和有向圖模型。無向圖模型又稱馬氏網(wǎng)絡(luò),它的應(yīng)用很多,有典型的基于馬爾科夫隨機場的圖像處理,圖像分割,立體匹配等,也有和機器學(xué)習(xí)結(jié)合求取模型參數(shù)的結(jié)構(gòu)化學(xué)習(xí)方法。嚴(yán)格的說他們都是在求后驗概率:p(y|x),即給定數(shù)據(jù)判定每種標(biāo)簽y的概率,最后選取最大的后驗概率最大的標(biāo)簽作為預(yù)測結(jié)果。這個過程也稱概率推理(probabilisticinference)。而有向圖的應(yīng)用也很廣,有

2、向圖又稱貝葉斯網(wǎng)絡(luò)(bayesnetworks),說到貝葉斯就足以可以預(yù)見這個模型的應(yīng)用范圍咯,比如醫(yī)療診斷,絕大多數(shù)的機器學(xué)習(xí)等。但是它也有一些爭議的地方,說到這就回到貝葉斯派和頻率派幾百年的爭議這個大話題上去了,因為貝葉斯派假設(shè)了一些先驗概率,而頻率派認(rèn)為這個先驗有點主觀,頻率派認(rèn)為模型的參數(shù)是客觀存在的,假設(shè)先驗分布就有點武斷,用貝葉斯模型預(yù)測的結(jié)果就有點水分”,不適用于比較嚴(yán)格的領(lǐng)域,比如精密制造,法律行業(yè)等。好吧,如果不遵循貝葉斯觀點,前面講的所有機器學(xué)習(xí)模型都可以dismiss咯,我們就通過大量數(shù)據(jù)統(tǒng)計先驗來彌補這點缺陷中巴。無向圖和有向圖的例子如(圖一)所示:圖一(a)無向圖(隱

3、馬爾科夫)(b)有向圖概率圖模型吸取了圖論和概率二者的長處,圖論在許多計算領(lǐng)域中扮演著重要角色,比如組合優(yōu)化,統(tǒng)計物理,經(jīng)濟等。圖的每個節(jié)點都可看成一個變量,每個變量有N個狀態(tài)(取值范圍),節(jié)點之間的邊表示變量之間的關(guān)系,它除了可以作為構(gòu)建模型的語言外,圖還可以評價模型的復(fù)雜度和可行性,一個算法的運行時間或者錯誤界限的數(shù)量級可以用圖的結(jié)構(gòu)性質(zhì)來分析,這句話說的范圍很廣,其實工程領(lǐng)域的很多問題都可以用圖來表示,最終轉(zhuǎn)換成一個搜索或者查找問題,目標(biāo)就是快速的定位到目標(biāo),試問還有什么問題不是搜索問題?樹是圖,旅行商問題是基于圖,染色問題更是基于圖,他們具有不同的圖的結(jié)構(gòu)性質(zhì)。對于樹的時間復(fù)雜度我們是

4、可以估算出來的,而概率圖模型的一開始的推理求解方法也是利用圖的結(jié)構(gòu)性質(zhì),把復(fù)雜圖轉(zhuǎn)換成樹(容易處理的圖)的形式來求解,這個算法被稱為聯(lián)合樹算法(junctiontreealgorithm)。聯(lián)合樹算法簡單的說就是利用圖的條件獨立性質(zhì)把圖分解,然后以樹的形式組織,最后利用樹的良好操作性進行推理求解(消息傳遞),聯(lián)合樹算法是后續(xù)章節(jié)的重要的推理算法之一。但并不是所有的圖都能拆分成樹的形式,一般只有合適的稀疏邊的圖才能轉(zhuǎn)成樹,因此聯(lián)合樹算法也有一定的限制。不能構(gòu)建聯(lián)合樹,那怎么推理求解?好在還有其他幾種方法,概率圖模型的第二個成分:概率,既然進入了概率空間,那基于蒙特卡洛(MCMC)的采樣方法也就可

5、以使用了,反正就是求最大后驗概率,MCMC的求解方法也是經(jīng)常利用的工具,還有一些基于均值場(meanfield)以及變分方法(variationalmethod)的求解工具。這幾個求解方法的算法復(fù)雜度比較如(圖二)所示:七二L三二二*£c_rJc>'L=lmh(圖二)推理求解算法性能比較(圖二)中的幾種求解方法也都是概率圖模型或者統(tǒng)計機器學(xué)習(xí)里經(jīng)常使用的方法,MCMC方法和變分方法都起源于統(tǒng)計物理,最近很火的深度學(xué)習(xí)也算是概率圖模型的一個應(yīng)用,盡管你要反對,我也要把它劃到概率圖模型下AA,RBM,CRBM,DBM都是很特殊的概率圖模型,整個思路從建模到求解方法都是圍繞著

6、求取圖模型節(jié)點的最大后驗概率來開展的。MCMC求解方法就不說了,深度學(xué)習(xí)里已經(jīng)用的很多咯,而變分方法(variationalmethod)很有吸引力,andrewng的師傅MichaelJordan認(rèn)為把變分方法用在統(tǒng)計機器學(xué)習(xí)中的有希望的方法是把凸分析和極家族分布函數(shù)鏈接起來,既然有凸分析,那么就會伴隨著凸松弛(convexrelaxtion),因為數(shù)據(jù)是離散的,具體可以看前面的關(guān)于凸松弛的博文介紹。另外還有一些圖模型特有的求解方法,比如beliefpropagation(sum-productalgorithm)n或者expectationpropagation等求解方法。上面算是對概率圖

7、模型做了個簡單的介紹,接下的來的博文就是按照下面的提綱來記錄一下學(xué)習(xí)筆記,在盡量不違背honorcode的情況下,用原來Daphnekoller教授的作業(yè)來做輔助介紹。一、介紹圖模型定義二、利用基于變分方法的極家族和凸分析來求邊緣概率三、逼近求解方法,如belief-propagation、expectation-propagation等四、均值場求解方法等各種優(yōu)化求解方法五、結(jié)構(gòu)化學(xué)習(xí)02概率圖模型定義翻開Jordan和Wainwright著作的書,正文開始(第二章)就說概率圖模型的核心就是:分解(factorization)。的確是這樣的,對于復(fù)雜的概率圖模型,要在復(fù)雜交織的變量中求取某個

8、變量的邊緣概率,常規(guī)的做法就是套用貝葉斯公式,積分掉其他不相干的變量,假設(shè)每個變量的取值狀態(tài)為N,如果有M個變量,那么一個圖模型的配置空間就有WM,指數(shù)增長的哦,就這個配置空間已經(jīng)讓我們吃不消了,不可以在多項式時間內(nèi)計算完成,求邊緣概率就沒辦法開展下去了。此時分解就派上用場咯,我們想法找到一些條件獨立,使得整個概率圖模型分解成一個個的團塊,然后求取團塊的概率,這樣就可以把大區(qū)域的指數(shù)增長降為小區(qū)域的指數(shù)增長。畢竟100A20這樣的計算量比25*(4A20)的計算量大多咯。好了,不說這么抽象了,下面進入正題:先寄看看,碇,義,T圖由泵呆4a由曰且毛;G=(VE',12mbE-NM育同邊用

9、5T演示.天同邊用:/西看f5t旅幣.F個順卓蜜¥TT免利裝*X*,譙菊用齒置跖雷僖時營間用芯="'-1生麥?zhǔn)?主舅應(yīng)他收雜宦間的除麗ai喳量的標(biāo)識撇伏,捧者再生中n個交處成的同量.“'°(Xp,注GA).雇n個劃BW舍r那金這阿的曬d狀棗Bt是用有且含變,V,的取他就定T場千位粗,用J&E/g*東示。到7遺型悔說,Pt可以日場阿期用量松無何國要?。ㄒ唬┦菐讉€有周圖嗯型二(U)(b)MFig.2,1(a)AFimph?dirrrt閑graphirnlniodolwithfourvnriablps(.Vi-T?,43X4).Vertices(

10、1,2.3urcallparentsoFvortox-1,uritten*r(I)=1.2.3.(h)Anwroeomplicatwldirectodacyclicgraph(DEC;)Jefim4partirdurd-orotLitwrtices.Noterliatvertexfit>achildofv<rti?x2.andvertex1inanmict-stur“心-(c)Alarbichictitlirvrlcdrapii(nottacyflit')tJiTtiikchiiLstherlirrtcrficyH,Rt-1tt用一(圖一)It國一)中可瓶T(t)軸F別因為

11、m是有甲肝圖2作蛇。利出gapn-OAG).也較於潦育物皿地!同仁疆耐的,(-的TF顰分也信出了1MI.衽音和圖中富點腳酰就是精訝®啦超忸王嗡門的如后坪ifi中(丹h心-"上聞,題*曲觸.那網(wǎng)"®表的點由相總讓1工/丁巾力表示打交.(了2小”的3的并且這伯陶再是/“、U'Q)川小=1時,邪言背阿陰槽里的概率分布可以分第斕公我一蚪骷式:研丁k£2一工用)=n%(,工工朽)«ev也式T1公式一眥幽瞅粉底ik*的.P"”I"*1.)與血是個橐削跖J如果你不向皿曜,風(fēng)知”苜問的黑螭公式一1分醒瞄了.后也需給廿i現(xiàn)的

12、好密.F面看*無嗓炳分整,無向酈0(四二)所示:U)(b)F;£.2-2Hltist.j-JiticHigdphisaj”1<江肉|andfa<-1.>r昌乜口卜(注An1打打£不共十位月itphcmrrr=7wrticrf,withrruixiiialrliciir1*:-1hI).(4T51liariri|K,71-,(b)卜71同丫iilviitr<proriiNkli«hii(>fihi-undircy士武grtiphin(羯)nsafactorrnph,MBumingthatwx>deFiiteuriiputibiJi

13、t5Jfunctionsonlyotttketnutimalcliquesin(a).TheE&ctorraphkabipinilc昌小pliwithvertexsetV-1,.7andfactorsetF/人d/one(breachofdiecanipatibilityfuiictionioftheoriginalimdircct<xJraph.(圖二)無向圖模型又稱馬爾科夫隨機場(markovrandomfiled)無向圖模型的分解就是通過團塊(clique)來完成,所謂團塊就是全連接的最大子圖,如(圖二)所示,(a)圖的1,2,3,4,4,5,6,6,7都是全連接的最大子圖

14、,假設(shè)團塊用C表示,為每個團塊分配一個兼容函數(shù)(compatibilityfunction)C:(現(xiàn)WC工)T展+,它的作用就是把團塊取值狀態(tài)映射到正實值空間,說白了就是給這個團塊一個度量,可以是概率,也可以是取值狀態(tài)和真實標(biāo)簽之間的差值平方和,根據(jù)應(yīng)用而定,這個兼容函數(shù)有時又被稱為勢函數(shù)(potentialfunction),有了兼容函數(shù),無向圖模型就可以通過(公式二)分解:(公式二)(公式二)中的Z是歸一化的常量,學(xué)名叫配分函數(shù)(partitionfunction),一歸一化就成概率了,不歸一化不滿足概率和為1的性質(zhì)。為了能在圖模型中直觀的看到團塊,可以用因子圖(factorgraph)來

15、表示無向圖模型,如(圖二)(b)所示,和黑塊連接的頂點表示全部互相連接(全連接),一個黑塊部分表示一個團塊,所以上面分解又多了一個名字:因子分解(factorization)0上面說了很多枯燥的定義,目標(biāo)只有一個,引出兩種圖模型的分解公式:(公式一)和(公式二),那為什么可以分解成那個樣子?現(xiàn)在通過兩個小例子說明對于有向圖模型,如(圖三)所示模型,一個人的聰明程度(Intelligence)可以影響他的年級(Grade:癡呆的讀高年級的概率低,聰明的一般走的比較遠),而且對他的成績(SAT)也有高低影響。當(dāng)我們知道一個人的聰明度后,年級和成績還有關(guān)系嗎?二本就根本沒有關(guān)系,在這里不要想多,其實

16、很簡單,給定一個物體后,那么這個物體上的兩個屬性值就決定了,已經(jīng)存在的事實,所以二者是獨立的。樸素貝葉斯就是根據(jù)這個條件獨立做的分解。另外注意一下,這里給定的是父親節(jié)點,(公式一)中也強調(diào)了這點,如果不給父親節(jié)點,條件獨立就變的稍微復(fù)雜一些,如(圖四)中有一個比(圖三)稍微復(fù)雜一些的有向圖模型:在(圖四)中Difficulty表示試卷難度,Intelligence表示考生聰明度,如果什么都不給,這二者是獨立的,因為試卷難度和考生沒有關(guān)系,所謂的高考很難,但是這跟我有什么關(guān)系?我又不參加高考八人,但是如果一旦給定空考生的年級(grade),情況就變得不一樣了,比如考生考到了博士,如果他不聰明,那

17、說明啥?說明卷子不難,水的很,如果卷子很難,考生一定很聰明,所以這中間有個因果推理關(guān)系。這就是Judeapeal提出的explainaway問題(Eveniftwohiddencausesareindependentintheprior,theycanbecomedependentwhenweobserveaneffectthattheycanbothinfluence),在前面的博文目標(biāo)檢測(ObjectDetection)原理與實現(xiàn)(三)也解釋了這個問題,如果這個例子沒有解釋清楚,可以看下前面的例子。對于無向圖模型的條件獨立就要簡單一些,是從圖論的可達性(reachability)考慮,也

18、可從圖的馬爾科夫性入手,如(圖五)所示:(圖五)(圖五)是個標(biāo)準(zhǔn)的隱馬爾科夫模型(HMM),當(dāng)給定X2時,就相當(dāng)于在X2除切了一刀,在X2前后之間的變量都相互獨立。獨立就可以分解了,比如條件概率獨立公式:P(A,B|C尸P(A|C)*P(B|C),團塊兼容函數(shù)也是如此。如果X1-X5我們都給定,那這個模型分解的團塊都是相似的,每個圖塊都可以用一個通用的標(biāo)記來表示,因此圖模型里又提了一種盤子表示法(platenotation),如(圖六)所示:Fi4,丁(ir»phirnliliiotrationofthrIrtuml>irsdikx4tEouiiionLTinf,whirhi卜

19、distriinKi,玷Diri(lihb(wiihpnniiiirtET“一可,ihr|NiraiinTcrRirtht.inulti-mMiiinl"topic"'itrinblcZ*rhe"wurcTvariubleIIi>屈somultinoiiilalcuiHlituinaluelZ.wilhth'higIhr曾“丁工1wiihciichfopar.UirrtitaiLKsn46jiititm,cIeiqiicoEidin:f>rirdlyimirjHjicIinrriilir;itionsofihrraiLdoiiiw;yi

20、;ihlr>i】i產(chǎn)(圖六)(圖六)不是表示的HMM的盤子模型,而是LDA模型的盤子模型,只是讓大家了解一下通用分解模版的表示方法,其實很多時候這個表示方法反而不是那么清晰,南加州大學(xué)有一個做機器學(xué)習(xí)的博士生就在吐槽這個表示方法,有興趣的可以去看看(鏈接)。今天算是了解一下概率圖模型的基本定義和兩個分解公式,這兩個分解公式只是給出了圖模型不好求概率的一個解決方法的切入點,下節(jié)就來學(xué)習(xí)一下概率圖模型如何通過分解來進行邊緣概率推理求解。03圖模型推理算法這節(jié)了解一下概率圖模型的推理算法(Inferencealgorithm),也就是如何求邊緣概率(marginalizationprobabi

21、lity)。推理算法分兩大類,第一類是準(zhǔn)確推理(ExactInference),第二類就是近似推理(ApproximateInference)。準(zhǔn)確推理就是通過把分解的式子中的不相干的變量積分掉(離散的就是求和);由于有向圖和無向圖都是靠積分不相干變量來完成推理的,準(zhǔn)確推理算法不區(qū)分有向圖和無向圖,這點也可以在準(zhǔn)確推理算法:和積算法(sum-product)里體現(xiàn)出來,值得一提的是有向圖必須是無環(huán)的,不然和積算法不好使用。如果有向圖包含了環(huán),那就要使用近似推理算法來求解,近似推理算法包含處理帶環(huán)的和積算法("loopy"s-product)和樸素均值場算法(naivemea

22、nfield),下面就來了解下這兩種推理算法的工作原理。假如給一個無向圖,他包含數(shù)據(jù)節(jié)點X和標(biāo)簽Y,它可以分解成(公式一)的形式:p(xIy)=J口機(坨)口吹(£小外)c&ci:.-(公式一)有些人一開始覺得(公式一)很奇怪,貌似和上一節(jié)的無向圖分解有點不一樣,其實是一樣的,稍微有點不同的是把不同的團塊區(qū)分對待了,這里有兩種團塊,比如(公式一)右邊第一項是歸一化常量配分函數(shù),第二項可能是先驗概率,而第二項就可能是給定標(biāo)簽時樣本的概率。這里用可能這個措辭,表示這些勢函數(shù)只是一個抽象的函數(shù),他可以根據(jù)你的應(yīng)用來變化,它就是對兩種不同團塊的度量。如果X的取值狀態(tài)只有兩個,那么配分

23、函數(shù)可以寫成(公式二)的形式:z=工exp怩(管c)xeo?i,jcec(公式二)配分函數(shù)就是把所有變量都積分掉得到的最終的度量值,如果要求邊緣概率就要通過積分掉其他變量得到的度量值除以配分函數(shù),例如我們要求(圖一)中的x1的邊緣概率P(x1):要求取P(x1),我們就要積分掉X2-X6這五個變量,寫成數(shù)學(xué)的形式如(公式三)所示:£4式啊,?。┟?(巧、方)弧4(*至/1)口5(金斗方)收46(61工0(公式三)如果你對代數(shù)分配率很熟悉,外面的加法符號大sigma可以分開寫成(公式四)的樣子:"(fl)X工展用白.5)匯門式工八心)£娘制(工去工4)乂工口工工工X

24、也“;(知He3f(j(公式四)其實(公式四)就是和積算法的雛形,因為可以很明顯的看出又有和又有積有人可能要問積分掉變量的順序為什么是那樣?其實這個沒有準(zhǔn)則的,先積分掉哪個變量,積分的順序也會導(dǎo)致運算量大小不一樣,求取最優(yōu)的積分變量順序是NP-hard的,下面用圖示演示下積分消除變量發(fā)生的事情。Siuinningovervariableancountstueliminating(i311d浦itachededesfromtherapli:雙上)區(qū)£心仙口。)T.二口(上»1>x£心式加"£)£工皿(工34工母):(01)Afte

25、reliminating/新,leftwitharesidiialpotential工iP(xi)x£晶式八門)的3(丁15)匯物村(工小工。黑X2力£*3小小=5)處4(容.工4)(02)Similarly(4iuiinotingvariablet5niotlifitw(一匚勺):p(ii)x£嗎M#i,犯)工也(叫i)x叼工3工4XLU”J不工片)強4(12r工4)(03)EliniiTiatingvariable1.rileadstoanewtonphiigt<Tm(04)Fin(dlvjiiininiiug/f'lirninating.and

26、飛yieldstheanswtT:£叫2(工】?。?#163;口1工(七【(05)(圖二)中注意觀察下每次積分掉一個變量后,原來的團塊就因為少了一個變量變成了一個新的團塊,新的團塊使得圖被三角剖分了,尤其在倒數(shù)第二個圖更明顯,消除變量x4后形成新的團塊(x2,x3),使得x2,x3之間建立了一條連接(藍線所示),這個三角化添加的邊在圖論里被成為弦(chord),全部完成三角化的圖也稱端正圖(moralgraph)。而邊緣概率計算量的復(fù)雜度取決于剩下的變量形成的團塊大小,如(圖二)中紅色的部分,變量消除的順序也會影響新團塊的大小,尋找一個最優(yōu)的變量消除順序十分必要,但是尋找最優(yōu)的變量消

27、除順序是NP-hard的,眼看著問題就沒法解決了,但如果圖模型是樹呢?樹這種圖模型具有良好的性質(zhì),他的計算量不大,下面先叉開下話題去看下樹結(jié)構(gòu)的圖模型的邊緣概率求解方法:假設(shè)樹結(jié)構(gòu)的圖模型如(圖三)所示:和(公式一)類似,這個樹結(jié)構(gòu)的圖模型的分布可以分解成(公式一)的形式,因為樹可簡單的分解成節(jié)點和邊,那么它分解的形式如(公式五)所示:P(町仔2m)=g嘰()2虱力百WV(sM)WE(F)(公式五)把上面所述的和積算法寫成一個通用的形式公式,如(公式六)所示:3(%):=£簿')(公式六)這里注意下大sigma下標(biāo)中的豎線表示排除Xs這個變量,積分掉其他變量,最終得到Xs的邊

28、緣概率。現(xiàn)在問題來了,在(圖三)中,如果要求變量Xs的邊緣概率就要積分掉Xs周圍的其他四個變量(Xt,Xw,Xu,Xv),這是由(公式五)中的團塊決定的(有邊相連),而要積分掉這周圍的四個變量就要繼續(xù)積分掉這四個變量周圍除Xs以外的其他相鄰變量,這是個遞歸過程。而動態(tài)規(guī)劃其實也是遞歸,所以本質(zhì)上和積算法(sum-product)是個非連續(xù)的動態(tài)規(guī)劃算法。下面用數(shù)學(xué)語言更進一步的梳理下這個遞歸算法流程,先做幾個定義:對于任意的屬于V的節(jié)點變量s,它的臨域可以定義成(公式七)的樣子::=uEV|(見乜)WE.(公式七)%(VuEu)用”""表示和要計算邊緣概率節(jié)點變量相連的子樹

29、,如變量s,但是子樹不能越過變量s,如(圖三)中的Tt,Tw,Tu,Tv都是子樹,每個子樹上的、口;:=(£“1/丘匕)一一“、,變量用表示,那么每個子樹又可以做團塊分解,如(公式八)所示:p(EK;T±)oc%(g)JJ人心江川).u£I;(公式八)有了這些定義,我們就可以再重新梳理下剛才的遞歸過程,要計算變量Xs的邊緣概率,就要計算其臨域上的邊緣概率,然后再臨域的臨域上的邊緣概率,其實就是子樹上的邊緣概率,最終會遞歸到整個樹的葉子節(jié)點上,葉子節(jié)點計算完成后傳到父親節(jié)點,以后依次向上傳,最終傳遞到變量Xs上,這個過程其實叫消息傳遞(Message-Passing

30、),有時也叫置信傳播(BeliefPropagation),有了消息的概念,那(公式八)就可以變成(公式九)的樣子:氏(g)=%嘰)JJ九成(4):=嘰p(4;Te)(公式九)(公式九)中k表示歸一化常量,Mts表示從變量Xt傳向Xs的消息,其實就是從子樹上傳遞過來的,然后P表示子樹的子樹上傳遞過來的消息,引入消息的好處就是容易描述這個遞歸過程,另外也容易擴展到其他帶環(huán)的圖上,因為動態(tài)規(guī)劃是遞歸的,遞歸用消息傳播來表示,那么帶環(huán)的圖用消息傳遞的方法求解,我們就說其實用了動態(tài)規(guī)劃算法,這個話題就不扯遠了。另外有了消息傳播機制,上述的計算邊緣概率的方法還可以擴展一下,使得可以同時計算所有節(jié)點的邊緣

31、概率,這就使得計算速度大大提高。我們可以讓每個節(jié)點都同時沿著邊向其臨域傳送消息,消息如(公式十)所示:式4)k£(3(£.切物(屈)口A幾閨)(公式十)這樣其實是傳播了2倍于邊數(shù)的消息,然后開始迭代,第二輪迭代時用第一輪傳播來過來的子樹上的消息更新當(dāng)前消息,然后依次迭代下去,迭代n次后,消息值收斂,這樣每個變量周圍的消息都已確定,就不需要遞歸了,套用下(公式九)就可以計算邊緣概率了。計算最大邊緣概率(max-marginal)也是類似的方法,只不過是在收斂收選取最大的邊緣概率而已,雖然簡單,但是應(yīng)用范圍很廣,因為很多時候都是在尋找個極值,比如立體匹配就是這個原理。說完了樹結(jié)

32、構(gòu)圖模型的和積算法,就要回來說一般圖的和積算法了,通過上面可以看到樹結(jié)構(gòu)的圖模型具有容易計算的優(yōu)點,那對于一般圖模型如果能轉(zhuǎn)成樹也可以套用上面所述方法,我們可以把節(jié)點分組以團塊的形式放在樹的節(jié)點上,但是要注意連續(xù)性,因為一般圖中的節(jié)點邊可以很復(fù)雜,比如有環(huán)的圖,那么一個節(jié)點變量就可以屬于多個團塊。因此團塊樹也要保持原有圖的這種特性,不然求解不正確,因此團塊樹的定義就要來了,如(圖四)所示:Definition2,LAcliquetreehastherunnmyinierjiectionpmpertijiffbranytwocliquenodesandaalltKxiosnntin1uniquepnt

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論