第三章廣義反演法_第1頁
第三章廣義反演法_第2頁
第三章廣義反演法_第3頁
第三章廣義反演法_第4頁
第三章廣義反演法_第5頁
已閱讀5頁,還剩53頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

第三章廣義反演法第一頁,共五十八頁,2022年,8月28日內容1、廣義逆矩陣的概念;2、奇異值分解(SVD)和自然逆;3、廣義反演法;4、數(shù)據(jù)分辨矩陣;5、參數(shù)分辨矩陣;6、特征值的應用;7、分辨力高低和方差大小的測度;8、最佳折衷解;第二頁,共五十八頁,2022年,8月28日1、廣義逆矩陣的概念前面我們討論了解線性反演問題的長度法,無疑還可以定義其他各式各樣的長度,比如范數(shù)等。但是,由于其他范數(shù)解的應用并非如此廣泛,因而,沒有必要在這里進一步加以論述了。

這里我們將從另一個角度,即廣義逆矩陣的角度討論線性反演問題,并稱基于廣義逆矩陣建立起來的線性反演法叫廣義反演法(Gener-alizedInversion),或廣義線性反演法(GeneralizedLinearInversion,縮寫為GLI)。第三頁,共五十八頁,2022年,8月28日設線性反演問題:如果把G看成一個映射算子,那么正演問題就是將模型空間中的m模型通過算子G映射到數(shù)據(jù)空間中的觀測數(shù)據(jù)d通過映射到模型空間中的模型m的一種運算。第四頁,共五十八頁,2022年,8月28日第五頁,共五十八頁,2022年,8月28日由矩陣理論可知,若G是非奇異矩陣,那么。這里是G的逆矩陣,且有:第六頁,共五十八頁,2022年,8月28日在G是奇異矩陣的情況下,G的逆并不存在,故我們稱為矩陣G的廣義逆。所謂廣義逆是矩陣G在常規(guī)意義下的逆之推廣。普通逆矩陣只是廣義逆矩陣的一種特殊形式。顯然,在奇異矩陣情況下,:第七頁,共五十八頁,2022年,8月28日2、奇異值分解(SVD)和自然逆為了更好地了解在線性反演中應用相當普遍的奇異矩陣的奇異值分解(SingularValueDecomposition,縮寫為SVD),我們先從矩陣分解講起。

第八頁,共五十八頁,2022年,8月28日-----實對稱矩陣的正交分解;任何一個實對稱矩陣G均可分解為三個矩陣之連乘積,第一和第三個矩陣分別為G的特征向量矩陣U和它的轉置,而第二個矩陣則是G的特征值構成的對角線矩陣。第九頁,共五十八頁,2022年,8月28日------非奇異且非對稱矩陣的分解;第十頁,共五十八頁,2022年,8月28日-----Lanczos的奇異值分解;

(3.25)任何一個MxN階的矩陣G,均可分解為(3.25)式,即可分解為三個矩陣之乘積。第十一頁,共五十八頁,2022年,8月28日?。海?.29)為矩陣G的逆算子,它被Lanczos稱為“自然逆”(naturalinverse)。Jackson又稱它為Lanczos逆。爾后,大多數(shù)學者(如Aki),包括Penros在內都把它稱為廣義逆。而把基于(3.29)式建立起來的解線性反演問題的方法統(tǒng)稱為廣義反演法.第十二頁,共五十八頁,2022年,8月28日因而Gm=d的解為:可以證明(3.29)式定義的自然逆滿足Penros給出的四個條件。第十三頁,共五十八頁,2022年,8月28日3、廣義反演法;在這節(jié)里,我們只涉及基于Lanczos自然逆而建立起來的廣義反演法,而不討論基于一般廣義逆(即不全部滿足Penros定義的四個條件的逆)的所謂廣義反演法。第十四頁,共五十八頁,2022年,8月28日3、廣義反演法;在這節(jié)里,我們只涉及基于Lanczos自然逆而建立起來的廣義反演法,而不討論基于一般廣義逆(即不全部滿足Penros定義的四個條件的逆)的所謂廣義反演法。第十五頁,共五十八頁,2022年,8月28日設線性反演問題為:Gm=d根據(jù)自然逆的定義,有:下面,我們分如下四種情況分別討論。第十六頁,共五十八頁,2022年,8月28日(1)當M=N=r時,和均不存在,即和均不存在,即和都是標準的正交矩陣且:因此,第十七頁,共五十八頁,2022年,8月28日(2)當時,Gm=d是超定方程。不復存在,但存在,此時是正交矩陣,即:而U,是半正交矩陣,即:第十八頁,共五十八頁,2022年,8月28日因此,在這種情況下,廣義反演法的解為:第十九頁,共五十八頁,2022年,8月28日(3)當時,Gm=d是欠定方程。此時,不復存在,而存在。是正交矩陣,且:而是半正交矩陣,即:第二十頁,共五十八頁,2022年,8月28日因此,廣義反演法的解為:這就是欠定問題的最小長度解,而且解是惟一的。第二十一頁,共五十八頁,2022年,8月28日(4)當時,和都存在。因此,可以把廣義反演解看成是同時在U空間極小和在V空間極小的結果。為了幫助大家理解奇異值分解和廣義逆的意義,現(xiàn)在分析兩個簡單的例子。例1:例2:第二十二頁,共五十八頁,2022年,8月28日4、數(shù)據(jù)分辨矩陣;用廣義反演法解線性反演問題,不但可以求得一個擬合觀測數(shù)據(jù)的模型m,而且可以獲得一些與觀測數(shù)據(jù)d和模型參數(shù)m有關的輔助信息,例如,數(shù)據(jù)分辨矩陣(dataresolutionmatrix)等。第二十三頁,共五十八頁,2022年,8月28日假定已經求得模型,即:這里,用表示用廣義反演法構制的模型,以示和真實模型m之區(qū)別。試問,能擬合觀測數(shù)據(jù)嗎?也就是說,把代入線性方程D=Gm能獲得與d相同的重建數(shù)據(jù)嗎?第二十四頁,共五十八頁,2022年,8月28日若用表示重建數(shù)據(jù),則有:式中:是階方陣,叫數(shù)據(jù)分辨矩陣(dataresolutionmatrix)或信息密度矩陣(informationdensitymatrix)。它是擬合觀測數(shù)據(jù)好壞程度的標志,第二十五頁,共五十八頁,2022年,8月28日如圖所示,矩陣F的第i行中諸要素越接近于1,則越接近于,即分辨力越高,因為:第二十六頁,共五十八頁,2022年,8月28日由于數(shù)據(jù)分辨矩陣F主對角線要素表明接近的程度,因此又定義F的對角線矩陣,即:為重要性(importance)矩陣。第二十七頁,共五十八頁,2022年,8月28日5、參數(shù)分辨矩陣;由廣義反演法構制出來的模型是真正的模型m嗎?為回答這一問題,可先將代入上式,則得:式中:R為階方陣,R稱之為參數(shù)分辨矩陣(parameterresolutionmatrix)或模型分辨矩陣(modelresolutionmatrix)。它是用廣義反演法構制的模型和真正地球物理模型m接近程度的一種重要標志。第二十八頁,共五十八頁,2022年,8月28日當時,。當時,即在純超定情況下,,才有。這時R的分辨力最高。當存在時,。所以。的每一個要素,均可視為m各要素加權的結果,這是因為:第二十九頁,共五十八頁,2022年,8月28日如果,雖有峰值,但變化比較緩慢,或者其峰值不在R的主對角線上,則R的分辨力不高。分辨力越低,說明模型參數(shù)之間越存在相關。和數(shù)據(jù)分辨矩陣相似,參數(shù)分辨矩陣也只是數(shù)據(jù)核G和反演時所加先驗信息的函數(shù),而與觀測數(shù)據(jù)d無關,因此,R矩陣也是實驗設計的重要依據(jù)。同樣,可以定義:為分辨核。越小,R矩陣的分辨能力越高。一般取其倒數(shù)作為分辨能力的(欲稱分辨力)的定量度量。第三十頁,共五十八頁,2022年,8月28日6、特征值的應用;在這一節(jié)中,將要論述利用廣義反演提供了一些有用的、重要的輔助信息——從特征值所獲取的輔助信息。第三十一頁,共五十八頁,2022年,8月28日1.特征值對觀測數(shù)據(jù)和模型參數(shù)的影響將數(shù)據(jù)核矩陣G作奇異值分解,并代入數(shù)據(jù)方程得:如用求和形式書寫,則有:特征值越大,其對重建觀測數(shù)據(jù)的貢獻越大;相反越小,則對的貢獻也越小。當反演中大小特征值相差非常懸殊時,小特征值對重建觀測數(shù)據(jù)幾乎毫無作用,甚至將它們去掉也不會影響觀測數(shù)據(jù)的重建精度。第三十二頁,共五十八頁,2022年,8月28日另一方面,有:其求和形式為:其結論和完全相反,即特征值越小,它對構制的模型參數(shù)影響越大。第三十三頁,共五十八頁,2022年,8月28日2.解的方差如果,觀測數(shù)據(jù)具有誤差,當然用廣義反演法所得的結果也有誤差,且滿足:因此,解的協(xié)方差矩陣:

第三十四頁,共五十八頁,2022年,8月28日如果觀測數(shù)據(jù)是統(tǒng)計且獨立的,并有相同的方差,則:故單位協(xié)方差矩陣為:

第三十五頁,共五十八頁,2022年,8月28日例

解如下聯(lián)立方程:

第三十六頁,共五十八頁,2022年,8月28日顯然,這是三個未知數(shù)三個方程式聯(lián)立方程。其中:只與第一式有關,各有無限多解,而與第二、第三式有關,它們卻是矛盾方程,無一般意義下的解,現(xiàn)在用廣義反演法解之,并分析由此而獲得的一些輔助信息,如數(shù)據(jù)分辨矩陣、參數(shù)分辯矩陣和解的方差等。若將上式寫成矩陣。即:

第三十七頁,共五十八頁,2022年,8月28日因此有:第三十八頁,共五十八頁,2022年,8月28日由于和的特征值完全相同,不難求得它們分別為2,2。顯然,此時是一個混定問題。因此,矩陣G之奇異值分別是:

第三十九頁,共五十八頁,2022年,8月28日與對稱矩陣和相對應的特征向量U和V分別是:第四十頁,共五十八頁,2022年,8月28日顯然,這是一個混定問題,即。此時,由于矩陣和的秩都是2。據(jù)此:第四十一頁,共五十八頁,2022年,8月28日根據(jù)奇異值分解,可得:第四十二頁,共五十八頁,2022年,8月28日因而有:能擬合觀測數(shù)據(jù)嗎?將代入數(shù)據(jù)方程,可得:第四十三頁,共五十八頁,2022年,8月28日顯然,與d并不完全相同,這是因為數(shù)據(jù)分辨矩陣:即F不是單位矩陣,所以由:第四十四頁,共五十八頁,2022年,8月28日表明,與真值相差甚遠。與真實的模型相差多大?可將d=Gm代入:中進行分析,式中:第四十五頁,共五十八頁,2022年,8月28日可得:這就說明,,而。由此看來,根據(jù)廣義反演法,可以惟一地確定,而不能惟一地確定和的數(shù)值大小,只能求得它們的平均值。第四十六頁,共五十八頁,2022年,8月28日至于m的協(xié)方差:第四十七頁,共五十八頁,2022年,8月28日7、分辨力高低和方差大小的測度;前面討論了利用觀測數(shù)據(jù)的方差和模型的長度為最小這一原則求取線性反演問題的長度解,下面將定義一種利用數(shù)據(jù)分辨矩陣F,參數(shù)分辨矩陣R和協(xié)方差矩陣計算模型參數(shù)的辦法。第四十八頁,共五十八頁,2022年,8月28日由于分辯矩陣(F,R)接近單位矩陣時,說明其分辨力最高,因此一種最好辦法是利用非對角線元素之大?。ɑ蚱湔股烨闆r)來描述分辯力之高低?,F(xiàn)以英文Spread表示展伸系數(shù),則有:第四十九頁,共五十八頁,2022年,8月28日這種展伸準則有時也叫狄里西萊準則。第五十頁,共五十八頁,2022年,8月28日把目標函數(shù)寫為:并極小之,可以得到模型的最佳解,式中,為相應項的加權系數(shù)。第五十一頁,共五十八頁,2022年,8月28日8、最佳折衷解在大多數(shù)地球物理反演問題中,矩陣G的條件數(shù)都很差,最大與最小奇異值有時相差幾十個級次。我們知道,小的奇異值會引起模型參數(shù)的最大誤差,卻能保證模型參數(shù)的高分辨能力。分辨率和方差是一對矛盾,分辨率高必然方差大;反之,分辨率低、方差也小,二者不可兼得,只能取其折衷。或者以犧牲一些分辨率為代價換取較低的方差;或者以較大的方差為代價,獲得較高的分辨率。第五十二頁,共五十八頁,2022年,8月28日Wiggins和Jockson(1972)建議,用廣義反演法求解時,設一個最大允許方差t,使即可截斷或摒棄小于的特征值。這里t為“方差門檻”值。若特征值按大小順序排列,即其中僅保留k個大特征值,而截斷個小特征值。顯然,應按以下方法計算觀測數(shù)據(jù)的有效自由度q,即有:

第五十三頁,共五十八頁,2022年,8

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論