基于支持向量機的地震屬性分析技術_第1頁
基于支持向量機的地震屬性分析技術_第2頁
基于支持向量機的地震屬性分析技術_第3頁
基于支持向量機的地震屬性分析技術_第4頁
基于支持向量機的地震屬性分析技術_第5頁
已閱讀5頁,還剩1頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權,請進行舉報或認領

文檔簡介

基于支持向量機的地震屬性分析技術

1地震屬性優(yōu)選方法地震屬性的利用在氣田勘探和開發(fā)中發(fā)揮著越來越重要的作用。目前在油氣預測中應用較多的有模糊數(shù)學、模糊模式識別、灰色預測理論、人工神經(jīng)網(wǎng)絡等方法,這些算法都以較大的訓練樣本量為基礎,在訓練樣本不足時預測的魯棒性不理想。支持向量機(SVM)是基于結構風險最小化原理的模式分類器,在小樣本情況下具有較強的分類與泛化性能,目前已成為繼人工神經(jīng)網(wǎng)絡之后在油氣勘探開發(fā)領域中又一個新的研究熱點。地震屬性種類較多,屬性特性及針對性各異,加之勘探開發(fā)環(huán)境的差異,使得在進行油氣預測之前需要優(yōu)選出對研究區(qū)塊油氣敏感、彼此相關性不強的地震屬性組合。地震屬性選擇方法總體上可以分為基于知識經(jīng)驗的專家選擇法、基于數(shù)學算法的自動選擇法、以及將二者共同使用的混合選擇法。專家選擇法是利用專家知識經(jīng)驗結合井資料直接挑選對研究區(qū)塊敏感的地震屬性,或利用屬性交會圖分析屬性組合作用,但是它受制于專家知識與經(jīng)驗的局限性,同時由于可選擇屬性較多,造成屬性選擇工作量大、難以兼顧多種屬性的綜合作用?;跀?shù)學算法的自動選擇法的基礎是地震屬性與儲層性質之間存在統(tǒng)計相關性,這使得可以采用機器學習、模式識別方法根據(jù)井資料及地震數(shù)據(jù)實現(xiàn)屬性優(yōu)選。目前已引入油氣預測領域的屬性優(yōu)選及屬性壓縮方法包括相關分析、主成分分析、遺傳算法、模擬退火、粗糙集等。儲層油氣預測是一個典型的模式識別問題,地震屬性優(yōu)選的目標是為預測算法提供最具判別能力、信息冗余最少的屬性集。本文針對SVM分類器提出一種以核相似性度量為基礎,在特征空間最大化類可分性度量的屬性優(yōu)選算法,實現(xiàn)地震屬性的自動優(yōu)選,并與SVM結合進行儲層油氣預測。通過四川觀音場數(shù)據(jù)和大慶油田G開發(fā)區(qū)塊的實際儲層油氣預測,驗證了本文算法的有效性。2svm對偶模型求解對于兩類分類問題,給定觀測樣本集D={(x1,y1),…,(xn,yn)},其中x∈Rd為輸入向量,y∈{-1,1}表示樣本類別標記。SVM的核心思想是通過一個線性或非線性映射?(·):Rd→F將原空間中線性或非線性分類問題映射到一個高維特征空間F中,然后在該特征空間中構建最優(yōu)分類超平面。最優(yōu)超平面方法控制了學習器的置信范圍,使獲得的SVM具有良好的泛化能力。在特征空間中尋找最優(yōu)分類超平面可以表示為如下優(yōu)化問題minJ(w,ξ)=12∥w∥2+C∑i=1nξi(1)minJ(w,ξ)=12∥w∥2+C∑i=1nξi(1)使得yi(wT?(xi)+b)≥1?ξiξi≥0yi(wΤ?(xi)+b)≥1-ξiξi≥0其中:ξ為松弛項,用于體現(xiàn)樣本分類錯誤;C為正則化參數(shù),用于在經(jīng)驗風險與置信范圍之間定義一種折衷,實現(xiàn)結構風險最小。上述最優(yōu)分類面求解問題可以利用拉格朗日優(yōu)化方法轉化為其對偶問題maxL(α)=∑i=1nαi?12∑i=1nαiαjyiyj(?(xi),?(xj))maxL(α)=∑i=1nαi-12∑i=1nαiαjyiyj(?(xi),?(xj))使得∑i=1nαiyi=0αi≥0(2)∑i=1nαiyi=0αi≥0(2)其中αi為每個樣本對應的拉格朗日乘子。求解上述問題后獲得的支持向量機分類器判決函數(shù)為f(x)=sign[∑i=1nαiyi(?(xi),?(x))+b](3)[∑i=1nαiyi(?(xi),?(x))+b](3)其中sign(·)為符號函數(shù)。由于SVM在特征空間中所涉及的有關?(·)的計算及判決函數(shù)都是以?(·)的內(nèi)積形式出現(xiàn),因此通過引入核函數(shù)K(xi,xj)=<?(xi),?(xj)>(4)Κ(xi,xj)=<?(xi),?(xj)>(4)使得不需明確知道?(·)的具體形式就可以將高維特征空間中的內(nèi)積運算轉化為低維輸入空間的核函數(shù)運算,巧妙地解決了在高維空間中計算帶來的“維數(shù)災難”問題。支持向量機的判決函數(shù)也轉變?yōu)閒(x)=sign[∑i=1nαiyiK(xi,x)+b](5)f(x)=sign[∑i=1nαiyiΚ(xi,x)+b](5)常用的核函數(shù)有:線性核函數(shù)、多項式核函數(shù)、高斯徑向基核函數(shù)、Sigmoid核函數(shù)等。3基于核相似性度量的遞歸特征選擇屬性優(yōu)選的目的是將原問題轉換到低維空間,只有那些與分類判別相關的屬性信息被保留下來。對于兩類分類問題,意味著在低維空間中兩類樣本之間的平均相似性更小,具有更大的可分性。因此,我們可以定義類可分性度量用于表示兩類樣本的差異。類可分性越大,則兩類樣本間的相似性越小,越容易分開。SVM的核心思想是通過使用某種線性或非線性映射,將訓練樣本由原屬性空間映射到特征空間,并在特征空間中構建最優(yōu)分類超平面。這種操作實際上也是提高了類可分性。由于SVM的訓練和決策均是在特征空間中完成,因此屬性優(yōu)選也應基于向量在特征空間中的映射?(x)的特征實現(xiàn)。本文中,我們首先定義了特征空間中的樣本相似性度量和類可分性度量,在此基礎上將移除某個特征后對類可分性度量的影響作為特征選擇的依據(jù),提出了一種新的基于核相似性度量的遞歸特征選擇算法。本文算法主要包含4個問題:①在特征空間中定義樣本相似性度量;②在特征空間中定義類可分性度量;③依據(jù)類可分性度量進行屬性選擇;④從現(xiàn)有屬性集中搜索獲取屬性子集。3.1基于高斯核函數(shù)的相似性度量為了定義類可分性度量,首要的工作是定義樣本相似性度量。分類問題本質上就是一個相似性問題,SVM也是如此。根據(jù)式(3)可看出,樣本x的判定輸出是基于它與所有支持向量xi在特征空間中內(nèi)積的加權和得到的。不同的支持向量所賦予的權重αiyi不同,它代表著支持向量在決策中的作用程度不同。內(nèi)積<?(x),?(xi)>則表示樣本x與支持向量xi在特征空間中的相似度。因此在屬性優(yōu)選算法中,我們將內(nèi)積<?(x),?(xi)>作為樣本在特征空間中的相似性度量。給定兩個輸入樣本xi和xj,他們在特征空間中的相似性定義為D(xi,xj)=<?(x),?(xi)>=K(xi,xj)(6)其中K(·,·)為核函數(shù)。選擇不同的核函數(shù)隱式地選擇了不同的映射函數(shù)?(·),使得樣本間相似性度量結果也不同。本文基于如下三方面原因而選用高斯核函數(shù):(1)高斯核函數(shù)是單調有界函數(shù),0<K(xi,xj)≤1,同時K(x,x)=1表明所有點的映像在特征空間中的范數(shù)都為1,任意兩個映像的點積等于兩映像間夾角的余弦值,即K(xi,xj)=<?(x),?(xi)>=cos(∠(?(xi),?(xj))),因此高斯核函數(shù)可以體現(xiàn)兩映像在特征空間中的相對位置,是一種優(yōu)秀的相似性度量;(2)高斯核函數(shù)具有平移不變性,即有K(xi,xj)=K(xi+x0,xj+x0)成立,表明樣本相似性度量不依賴于數(shù)據(jù)表示空間的轉移而變化;(3)高斯核函數(shù)對應Gram矩陣(核矩陣)是滿秩的,因此它對應的特征空間可以是無限維的,因為有限的樣本在該特征空間中肯定是線性可分的,所以高斯核函數(shù)具有極強的分類能力。3.2類別可分性度量基于樣本相似性度量可以定義特征空間中的類可分性度量。設數(shù)據(jù)集D={(x1,y1),…,(xn,yn)},共含有n個訓練樣本分別屬于類別A和類別B,其中類A中含有n1個樣本,類B中含有n2個樣本,?(xi)表示向量xi在特征空間中的映像。根據(jù)樣本相似性度量方法,我們可以在類內(nèi)平均相似度和類間平均相似度的基礎上定義類別可分性度量。針對兩類分類問題,設k為類別標記,k∈{1,2}。類內(nèi)相似度為同類別樣本相似度的平均值,即mk=1nk(nk?1)∑i,j=1i≠jnkD(xi,xj)(7)mk=1nk(nk-1)∑i,j=1i≠jnkD(xi,xj)(7)類間相似度為異類樣本相似度的平均值,即l=1n1n2∑i=1,j=1n1,n2D(xi,xj)(8)l=1n1n2∑i=1,j=1n1,n2D(xi,xj)(8)對于分類問題,由于SVM的結構化風險最小化是以最大化兩類樣本間隔距離實現(xiàn)的,同時樣本的差異性是以內(nèi)積為度量的,因此我們希望在特征空間中同類樣本能盡可能地相似,異類樣本盡可能地相異,即類內(nèi)平均相似度越大,而類間相似度越小,則兩類樣本越容易分離。由此給出類別可分性度量為S=m1+m2l(9)S=m1+m2l(9)式中S越大,則在特征空間中同類樣本聚集,而異類樣本分離,兩類樣本越容易分開。3.3屬性篩選算法從屬性集中選擇最優(yōu)的屬性子集是一個NP-hrad問題。本文中我們首先基于類可分性度量對屬性排序,然后利用遞歸反向特征剔除算法(RFE)逐次優(yōu)選屬性。RFE算法起始于全體屬性子集,依據(jù)屬性刪除標準,逐次刪除最不利于分類的某個或多個屬性。與全局搜索算法相比,該算法所得到的屬性子集是子最優(yōu)的,但是其計算效率高,總體性能好,是目前常用的一種屬性搜索策略。本文中我們將剔除某個屬性后對類別可分性度量的影響作為屬性刪除標準。如果剔除某個屬性后,類別可分性出現(xiàn)較大的降低,則認為這個屬性對類別可分性貢獻較大,是重要屬性;相反,如果類別可分性出現(xiàn)較大的增長,則說明該屬性的存在不利于兩類樣本分類,屬于無關屬性。因此,在屬性優(yōu)選過程中,我們將那些剔除后使得類別可分性出現(xiàn)最大增長的屬性視為無關屬性,并予以剔除。由于類別可分性是基于核空間中的相似性度量獲得的,因此命名此屬性優(yōu)選算法為基于核相似性度量的遞歸反向屬性刪除算法,簡稱KS-RFE。在地震勘探中,由于計算獲取的地震屬性性質各異,計算方法各異,因此屬性數(shù)據(jù)提取結果沒有統(tǒng)一的數(shù)據(jù)格式,數(shù)值變化范圍也不同。因此,在進行屬性優(yōu)選前需要首先對數(shù)據(jù)進行標準化處理,再將各個屬性數(shù)據(jù)限制在相同的范圍內(nèi)。數(shù)據(jù)標準化的方法很多,有總和標準化、最大值標準化、模標準化、中心標準化、標準差標準化等。KS-RFE算法基本步驟如下:步驟1輸入訓練樣本集D={(xi,yi)Ni=1i=1Ν}并對其進行標準化處理,其中x∈Rd,y∈{-1,1}。令初始屬性集F={f1,f2,…fd}步驟2令當前屬性集為初始屬性集:Cf=F,屬性排序集合R=?。步驟3循環(huán)執(zhí)行步驟3.1至步驟3.6,直至Cf=?,完成屬性排序。步驟3.1根據(jù)當前屬性集Cf提取數(shù)據(jù)組成新的訓練樣本集P。步驟3.2基于訓練樣本集P選擇SVM模型參數(shù)。步驟3.3計算當前屬性集Cf中每一屬性的類可分性度量Si=m(?i)1+m(?i)2l(?i)(10)Si=m1(-i)+m2(-i)l(-i)(10)其中上標(-i)表示剔除第i個屬性特征。步驟3.4找出對應于最大類可分性度量的屬性特征:e=argmaxi(Si)e=argmaxi(Si)。步驟3.5更新屬性排序集合:R=[e,R]。步驟3.6更新當前屬性集:Cf=Cf-fe。步驟4輸出屬性集排序集R,是按照屬性對分類的重要性遞減排序的。4訓練井與檢驗井預測實例1是針對四川觀音場構造陽新統(tǒng)上部碳酸鹽巖儲層進行油氣檢測。該區(qū)塊原始數(shù)據(jù)選自文獻,包含17口井信息,每口井取3個地震道,地震屬性信息包括振幅、相位、頻率、構造曲率、速度、視極性和低速層厚度共7類屬性數(shù)據(jù)。已知井分為三類:干井、低產(chǎn)氣井和高產(chǎn)氣井。針對此區(qū)塊數(shù)據(jù),已有多篇文獻應用不同的方法進行了預測。其中文獻采用模糊數(shù)學方法,文獻采用BP神經(jīng)網(wǎng)絡方法,文獻采用有監(jiān)督的SOM神經(jīng)網(wǎng)絡方法,文獻采用核Fisher判別分析方法。為與上述方法結果作比較,與文獻相同,本文實驗采用前10口井為訓練井,用于屬性優(yōu)選和訓練SVM,后7口井為檢驗井進行驗證。由于SVM是兩類分類器,因此本文采用兩次訓練SVM實現(xiàn)3類分類,即首先按照含油氣性質分為干井(0)和氣井(1)兩類進行訓練預測,然后再針對氣井按產(chǎn)量分為低產(chǎn)氣井(1)和高產(chǎn)氣井(2)兩類進行訓練預測。首先,利用前10口井按照干井和氣井兩類組成訓練井樣本優(yōu)選地震屬性。采用KS-RFE算法提取出構造曲率、視極性和低速層厚度三個屬性為優(yōu)選屬性子集。然后訓練SVM,并對訓練井回代預測,對檢驗井進行油氣預測,結果如表1和表2所示。第二步,利用訓練井中的低產(chǎn)氣井和高產(chǎn)氣井作為訓練井,采用KS-RFE算法優(yōu)選出構造曲率和視極性組成優(yōu)選屬性子集,然后訓練SVM,并對訓練井回代預測,對檢驗井進行油氣預測,結果見表3和表4。可以看出,當分成干井和氣井兩類時,訓練井回代預測和檢驗井預測均全部預測正確。當分成干井、低產(chǎn)井和高產(chǎn)井三類時,訓練井回代預測正確率為100%,檢驗井預測正確率為71.4%。本文方法與其他方法預測結果比較見表5,為表示方便,將本文方法簡稱為KS-SVM。應用所有地震屬性,直接利用高斯核SVM進行預測的方法簡稱為RBF-SVM。可以看出,當進行優(yōu)選屬性后,SVM性能得到較大提高,分類正確率由70.59%提高到88.23%。與其他方法結果比較表明,KS-SVM對該區(qū)塊預測性能優(yōu)于模糊數(shù)學和神經(jīng)網(wǎng)絡方法,與核Fisher判別方法性能相同。因此,在利用KS-RFE算法優(yōu)選地震屬性后采用SVM進行油氣預測能夠有效地提高SVM預測精度,降低預測風險。實例2為對大慶油田某開發(fā)區(qū)塊進行的油氣預測。在油氣預測中,油田技術人員最初只提供了該區(qū)塊14口井用于預測,其中產(chǎn)油井12口,產(chǎn)水井2口。待預測工作完成后,又提供了10口井進行檢驗,其中產(chǎn)油井9口,產(chǎn)水井1口。訓練井與檢驗井信息見表6。首先提取了儲層油氣預測中常用的50種地震屬性,屬性列表如表7所示。然后對

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論