版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領
文檔簡介
基于BP神經網絡的上證股票指數(shù)預測
ShanghaiStockIndexPrediction
withNeuralNetworks
內容提要
證券市場作為高風險高收益的投資領域一直倍受投資者的關注,如何能夠準確分析和預測股票價格以便獲取豐厚的收益一直受到人們的關注。于是各種股票價格分析預測和方法應運而生,如何建立一個成功率比較高的預測理論和模型是多年來許多學者一直研究的內容。
隨著證券市場混沌和分形理論的逐步確立,人們開始利用神經網絡對證券市場的變動加以預測。神經網絡是一種重要的人工智能技術,它的研究開始于20世紀40年代,近年來,神經網絡任意連續(xù)映射的逼近能力學習理論以及動態(tài)網絡的穩(wěn)定性分析都已取得了豐碩的成果;在應用上也迅速擴展到許多重要的領域涉及模式識別與圖象處理、控制與優(yōu)化、ATM網絡中呼叫接納的識別與控制、導航多媒體處理系統(tǒng)等等。神經網絡的自適應學習非線性映射強的特點非常適合應用于經濟領域的信息處理以及分析時間序列。
BP(BackPropagation)網絡是一種被廣泛運用的神經網絡。它的核心是BP算法,一種對于多基本子系統(tǒng)構成的大系統(tǒng)進行微商計算的嚴格而有效的方法,結構簡單,算法成熟。與傳統(tǒng)統(tǒng)計回歸方法相比,神經網絡不僅能夠學習訓練集的例子,且能從訓練集中提煉出某種一般性原理、規(guī)律,具有很強的非線性函數(shù)擬合特性,這對于預測短周期內股指波動有較強的適用性。
本文嘗試利用基于BP算法的三層向前神經網絡對上海交易所上證指數(shù)進行了預測,并針對BP網絡原形的一些缺點和不足,對原有的預測方法作出了一些改進。在實際預測中取得了良好的效果。
關鍵詞:指數(shù)預測;神經網絡;BP算法
Abstract
Tobeaninvestmentregionofhighriskandhighprofit,Stockmarketattractsmanyinvestors’attentionsallalong.Howtoobtainprofitthroughanalyzingandforecastingthesharepriceaccuratelyisattractingthepeople’sattentions.
WiththedevelopingofFractalMarketHypothesis(FMH)theory,peoplehavetriedtoforecastthechangeoftheStockmarket.TheneuralnetworkisanimportanttechnologyinthefiledofAI,whichwasdevelopedin1940’s.Inrecentyears,thetheoryabouttheapproximationofrandomcontinuousmapsbyneuralnetworkandtheanalyzingofthestabilityofadynamicnetworkhavebeenusedinmanyfieldsandgainedgreatachievement.
BP(BackPropagation)isaneuralnetworkwhichisadoptedwidely.ThecoreistheBParithmetic,astrictandeffectivemethodtoderivativeproblemforsystembasedonmulti-subsystem,whichhassimpleconfigurationandmaturearithmetic.Tocomparewiththetraditionalstatisticalregressmethod,BPnetworkcannotonlystudytheexampleoftrainingset,butalsoabstractsomegeneraltheoryandrule.Ithasstrongcharacteristicofapproximationofnon-linearfunctions,whichismuchfitforstockindexanalyzedandpredictedinashort-term.
ThisarticletriestouseaneuralnetworkonthebaseofBParithmetictoforecasttheshareindexofShanghaistockexchange.MeanwhileitmakessomeimprovementtotheoriginalforecastmethodaccordingtothelimitationanddisadvantageoftheBPnetworkoriginalshape.
Keywords:StockIndexForecasting;NeuralNetworks;BParithmetic
目錄
前言1
第一章股票市場的分形特征及其指數(shù)的預測方法2
第一節(jié):股票市場的分形特征2
1.傳統(tǒng)的有效市場假說2
2.分形市場的假說(FMH)3
第二節(jié)分形市場的判斷5
1.分形市場的常用判斷方法5
2.使用R/S法計算Hurst指數(shù)5
3.R/S計算的結果分析10
第二章利用神經網絡對具有分形特征的時間數(shù)列進行預測.10
第一節(jié)常用的混沌時間序列分析預測方法10
第二節(jié)神經網絡的基本原理10
1.人工神經網絡的歷史11
2.神經網絡的特點12
3.神經網絡的基本原理13
第三節(jié)基于BP算法的三層向前的神經網絡15
1.多層次的神經網絡15
2.BP網絡的基本原理16
第三章對BP神經網絡的改進17
第一節(jié)BP網絡的缺陷17
第二節(jié)與BP算法相結合的遺傳算法18
1.遺傳算法簡介18
2.遺傳算法的基本原理19
3.遺傳算法與傳統(tǒng)BP神經網絡的結合20
第三節(jié)在樣本輸入中添加隨機噪聲21
第四節(jié)多個神經網絡集成預測22
第四章實證結果及其分析24
第一節(jié)神經網絡結構設計24
第二節(jié)利用BP神經網絡預測上證指數(shù)的流程26
第三節(jié)實際預測結果28
第四節(jié)對預測結果的分析和思考34
第五節(jié)總結35
前言
從股市誕生一百多年以來,不斷有人用各種方式研究股市運行的規(guī)律,人們希望能從復雜多變的股市中找到一個規(guī)律來預測股市未來的發(fā)展,從而通過證券交易獲得最大的投資凈效用。另一方面,隨著證券市場的飛速發(fā)展,證券市場與經濟發(fā)展的關系越來越密切,證券市場在成為世界公認的經濟晴雨表的同時,也對經濟的發(fā)展產生著發(fā)作用。因此預測股票市場的變化趨勢更對經濟發(fā)展的管理和調控有著重要的參考作用。
如何能夠準確分析和預測股票價格?各種股票價格分析預測和方法應運而生,如何建立一個成功率比較高的預測理論和模型是多年來許多學者一直研究的內容。國外的研究者先后提出了一系列的定價理論和投資組合模型如馬柯威茨的投資組合理論夏普等人的CAPM以及羅斯的APT然而投資者們發(fā)現(xiàn)雖然這些理論極大地開闊和提高了投資者的思想理念及其對風險和收益的辨證理解但對實際操作卻缺乏明確的指導作用。
隨著近年來人工智能方法研究的發(fā)展以及證券市場一些特性逐漸被人所揭示,一些新的預測方式開始浮出水面。神經網絡由于其在分析和預測時間序列方面的獨到優(yōu)勢,逐漸成為構建證券預測模型的有力工具。
我國證券市場自90年代初期成立以來,雖然經歷的時間只有短短15年。經過15年的努力,中國證券市場取得了巨大的成就,當前深圳、上海兩家證券交易所總市值達到4萬多億元,已經有1300多家的上市公司,7000多萬名投資者。對我國證券市場走勢的預測同樣有著重要的意思。
上海證券交易所編制的上證綜合指數(shù),該指數(shù)以1990年12月19日為基日,以該日所有股票的市價總值為基期,基期指數(shù)定為100點,自1991年7月15日起正式發(fā)布。上證指數(shù)將上海交易所流通股票的總市值的變動以指數(shù)的形式表示出來,易于計算。上證指數(shù)的變化情況準確的反映著證券市場的波動情況。對于上證指數(shù)的預測工作不但能夠幫助資本市場的投資者對后市發(fā)展進行分析獲取收益,對分析和微調我國經濟發(fā)展方向也有著重要的參考價值。
本文在意在研究股票市場的一些基本的特點,通過嘗試利用神經網絡對上證指數(shù)的變化趨勢進行了預測,探索為預測我國證券市場指數(shù)的變動提供了一種具有一定準確性與可操作性的實用方法。
第一章股票市場的分形特征及其指數(shù)的預測方法
第一節(jié):股票市場的分形特征
傳統(tǒng)的有效市場假說
美國經濟學家Fama1965年在其經典文獻中提出了有效市場假說(EfficientMarketHypothesis,EMH),他認為投資者對市場信息會作出合理的反應,應該將市場信息與股票價格相結合。在EMH假說里,市場是一個鞅,或“公平博弈”,即信息不能被用來在市場上獲利。即“如果在一個證券市場中,價格完全反映了所有可獲得的信息,那么就稱這樣的市場為有效市場”。
經濟學家Roberts根據(jù)信息集的不同內涵,區(qū)別了三個層次的市場效率,即弱型效率、半強型效率、強型效率。這種分類法被Fama確定而成為經典。
這三種信息集分別為:(1)歷史價格信息,通常指證券過去的價格和成交量;(2)所有可公開得到的信息,包括盈利報告、年度財務報告、財務分析人員公布的盈利預測和公司發(fā)布的新聞、公告等;(3)所有可知的信息,包括不為投資大眾所了解的內幕信息。與這三類信息相對應,有效率的市場可分為弱型效率、半強型效率、強型效率。
弱型效率(Weak-FormEfficiency)認為價格反映了包含在歷史價格序列中的所有信息,投資者不能通過分析歷史價格獲得超常收益,這意味著技術分析無效。弱型效率是證券市場效率的最低程度。
半強型效率(Semistrong-FormEfficiency)認為如果市場達到半強型有效,則分析資產負債表、損益表、宣布股利的變化或股票拆細和其它任何有關公司的公開信息不能獲得超常收益,這意味著基礎分析無效。半強型效率是證券市場效率的中間狀態(tài),證券價格已充分、及時地反映了公開信息。
強型效率(Strong-FormEfficiency)認為市場參與者知道的有關公司所有的信息都已充分反映在股價當中,即使那些擁有優(yōu)越信息的人也無法獲得超常收益。強型效率是市場效率的最高程度,它包含了弱型效率和半強型效率。
如果市場是有效的,意味著即使是專業(yè)投資人也無法敗市場,那么實際上就否定了積極管理的投資理念。相反,如果市場無效,那么投資者和投資機構就可以通過構造組合,創(chuàng)造超過市場的收益。
市場有效性假說是理性預期學派理論的重要基礎,它是數(shù)量話資本市場理論的基礎,現(xiàn)代經典的資本市場理論以及證券技術分析方法很多都是從EMH假說上發(fā)展起來的。
進入上世紀80年代,在探尋一般均衡定價模型進展不大的情況下,人們開始將定價理論的研究方向轉向注重市場信息的考察。經過實證檢驗,邦德特和塞勒(BondtandTheler,1985)發(fā)現(xiàn)股市存在投資者有時對某些消息反應過度(overreact),而杰格蒂什(Jegadeesh,1990)、萊曼(Lehmann,1990)等則發(fā)現(xiàn)了股價短期滯后反應現(xiàn)象,由此,杰格蒂什和迪特曼(Titman,1993)認為投資者對有關公司長遠發(fā)展的消息往往有過度的反應,而對只影響短期收益的消息則反應不足,關于這一點仍然存在著爭論,盡管如此,信息與股價之間應存在著某種關系得到了經濟學家們的認同,并且,弗倫奇和羅爾(Roll)的實證研究證明了股價波動幅度與可獲得信息量之間存在著良好的正相關關系。
然而,EMH假說同樣存在著明顯的缺陷:一是對信息的反應,并非以因果關系的形式呈現(xiàn),由于信息的分布是狹峰態(tài)的,因而價格變化的分布也應該是狹峰態(tài)的,從而人們對信息的作出的反應是非線形的,一旦信息水平達到了某個臨界值,人們才會對所忽略的信息作出反應,并直接達到臨界值。二是EMH假說沒有涉及到市場的流動性問題。一個穩(wěn)定的市場有EMH描述的有效市場并不相同,一個穩(wěn)定的市場是一個富有流動性的市場。如果市場富有流動性,那么可以認為價格是接近公平的,然而市場不是一直富有流動性的。三是市場的有效性并不一定意味著隨即游走,但隨即游走的確意味著是市場是有效的。四是市場的有效性檢驗,對市場的有效性檢驗仍然停留在最初的隨即游走模型上,然而滿足隨機游走模型只能看作是市場有效性的充分條件而不是必要條件。不滿足隨機游走模型的市場不一定就是無效的。五是有關效應的問題,股票收益的季節(jié)性,大小效應等都不利于EMH假說。①
上世紀80年代以來的許多相關的統(tǒng)計檢驗也出現(xiàn)了與有效市場理論假設相沖突的股價異?,F(xiàn)象,即證券市場異象。出現(xiàn)了任何一種股票或其組合的平均超常收益率不為零的證券市場異象,并且諸如價值異象、時間效應、規(guī)模效應、公告效應、處置效應等異?,F(xiàn)象在金融市場上頻繁出現(xiàn),運用EMH理論卻很難解釋。
以Manddlborot為代表的一些學者對EMH理論提出了質疑,他們認為資本市場的收益率并不服從正態(tài)分布,其分布具有尖峰、厚尾等特征,實際上服從穩(wěn)定帕累托分布。在這類分布中,方差是無定義或者無限的,在一定的條件下它對應與分數(shù)布郎運動,具有自相似、長期相關、統(tǒng)計相關等特性。因此傳統(tǒng)的的資本市場方法無法準確的反映市場的。①
1.1.2分形市場的假說(FMH)
面對EMH理論的種種不足,金融學家們開始嘗試利用非線性方法與混沌思想來理解股票市場行為,并開始探索的描述市場特性的假說。20世紀80年代初,美國經濟學家Stutzer最先將新興的混沌理論和方法用于分析宏觀經濟中非規(guī)則增長和經濟增長中顯現(xiàn)的混沌等問題。之后不久,國外經濟學家們便開始運用混沌理論,研究和探討包報財政、金融在內的經濟和管理方面的問題,特別是有關證券市場股價指數(shù)、匯率變化方面的研究格外引入注目,金融證券市場越來越多的混沌特征被逐步揭示了出來。
分形原理作為混沌研究的重要組成,近年來取得了很大進展。1996年EdgarE.Peters在《ChaosandOrderintheCapitalMarkets》一書里提出了分形市場的假說(FractalMarketHypothesis,FMH),將分形理論用于資本市場,并且成功的建立了標準普而500家公司股票日周月年之間的收益曲線的自相似性。
分形是20世紀70年代后發(fā)展起來的一門新興的復雜科學,它研究的是一種特
__________________________________
①伍恒煜,林詳“金融市場非線形:混沌與分形”,?商業(yè)研究?,2003年第7期
殊的復雜系統(tǒng)——“自相似”系統(tǒng),即在不同標度下存在相同或相似特征的系統(tǒng)。分形的一個奇怪性質是,它們不具有通常情況下用于測量的特征標度,并且具有特殊的特征量:介于整數(shù)維之間的分數(shù)維。著名的海岸線測量就是分形的一個例子。人們發(fā)現(xiàn)在測量海岸線長度時,所測長度取決于用來測量的尺子長度,尺子越短,所測的實際長度就越長。其原因是所用的尺子越短,系統(tǒng)內部相似的細微結構就越多地被揭示出來。
在金融市場上,我們也觀察到類似的分形結構。價格序列在日、周、月的軌跡具有相似性,我們無法確切地將它們分辨開來。基于這一觀察,以及金融市場分形性質的不斷發(fā)現(xiàn),Peters提出的分形市場假說,即金融市場本質上是一個復雜系統(tǒng),而分形是刻劃這一系統(tǒng)的有力工具。依據(jù)最近的研究進展,我們對這一假說提出部分修正:即金融市場事實上是有界的分形系統(tǒng)。有界分形指的是市場的分形性質是有界的,金融市場上并不存在無限尺度上的自相似特征。
分形市場是指市場是內在波動的,不存在一個靜態(tài)的均衡。同時向投資者提供了一個穩(wěn)定性和流動性的環(huán)境。這里的穩(wěn)定不是均衡,而是相對市場的崩潰而言的。不同于有效市場假說,分形市場理論認為,信息依照投資者的投資偏好而被評讀。因為具有不同的投資偏好的投資人對信息的評估是不同的,所以信息的傳播也是不均衡的。市場價格不可能每一次都反映出所有相關的信息,而只是反映出投資人偏好的那部分信息。這樣的結果就是市場的強烈波動被吸收而呈現(xiàn)出穩(wěn)定發(fā)展的形態(tài)。FHM理論認為市場價格是保持流動和穩(wěn)定性的結果,而不是EMH認為的博奕結果,價格不能線形的反映出所有的信息,價格的變化不是相互獨立的。在分形市場上是不存在理性人的假設,投資人的決策依賴于歷史的經驗,證券價格具有一定周期的長期記憶性。只有在市場面臨突發(fā)的重大事件,大部分投資者對信息的觀點相同的時候,才會破壞這樣的穩(wěn)定性,造成突然的暴漲和暴跌行情。
分形市場假說主要考察金融市場上存在的長程相關(Long-rangedependence或Longmemory)和標度行為(Scalingbehavior)。通過全新的觀念和工具,它為揭示金融市場可能存在的內在結構提供了新的洞察力。
分形市場假說強調了流動性的影響已經基于投資者行為之上的投資偏好。分形市場假說的目的是給研究者一個符合實際觀測到的投資人行為和市場價格運動的模型。
FMH的主要內容包含了以下5個方面:
(1).市場由眾多投資者組成,他們具有不同的投資時間尺度,如長線的或者短線的,這使他們有著不同的投資行為。
(2).信息對于投資時間尺度不同的投資人的影響是不同的,短線的投資者主要是投資行為主要是頻繁的加交易,因此他們比較關注技術分析信息,而基本面的信息經常被忽略。長線的投資者則認為技術面的分析的信息不能用于長期的的投資決策,只有對證券的內在價值進行評估才能獲得長期的投資收益。
(3).市場的穩(wěn)定在于市場的流動性的保持,而要作到這點需要大量的具有不同的時間投資尺度的投資人的存在。在證券市場上,正是因為具有大量不同投資時間尺度的投資者的存在,才使得市場穩(wěn)定而具有活力。當所有投資人的尺度如果趨向一致的時候,市場的穩(wěn)定必然被破壞。
(4).基于以上特點,證券市場的價格是長線基本面分析和短線技術分析共同作用的結果。一般來說短期的價格比長期的價格變化更具有易變性。市場發(fā)展的內在趨勢反映了投資者期望收益的變化,并受到整個經濟大環(huán)境的影響。短期交易行為更多的是從眾行為的結果,因此,市場的短期傾向與市場的長期趨勢并無內在的一致性。
(5).如果證券與經濟循環(huán)沒有關系,那么就不存在長期的趨勢。交易、流動性和短期信息將在市場里起到決定性的作用。①
FMH和EMH理論的不同在于,分形市場假說認為資產的價格并非純粹的隨機運動,而是服從一定的規(guī)律分布,是由價格決定系統(tǒng)的混沌性質所引起的。FMH理論強調信息對不同投資時間尺度的投資者所產生的影響是不同的,信息傳播是不均衡的,價格變化不是獨立的。
第二節(jié)分形市場的判斷
1.2.1分形市場的常用判斷方法
那么怎么判斷一個市場是不是存在分型特征呢,要描述一個系統(tǒng)的分形特征,經常被采用的方法包括:
(1).相關維。相關維指標的作用在于用來判斷對象系統(tǒng)的行為是否混沌的,說明了為描述該系統(tǒng)所需要的最多獨立變量數(shù),獨立變量的個數(shù)某種程度上反映了系統(tǒng)方程的復雜程度,但不能完全反映系統(tǒng)結果的復雜程度。
(2)、李雅普諾夫指數(shù)。利用李雅普諾夫指數(shù)可以判斷對象系統(tǒng)的行為是否混沌的;該指數(shù)還說明了該系統(tǒng)的動力行為在某個方向上是指數(shù)發(fā)散或收斂的。李雅普諾夫定量地給出了系統(tǒng)在某個方向上發(fā)散的速度,因此從最大李雅普諾夫指數(shù)我們可以知道系統(tǒng)包含的信息損失的最大速度,最大李雅普諾夫指數(shù)的倒數(shù)就給出了對象系統(tǒng)的最大可預報時間。
(3).Kolmogrov嫡。到目前為止,Kolmogrov墑僅用于判斷數(shù)據(jù)結構中的混沌性質。
(4).Hurst指數(shù)。Hurst指數(shù)說明了時間序列的持續(xù)性行為。大于0.5的Hurst指數(shù)表明序列是持續(xù)性的;小于0.5則序列是反持續(xù)性的。Hurst指數(shù)還反映出時間序列的分形特征,從時間尺度上看,Hurst指數(shù)越是靠近0.5,序列的結構越復雜,其時間曲線越是曲折。②
1.2.2使用R/S法計算Hurst指數(shù)
用R/S分析法計算Hurst指數(shù)的方法是一種常用的,用來檢驗系統(tǒng)是否具有分形特征的辦法,具有簡單易行的特點。
__________________________________
陳永忠“分形市場假說下的風險度量“,《經濟師》2004年第8期
PetersE.E"FractalMarketAnalysis:ApplyingChaosTheorytoInvestmentandEconomics"
[M].JohnWiley&Sons.IncNewyork1994
這種方法是Hurst長期研究尼羅河的流量變化后提出的。在多年的水文數(shù)據(jù)中,他發(fā)現(xiàn)數(shù)據(jù)不服從布朗運動及正態(tài)分布的特性。為了合理控制水庫的泄水量使其保持不枯不溢的理想狀態(tài),Hurst測算了水庫蓄水量隨時間在平均水平附近波動的范圍。Hurst用這個變動范圍除以觀察值的標準差得到一個無量綱的量,使不同的序列具有可比性。這種分析稱為重標極差法(rescaledrange),也稱R/S法。是一個時間序列中n個數(shù)據(jù)偏離其均值的累加值的極差,稱為n個數(shù)據(jù)的極差,表示時間序列最大的變化范圍;是時間序列的標準差,表示偏離均值的程度,是分散程度的測度。表示極差的大小重新用來衡量,這就是重標極差法的名字的由來。
R/S法可以用于統(tǒng)計分析可用來研究一大類問題,對于方差發(fā)散或有長期記作用的隨機過程都適用。下面是R/S分析的具體過程。
考慮一個收益率序列,,…,。偏離均值的累積和為:
(1)
其中,是n期的累積偏差,是n期的平均值。
n個數(shù)據(jù)的極差就是式(1)最大和最小值之差:
={}-{}(2)
其中,是X的極差。
為了比較不同類型的時間序列,用極差除以標準差(即重標極差)得到:
=(3)
其中,
重標極差應該隨時間而增加。
Hurst建立了以下關系:
R/S=a*(4)
其中,a為常數(shù)。
如果序列是一個隨機序列,H應該等于0.5,即累積離差的極差應該隨時間的平方根增加。一般地,H不等于0.5,可這樣求出:
對式(4)兩邊先取對數(shù)得:
ln(R/S)=Hlnn+lna(5)
因此可畫出ln(R/S)和lnn的雙對數(shù)圖,做二元回歸擬合。
直線的斜率就給出了Hurst指數(shù)的一個估計,截距就是ln(a)的一個估計
其中H即是Hurst指數(shù),a為相關系數(shù)。
當H=0.5時,過去和未來增量間的相關系數(shù)為0,表明現(xiàn)在不影響未來,這說明增量過程是一個獨立的隨機過程,布朗運動是其特殊情況。
當H≠0.5時,為分數(shù)布朗運動。此時,增量之間不再相互獨立。但是這個過程與馬爾科夫過程所具有的短期記憶行為不同,分數(shù)布朗運動的記憶作用是長期的。(而且長期記憶只與Hurst指數(shù)的大小有關,沒有標度性,因此它具有分形的特征)H值指示了這種長期記憶作用的特性。
①0.5<H<1,有持久性效應。表明過去一直增長意味著未來這種趨勢將繼續(xù)下去,而且對任意大的時間t都是如此。反之,過去的減少趨勢就平均而言,意味著未來的連續(xù)減少。H越接近1,趨勢越明顯;H越接近0.5,逐漸趨于隨機性。這種長期記憶作用使得隨機過程呈現(xiàn)一定的趨勢,增量間有一定的正相關性,。絕大多數(shù)資本市場都符合持久性時間序列特征。
②0<H<0.5,增量間是負相關的,稱為反持久性效應(antipersistent)。如果過去是增長的,則下一時刻下降的可能性更大;反之,過去是下降的,則下一時刻上升的可能性更大。反持久性效應的強度取決于H接近0的程度。H越接近0,則C越接近-0.5,負相關性越強。
我們知道,證券的指數(shù)、價格等都是一個時間序列,可以用以上辦法計算出Hurst值,如果Hurst值大于0.5,說明系統(tǒng)存在分形的特征。
1.2.3上證指數(shù)序列的Hurst值的計算
我們使用R/S法對我國上海交易所1997年5月以來的上證指數(shù)的分形特征。選取的時間區(qū)間1997.5.14到2005.8.23日作為研究的時間段,在這段時間內共有正好2000個交易日數(shù)據(jù)。
R/S分析步驟
首先對2000個收盤數(shù)據(jù)序列進行處理,設t日的收盤數(shù)據(jù)為,計算的對數(shù)收益率
=ln()-ln()(5)
為了去掉對數(shù)收益率的線性相關性,我們對進行AR(1)的自回歸得到其殘差序列:
=-(a+b)(6)
其中,a和b是回歸模型AR(1)的系數(shù),{}為殘差序列,經過回歸計算,有:
a=-0.0147,b=0.0001
選取時間增量n。對于確定的n和1999個值的{}序列,我們可以得到[1999/n]個時間段,在每個時間段我們都可以計算出對應的R與R/S,為此可以得到[1999/n]個的R/S,求這些R/S值求平均值作為在時間增量為n時的R/S估計值。我們這里將n的起始取值定為5,即1個交易周;
對所得到的結果,既n=5,6…1000的取值區(qū)域分別做ln對ln(n)的回歸,取ln(n)的參數(shù)估計作為H的估計;
結果如下圖1:
圖1
計Vn=/,VN統(tǒng)計量同樣也可以用來很好地估計非線性系統(tǒng)長期記憶過程的長度。觀察序列如圖2所示,在n=308時出現(xiàn)明顯從上升轉為下降,的現(xiàn)象,可以知道n=308是一序列長期記憶的消失點。對5<n<308的這個區(qū)域做一次回歸,計算Hurst指數(shù),得到H=0.608
圖2
1.2.3R/S計算的結果分析
通過上面的計算,我們得到H=0.608,由于計算所跨越的時間長度比較長,所以這個H值稍微小于國外的一些證券市場利用R/S法計算出的Hurst指數(shù)值,并不說明我國的市場成熟度比國外市場來的更佳。一般的,系統(tǒng)的分形維數(shù)為2H,可見上海指數(shù)從1997年5月14日以來的指數(shù)序列是具有分形特征和持續(xù)性的,上證指數(shù)的時間序列的確存在著混沌現(xiàn)象。因此,我們知道上證指數(shù)不是隨機變化的,而是一個有偏的隨機游走,不完全屬于EMH理論分析的有效市場,而是在一定時期內相關的。
既然上證指數(shù)具有分形市場的特點,那么我們是否能夠在此基礎上對其走勢進行分析和預測呢。
第二章利用神經網絡對具有分形特征的時間數(shù)列進行預測
第一節(jié)常用的混沌時間序列分析預測方法
由于混沌時間序列不是完全的隨機游走,而是有偏的,所以我們可以利用
這個特點對混沌時間序列進行預測。
通常的做法是根據(jù)實際問題正確地建立描述系統(tǒng)的動態(tài)數(shù)學模型,然后求解
這個數(shù)學模型,最后反過來根據(jù)計算結果進行預測,傳統(tǒng)的預測方法主要有動力學方法和數(shù)理統(tǒng)計方法,這些方法的共同特點是先建立數(shù)據(jù)序列的主觀模型,然后根據(jù)主觀模型進行計算和預測。常用的建立模型的方法主要有兩種:一是時間序列關系模型,在這類的模型中被預測的對象的演變過程為一時間的函數(shù);另一種是結構關系模型這類模型的特點是被預測的事物與其影響因素之間在一定的時間內保持著某種固定的函數(shù)結構關系。
混沌時間序列預測的常用方法:全域法、局域法、加權零階局域法、加權一階局域法、基本李雅普諾夫指數(shù)的時間序列預測方法等。
時間序列關系模型與結構關系模型一般對被預測對象都有具體而且嚴格的要求這就要求我們在做預測之前必須對被預測對象做深入系統(tǒng)的分析只有在確認某類預測模型的前提條件得到滿足的情況下才可以使用該模型進行預測否則預測結果是不可靠的股票市場作為現(xiàn)實經濟運行狀況的直接體現(xiàn)其影響因素如GDP增長率匯率及國內外政治形勢等時常發(fā)生較大的變動所以要確定和修改模型的結構確非易事。另一方面一般計量統(tǒng)計的時間序列模型很難處理高度非線性的問題而實際上股票市場與其影響因素之間存在著復雜的非線性關系已有大量的實際數(shù)據(jù)表明股票市場是一個具有混沌現(xiàn)象的非線性動力系統(tǒng)
隨著混沌科學的發(fā)展,使得可以不必事先建立主觀模型,而直接根據(jù)數(shù)據(jù)序列本身所計算出來的客觀規(guī)律(如李雅普諾夫指數(shù)等)進行預測,這樣可以避免預測的人為主觀性,提高頂測的精度和可信度。
近年來,由于計算機與人工智能技術的飛速發(fā)展,為股票市場建模預測中新技術新方法的應用提供了有利的條件。人工神經網絡(ArtificialNeuralNetworks,簡稱ANN)是由大量簡單的處理單元——神經元按照某種方式聯(lián)結而成的自適應的非線性系統(tǒng)。它的每一個神經元的結構和功能都很簡單,其工作是“集體”進行的,它沒有運算器、存儲器、控制器,其信息是存儲在神經元之間的聯(lián)結上的,它是一種模仿人腦的神經系統(tǒng)結構和功能的物理可實現(xiàn)系統(tǒng)。
因為人工神經網絡廣泛的適應能力、學習能力和映射能力,在多變量非線性系統(tǒng)的建模方面取得了驚人的成就,成為新興的預測時間序列的方法。人工神經網絡模型具有巨量并行性,存儲分布性,結構可變性,高度非線性,自學習性和自組織等特點,而且可以逼近任何連續(xù)函數(shù),目前廣泛應用神經網絡作為非線性函數(shù)逼近模型。ANN的最大優(yōu)點是不需依賴于模型,所以非常適合用于股票市場的預測,因為股票股市的建模與預測所處理的信息量往往十分龐大,對算法有很高的要求.它的非線性動力學特性非常復雜,所以一般傳統(tǒng)的方法對于股市的預測往往難如人意。
因此,我們選取了人工神經網絡作為預測上證指數(shù)的工具。
第二節(jié)神經網絡的基本原理
2.2.1人工神經網絡的歷史
20世紀50年代末F.Rosenblatt提出了著名的感知機Perceptron模型這是第一個完整的神經網絡這個模型由閾值單元構成初步具備了諸如并行處理分布存儲和學習等神經網絡的一些基本特征從而確立了從系統(tǒng)的角度研究神經網絡的基礎。1960年B.Windrow和M.E.Hoff提出了自適應線性單元Adaline網絡它可用于自適應濾波預測和模式識別從20世紀50年代末到60年代初神經網絡的研究受到人們的重視研究工作進入了一個高潮。芬蘭學者T.Kohonen提出的自組織影射理論、美國S.A.Grossberg提出的自適應共振理論、日本學者福島邦彥K.Fukushima提出了認知機Neocognitron模型等研究成果對以后神經網絡的研究和發(fā)展都產生了重要影響。
進入20世紀90年代神經網絡的研究又引起了眾多學科領域學者的關注并很快形成了熱潮其主要原因是以邏輯推理為基礎的人工智能理論和Von.Neumann計算機在處理諸如視覺聽覺形象思維聯(lián)想記憶和運動控制等智能信息處理問題上受到了挫折具有并行和分布機制的神經網絡本身的研究成果以及腦科學和神經科學研究成果的推動作用以及VLSI技術和光電技術的發(fā)展為神經網絡的實現(xiàn)提供了物質基礎由于以上原因使人們產生了一個共識即神經網絡可能成為未來智能機良好的模式。
1982年美國加州理工學院生物物理學家J.J.Hopfield提出了一個新的神經網絡模型Hopfield網絡模型首次引入了網絡能量函數(shù)的概念并給出了網絡穩(wěn)定的判據(jù)1984年他又提出了實現(xiàn)網絡模型的電子電路為神經網絡的工程實現(xiàn)指明了方向Hopfield的研究成果開拓了神經網絡用于聯(lián)想記憶和優(yōu)化計算的新途徑引發(fā)了神經網絡研究的又一次熱潮并為神經計算機的研究奠定了基礎1984年Hinton等人將模擬退火算法引入到神經網絡中提出了Boltzmann機(BM)模型網絡BM網絡算法為神經網絡優(yōu)化計算跳出局部極小提供了一個有效的方法。①
迄今為止的神經網絡研究大體上可分為三個大的方向
(1)探求人腦神經系統(tǒng)的生物結構和機制這實際上是神經網絡理論的初衷
(2)用微電子學或光學器件形成特殊功能網絡這主要是新一代計算機制造領域所關注的問題
(3)將神經網絡理論作為一種解決傳統(tǒng)方法無法或難以解決的某些問題的手段和方法
人工神經網絡是由大量簡單的處理單元——神經元按照某種方式聯(lián)結而成的自適應的非線性系統(tǒng)。它的每一個神經元的結構和功能都很簡單,其工作是“集體”進行的,它沒有運算器、存儲器、控制器,其信息是存儲在神經元之間的聯(lián)結上的,它是一種模仿人腦的神經系統(tǒng)結構和功能的物理可實現(xiàn)系統(tǒng)。
鑒于神經網絡的并行處理及強大的非線性映射能力,即它可以把許多非線性信號的處理方法及工具集成起來,對于未知的動力系統(tǒng),可以通過它來學習很池時間序列,然后進行預測和控制。由于混純時間序列在內部有著確定的規(guī)律性,這種規(guī)律性產生于非線性,它表現(xiàn)出時間序列在時間延遲狀態(tài)空間中的相關性,這種特性使得系統(tǒng)似乎有著某種記憶能力,同時又難于用通常的解析方法把這種規(guī)律表達出__________________________________
①1焦李成,《神經網絡系統(tǒng)理論》西安電子科技大學出版社1990年
來。而這種信息處理方式正好是神經網絡所具備的。
2.2.2神經網絡的特點
神經網絡在信息處理的很多方面具有比傳統(tǒng)的方法更明確的優(yōu)勢主要表現(xiàn)在以下幾個方面
(1).可避免數(shù)據(jù)的分析工作和建模工作
通過觀測樣本神經網絡完全能夠發(fā)現(xiàn)其隱含的信息,經過學習神經網絡建立一個規(guī)則。該規(guī)則最小程度地受到人為的支配這樣就避免了或大大減少了常用的數(shù)據(jù)分析工作和建模工作,而且在沒有關于信號結構先驗知識的前提下取得優(yōu)良的性能,例如神經網絡在語音圖象處理編碼壓縮聲納手寫識別等領域的應用已取得了甚至超過了傳統(tǒng)方法經過幾十年研究所取得的成果。
(2)信息的并行結構和并行處理
神經網絡與人的大腦類似不但結構上是并行的,它的處理順序也是并行的。在同一層內的處理單元都是同時操作的,即神經網絡的計算功能分布在多個處理單元上。而一般計算機通常只有一個處理單元其處理順序是串行的。目前的神經網絡功能常常用一般的串行工作方式來模擬它的并行處理方式。所以顯得很慢而真正的神經網絡將會大大提高處理速度并能實現(xiàn)實時處理方。.
(3)自適應的信息處理方式
人類具有很強的適應外部環(huán)境的能力,神經網絡也可以通過學習具備這種能力。這種自適應一般包括四個方面學習性、自組織性、推理能力和可訓練性。
(4)完成復雜的輸入/輸出的非線性映射
信息處理的大部分問題可歸結為數(shù)學影射,給定一個輸入矢量X經過信息處理系統(tǒng)可得到一個所要求的輸出矢量Y,Y=f(X)。函數(shù)可以解析表達也可以是非解析的。Kolmogrov定理保證了任一連續(xù)函數(shù)或映射可由一個三層神經網絡實現(xiàn)此神經網絡的輸入層包含N個神經元隱含層具有2N+1個神經元,輸出層M個神經元即可實現(xiàn)該函數(shù)。根據(jù)Kolmogrov神經網絡映射存在定理,通過選擇一定的非線性和連接強度調節(jié)規(guī)律,我們就可解決任何一個信息處理問題。
5.信息存儲與處理合而為一
與傳統(tǒng)的信息處理方式不同,神經信息處理系統(tǒng)運行時,存儲與處理是兼而有之的,而不是絕對分離的。經過處理信息的隱含特征和規(guī)則分布與神經元之間的連接強度上通常有冗余性,這樣當不完全信息或含噪聲信息輸入時神經網絡就可以根據(jù)這些分布式的記憶對輸入信息進行處理,恢復全部信息。同時這種合二為一的方式從本質上消除了軟件和算法的瓶頸效應提供了實現(xiàn)高速信號處理的手段。
由于神經網絡具有以上描述的幾個特點,并且已經被開始運用于各個行業(yè)的時間序列預測之中,所以本文試圖利用遺傳神經網絡預測方法,以混沌動力學的相空間重構技術為思想基礎,以上證指數(shù)收盤價序列為主體,通過使用此時間序列重構股票指數(shù)的相空間保存股票指數(shù)混沌吸引子的性質,并且利用遺傳神經網絡的非線性函數(shù)逼近特性來求出股票指數(shù)的非線性方程,利用神經網絡模型對股票未來指數(shù)趨勢進行預測。混沌時間序列分析的基礎是重構相空間,混沌時間序列的預測問題可以理解成動力系統(tǒng)研究的“逆問題”。通過股票價格時間序列重構股票市場非線性動力系統(tǒng),給定相空間中的一串迭代序列,構造一個非線性映射來表示這一動力系統(tǒng),此非線性映射就可作為預測模型。
逼近此非線性映射可采用局部線性模型,全局多項式模型,前饋神經網絡模型(BP),徑向基函數(shù)模型(RBF),小波神經網絡等。
2.2.3神經網絡的基本原理
1.人工神經元模型
圖3
圖3所表示的是一個基本的人工神經元的結構模型,它有下列幾個基本要素
(1)組連接對應于生物神經元的突觸連接強度由連接線上的權值給出權值為正的表示激活為負的表示抑制
(2)一個求和單元用于求取n個輸入信號的加權和線性組合
(3)一個非線性變換函數(shù)起非線形映射作用并將神經元輸出幅度限制在一定范圍之內一般限制在[0,1]或[-1,1]之間
(4)一個閾值
以上可分別用數(shù)學公式表示出來
式中為輸入信號;為神經元i的權值;為線性組合結果;為閾值;為變換函數(shù);為神經元i的輸出
變換函數(shù)可以有幾種形式,如閾值函數(shù)、分段線性函數(shù)、sigmoid函數(shù)等。最常見的sigmoid函數(shù)形式是:
其中參數(shù)a控制其斜率.
2.神經網絡的結構
從連接方式來看NN主要分為下列兩種:
(1)前饋型網絡
各神經元接受前一層的輸入并輸出給下一層沒有反饋,連接點分為兩類即輸入單元和計算單元。每一計算單元可有任意個輸入但只有一個輸出,它可耦合到任意多個其它結點作為輸入。通常前饋網絡分為不同的層,第i層的輸入只與第i-1層的輸出相連,輸入和輸出結點與外界相連,而其它中間層則稱為隱層。
(2)反饋網絡
所有結點都是計算單元同時也可接受輸入,并向外界輸出。這種網絡可以畫成一個無向圖,其中每條連接線都是雙向的。
其中前饋網絡最典型,前饋網絡方法NN的工作過程主要分為兩個階段:第一個階段是學習期,此時每個計算單元的狀態(tài)不變而各條連接線上的權值可通過學習來修改。第二階段是工作期,此時n個連接權固定而計算單元的狀態(tài)發(fā)生變化以達到某種穩(wěn)定狀態(tài)。
從作用效果來看,前饋網絡主要是函數(shù)映射,可用于模式識別和函數(shù)逼近;反饋網絡則主要用于求解最優(yōu)化問題。
3.神經網絡的學習
通過向環(huán)境學習以獲取知識并改進自身性能是NN的一個重要特點。
在一般情況下性能的改善是在某種預定的度量標準下,通過逐步調節(jié)自身參數(shù)如權值而達到的。神經網絡的學習主要含括兩部分內容,即學習方式與學習算法。
神經網絡的學習方式有下列三種
監(jiān)督學習有教師學習
非監(jiān)督學習無教師學習
在勵學習或強化學習
其中監(jiān)督學習的方式需要外界存在一位教師,他對一組給定的輸入提供應有的輸出結果正確答案。這組已知的輸入輸出數(shù)據(jù)就是訓練樣本集。學習系統(tǒng)NN可以根據(jù)已知輸出與實際輸出之間的差值誤差信號來調節(jié)系統(tǒng)參數(shù)。
神經網絡最常用的學習算法是誤差糾正算法,下面是其算法過程。
令表示輸入x(n)時神經元在i時刻n的實際輸出;表示相應的應有輸出(由訓練樣本給出)則誤差信號可寫成:
=-
誤差糾正學習的目的是使某一基于的目標函數(shù)達到最小,使得網絡中每一輸出單元的實際輸出在某種統(tǒng)計意義上最佳逼近于應有輸出。一旦選定了目標函數(shù)的形式誤差糾正學習就成為一個典型的最優(yōu)化問題最常用的目標函數(shù)是均方誤差判據(jù)可定義為:
其中E是求期望算子。將上式直接作為目標函數(shù)時,需要知道整個過程的統(tǒng)計特性。為克服這一困難,通常用J在時刻n的瞬時值代替J,即:
=1/2
這樣問題就變?yōu)楹瘮?shù)對權值向量(為自變量) 求最小值。具體計算可用梯度下降法。若在第n步迭代中當前的權值向量為w(n),函數(shù)的梯度?是在w(n)處的一階導數(shù)矩陣,則沿負梯度方向即??方向,是減少最快的方向因此第n+1步的權值迭代公式為:
其中為學習步長。
第三節(jié)基于BP算法的三層向前的神經網絡
由于在我們選取了基于BP算法的神經網絡作為預測指數(shù)的模型,在這里必須對該模型做一個了解。
2.3.1多層次的神經網絡
多層前饋網絡結構含一個輸入層一個輸出層以及若干個隱含層隱含層的變換函數(shù)一般為非線性函數(shù)輸出層的變換函數(shù)可以是非線性的也可以是線性的在這里隱含層和輸出層的變換函數(shù)都采用函數(shù)形式sigmoid將影響股指的各因素輸入至輸入層并傳至后面的隱含層最后通過連接權輸出到輸出層。
多層前饋網絡的典型結構如下圖所示
圖4多層神經網絡模型圖
2.3.2BP網絡的基本原理
圖5BP網絡模型結構圖
基于BP算法的三層向前神經網絡結構,一般是一3層或者3層以上的的神經網絡,包括輸入層,中間層(隱層)和輸出層。上下層之間實現(xiàn)全連接,而每層單元之間無連接,。當一學習樣本提供給網絡之后,神經元的激活值從輸入層經中間層想輸出層傳播,在輸出層的各個神經原獲得網絡的餓輸入響應。節(jié)下來,按照減小目標輸出與實際誤差的方向,從輸出層經過中間層逐層修正各連接權值,最后回到輸入層。這個算法就是所謂“逆無償傳播算法”,也就是BP算法。隨著這種逆誤差的傳播修正不斷進行,網絡輸入模式響應的正確率也不斷上升。
BP網絡的傳遞函數(shù)要求是可微的,所以不能使用二值函數(shù),常用的有sigmoid型對數(shù),正切函數(shù)或者線形函數(shù)。由于傳遞函數(shù)是處處可微的,所以對于一個BP網絡來說,一方面,所劃分的區(qū)域不再是一個線形劃分,而是一個非線形的超平面組成的區(qū)域。它是比較平滑的曲面,所以它的分類比線形劃分更加精確,容錯性也比線形劃分更好,另一方面,網絡可以嚴格采取剃度下降的學習方法,權值修正的解析式十分明確。
Funahashi證明,當隱層節(jié)點函數(shù)為單調遞增連續(xù)函數(shù)時,三層前向網絡具有以任意精度逼近定義在緊致子集上的任意非線性函數(shù)的能力,Hornik進一步證明隱層節(jié)點函數(shù)有界是必要的,單調遞增的條件是非必要。這說明采用三層BP網絡,隱節(jié)點函數(shù)為Sigmoid函數(shù),輸出節(jié)點函數(shù)采用線性函數(shù),完全可以達到網絡逼近的要求。也就是說,單隱層的的BP網絡可以逼近任意的非線形映射,只要隱層神經單元的個數(shù)是可以隨意調節(jié)的。①
因此,我們試驗用單隱層的BP網絡來逼近上證指數(shù)走勢曲線的方式來預測上證指數(shù)未來的變化,同時對原始的神經網絡模型做一些改進。
第三章對BP神經網絡的改進
第一節(jié)BP網絡的缺陷
在神經網絡的應用過程中,由于被逼近樣本的性質不能精確知道,因此即使在網絡誤差為零的條件下,也未必能保證達到要求。往往會出現(xiàn)非常小,而卻無法滿足要求。這就是所謂的“過擬合”現(xiàn)象,“過擬合”現(xiàn)象直接影響網絡的泛化能力,使得網絡最終失去實用價值。
網絡的泛化能力由以下幾個因素影響:
1.取決樣本的特性,只有當訓練樣本足以表征所研究問題的一些主要的或基本性時,網絡通過合理的學習機制可以使其具有泛化能力,合理的采樣結構是網具有泛化能力的必要條件。
2.網絡自身的因素影響,如網絡結構、網絡初始權值的設定和網絡的學習算法等。網絡的結構主要包括:網絡的隱層數(shù)、各隱層節(jié)點的個數(shù)和隱節(jié)點激活函數(shù)的特性,以下從這幾個方面說明原因:
①.采用三層BP網絡,隱節(jié)點函數(shù)為Sigmoid函數(shù),輸出節(jié)點函數(shù)采用線性函數(shù),完全可以達到網絡逼近的要求?!斑^擬合”現(xiàn)象是網絡隱節(jié)點過多的必然結果,它的出現(xiàn)影響了網絡的泛化能力,在滿足精度的要求下,逼近函數(shù)的階數(shù)__________________________________
①魏海坤,《神經網絡機構設計的理論和方法》國防工業(yè)出版社2005年
越少越好,低階逼近可以有效防止“過擬合”現(xiàn)象,從而提高網絡的預測能力,反映到多層前向神經網絡中,就是在精度滿足的要求下,網絡的隱節(jié)點數(shù)越少越好。但是在實際應用中,還沒有一套成熟的理論方法來確定網絡的隱節(jié)點,隱節(jié)點的確定基本上依賴經驗,主要式采用遞增或遞減的試探方法來確定的網絡隱節(jié)點。
②.網絡的初始權值的選擇缺乏依據(jù),具有很大的隨機性,這也在很大程度上影響網絡的泛化能力。神經網絡連接權值的整體分布包含著神經網絡系統(tǒng)的全部知識,傳統(tǒng)的權值獲取方法都是隨機給定一組初始的權值,然后是采用某個確定的變化規(guī)則,在訓練中逐步調整,最終得到一個較好權值分布。由于BP算法是基于梯度下降方法,不同的初始權值可能會導致完全不同的結果。一旦取值不當,就會引起網絡振蕩或不收斂,即使收斂也會導致訓練時間增長,再加之實際問題往往是極其復雜的多維曲面,存在多個局部極值點,使得BP算法極易陷入局部極值點。這些導致BP神經網絡訓練時間過長而最終得不到適當?shù)臋嘀捣植?,從而影響網絡的泛化能力,極大的限制了神經網絡在實際預報中的應用。
③.BP神經網絡算法收斂慢,即使一個相當簡單的問題求解,其訓練次數(shù)也要幾百或幾千次迭代。而且網絡對各種參數(shù)(包括初始權值、學習速率、動量參數(shù))極為敏感,稍小的變動就會引起擬合和泛化能力的振蕩,在反復實驗中確定各種參數(shù),這樣的過度訓練會提高網絡的擬合能力,同時也擬合了訓練數(shù)據(jù)中的噪聲和訓練樣本中沒有代表行的特征,最終導致過擬合現(xiàn)象,從而影響網絡的擬合能力。
進一步的研究很快發(fā)現(xiàn)誤差反傳算法BP算法存在著缺陷由于該算法采用誤差導數(shù)指導學習過程從本質上來說是屬于局部尋優(yōu)法在存在較多局部極小點的情況下容易陷入局部極小點且不可避免地存在著學習速度與精度之間的矛盾當學習速度較快時學習過程容易產生振蕩難以得到精確的結果而當學習速度較慢時雖然結果可以得到較高的精度但學習周期太長也不實用。
為了改進BP算法的這些缺陷,本人試用了一些輔助方法,希望通過這些辦法提高單純BP神經網絡的泛化能力,提高預測的長度和精度。具體方法如下文。
第二節(jié)與BP算法相結合的遺傳算法
3.2.1遺傳算法簡介
1975,Michigan大學Holland教授根據(jù)自然界“適者生存,優(yōu)勝劣汰”的規(guī)律年首次提出了遺傳算法(GA),其基本思想是力求充分模仿這一自然尋優(yōu)過程的隨機性、魯棒性和全局性,以然選擇和遺傳理論為基礎,將生物進化過程中適者生存規(guī)則與群體內部染色體的隨機信息交換機制相結合的搜索算法。這是一種新型的全局優(yōu)化搜索算法,因為其直接對結構對象進行操作,不存在求導和函數(shù)連續(xù)性的限定,魯棒性強、隨機性、全局性以及適于并行處理,已廣泛應用于神經網絡、計算機科學、優(yōu)化調度、運輸問題、組合優(yōu)化、機器學習、信號處理、自適應控制和人工生命等領域,并且遺傳算法在實際應用中也取得了巨大成功。
從搜索角度來看,遺傳算法具有許多獨特的優(yōu)點:
1.遺傳算法從問題解的中集開始嫂索,而不是從單個解開始。這是遺傳算法與傳統(tǒng)優(yōu)化算法的極大區(qū)別。傳統(tǒng)優(yōu)化算法是從單個初始值迭代求最優(yōu)解的;容易誤入局部最優(yōu)解。遺傳算法從串集開始搜索,復蓋面大,利于全局擇優(yōu)。
2.遺傳算法求解時使用特定問題的信息極少,容易形成通用算法程序。由于遺傳算法使用適應值這一信息進行搜索,并不需要問題導數(shù)等與問題直接相關的信息。遺傳算法只需適應值和串編碼等通用信息,故幾乎可處理任何問題。
3.遺傳算法有極強的容錯能力遺傳算法的初始串集本身就帶有大量與最優(yōu)解甚遠的信息;通過選擇、交叉、變異操作能迅速排除與最優(yōu)解相差極大的串;這是一個強烈的濾波過程;并且是一個并行濾波機制。故而,遺傳算法有很高的容錯能力。
4.遺傳算法中的選擇、交叉和變異都是隨機操作,而不是確定的精確規(guī)則。這說明遺傳算法是采用隨機方法進行最優(yōu)解搜索,選擇體現(xiàn)了向最優(yōu)解迫近,交叉體現(xiàn)了最優(yōu)解的產生,變異體現(xiàn)了全局最優(yōu)解的復蓋。
5.遺傳算法具有隱含的并行性
3.2.2遺傳算法的基本原理
GA以生物進化過程為背景,模擬生物進化的步驟,將繁殖、雜交、變異、競爭和選擇等概念引入到算法中,通過維持一組可行解,并通過對可行解的重新組合,改進可行解在多維空間內的移動軌跡或趨向,最終走向最優(yōu)解。它克服了傳統(tǒng)優(yōu)化方法容易陷入局部極值的缺點,是一種全局優(yōu)化算法。遺傳算法的步驟如下:
(1)定義一個目標函數(shù)
(2)將可行解群體在一定的約束條件下初始化,每一個可行解用一個向量x來編碼,稱為一條染色體,向量的分量代表基因,它對應可行解的某一決策變量;
(3)計算群體中每條染色體(i=1,2,…,n)所對應的目標函數(shù)值,并以此計算適應值,按的大小來評價該可行解的好壞;
(4)以優(yōu)勝劣汰的機制,將適應值差的染色體淘汰掉,對幸存的染色體根據(jù)其適應值的好壞,按概率隨機選擇,進行繁殖,形成新的群體;
(5)通過雜交和變異的操作,產生子代。雜交是隨機選擇兩條染色體(雙親),將某一點或多點的基因互換而產生兩個新個體,變異是基因中的某一點或多點發(fā)生突變;
(6)對子代群體重復步驟(3)~(5)的操作,進行新一輪遺傳進化過程,直到迭代收斂(適應值趨穩(wěn)定)即找到了最優(yōu)解或準最優(yōu)解。
GA中最常用的算子有如下幾種:
(1)選擇算子(selection/reproduction):選擇算子從群體中按某一概率成對選擇個體,某個體xi被選擇的概率Pi與其適應度值成正比。最通常的實現(xiàn)方法是輪盤賭(roulettewheel)模型。
(2)交叉算子(Crossover):交叉算子將被選中的兩個個體的基因鏈按概率pc進行交叉,生成兩個新的個體,交叉位置是隨機的。其中Pc是一個系統(tǒng)參數(shù)。
(3)變異算子(Mutation):變異算子將新個體的基因鏈的各位按概率pm進行變異,對二值基因鏈(0,1編碼)來說即是取反。
上述各種算子的實現(xiàn)是多種多樣的,而且許多新的算子正在不斷地提出,以改進GA的某些性能。系統(tǒng)參數(shù)(個體數(shù)n,基因鏈長度l,交叉概率Pc,變異概率Pm等)對算法的收斂速度及結果有很大的影響,應視具體問題選取不同的值。①
3.2.3遺傳算法與傳統(tǒng)BP神經網絡的結合
遺傳算法在神經網絡中的應用主要反映在3個方面:網絡的學習,網絡的結構設計,網絡的分析。
其中,遺傳算法可以用于神經網絡的網絡的學習里。這時,它在兩個方面起作用:
(1)學習規(guī)則的優(yōu)化
用遺傳算法對神經網絡學習規(guī)則實現(xiàn)自動優(yōu)化,從而提高學習速率。
(2)網絡權系數(shù)的優(yōu)化
用遺傳算法的全局優(yōu)化及隱含并行性的特點提高權系數(shù)優(yōu)化速度。
我們知道GA算法優(yōu)異于BP算法的地方在于,它不容易陷于局部極小值,尤其在誤差函數(shù)不可微或完全沒有梯度信息的條件下。但是遺傳算法也存在著不足,當遺傳搜索迅速找到最優(yōu)解附近時,無法精確地確定最優(yōu)解的位置.也就是說.它在局部搜索空間不具備微調能力。而且,如何選取遺傳算法的參數(shù),才能帶到最優(yōu)的效果并不容易確定。而BP算法具有簡單和可塑的優(yōu)點,但是BP算法是基于梯度的方法,這種方法的收斂速度慢,且常受局部極小點的困擾。
因此,我們可以充分發(fā)揮遺傳算法和BP算法的處.將兩者相結合,用于來訓練
神經網絡的的權值的權重和學習神經網絡的拓樸結構,而最主要的是學習神經網絡的權重。在計算機技術高速發(fā)展的今天,這個方法已經成為可行。
本文設計的利用GA算法優(yōu)化BP算法權值的GA-BP算法如下:
設有三層BP網絡。
隨機產生N組在不同實數(shù)區(qū)間內取值的初試網絡權值。
(2)用BP算法對這N組初試權值分別進行預訓練,若經過訓練后這N組權值中至少已有一組滿足精度要求,則算法結束;否則轉入步驟(3)。
(3)分別依據(jù)經過上述N組權值所對應的上下限確定取值區(qū)間,在區(qū)間內__________________________________
①魏海坤,《神經網絡機構設計的理論和方法》國防工業(yè)出版社2005年
隨機生成r×N組新的權值,連同經過訓練的N組權值一起,構成完整的基因群體,共(r+1)×N組權值。
(4)對于這(r+1)×N組權值進行選擇、交叉、變異等遺傳操作。
(5)如果經過步驟(4)的操作已至少得到一組滿足精度要求的權值,則算法結束;否則從經過遺傳操作的這(r+1)×N組權值中選出N組較好的,回復到步驟(2)。
第三節(jié)在樣本輸入中添加隨機噪聲
在樣本輸入里添加隨機噪聲的目的是為了防止神經網絡訓練造成的過擬合現(xiàn)象,改善神經網絡的泛化能力。當噪聲的標準差比較小的時候,樣本輸入噪聲的方法類似神經網絡的正則化設計,正則化系數(shù)與噪聲的標準差相關。樣本輸入里添加隨機噪聲的方法可以用于BP,RBF等神經網絡里。
在BP學習算法里中樣本輸入插入噪聲的方法如下:
從N個訓練樣本里隨機選擇一個樣本=(,)
根據(jù)密度函數(shù)ρ(ξμ)得到樣本輸入的噪聲矢量
令Z=(Xμ+ξμ,Yμ)
對于批處理的學習方式,每一輪次的訓練時,所有樣本輸入均應按上述方式加入隨機噪聲。輸入噪聲的密度函數(shù)ρ(ξμ)通??梢赃x擇均值為零的高斯分布或者均勻分布。
在輸入樣本中添加噪聲后,在輸入噪聲的作用下,訓練誤差不會象不輸入噪聲那樣單調下降,事實上,當馴良的數(shù)據(jù)被循環(huán)作為網絡的輸入時,由于每次添加的噪聲值不同,迫使神經網絡無法精確的擬合訓練數(shù)據(jù),防止了過擬合,從而使噪聲起到平滑作用。
由于每次加入的噪聲不同,訓練的結果可能與目標函數(shù)存在比較大的誤差,可以采用多次訓練,對其結果取平均值的方法來得到最小的測試標準差,多次訓練的方法在一定程度也減小了神經網絡預測的不確定性。
我們以用神經網絡訓練目標函數(shù)為y(x)=sin(3(x+0.8))為例說明添加噪聲的效果,訓練樣本和測試樣本的產生方式如下:訓練樣本數(shù)15個,輸入?yún)^(qū)間為{-1,1}內的等間隔點。添加噪聲,噪聲服從均值為0,標準差為0.1的正態(tài)分布,測試樣本數(shù)為201個,其輸入的也為[-1,1]內的等間隔點,泛化誤差定義為訓練后的神經網絡對所有測試樣本的誤差平方和。
為了全面比較和說明添加噪聲和不添加噪聲馴良的性能差別,我們將良種方法均進行100次測試,測試中除了添加噪聲與否外,其他所有條件完全相同(包括網絡結構,數(shù)據(jù)中心,權參數(shù)初始值等。記錄兩種方法得到的神經網絡的訓練誤差和測試誤差的均值和標準差,如下表所列:
無輸入噪聲
添加輸入噪聲
平均訓練誤差
0.2412
3.1552
訓練誤差標準差
0.3857
1.3569
平均測試誤差
25.4992
17.9888
測試誤差標準差
9.6339
8.4818
表1
從訓練結果上觀察,添加噪聲后得到的神經網絡的泛化誤差比不添加噪聲
所訓練出的神經網絡泛化誤差小的多,可見添加噪聲的訓練方法對改善神經網絡的泛化能力的效果還是很明顯的。而且經過實驗證明,一定次數(shù)的訓練后,神經網絡輸出的平均值將收斂。
第四節(jié)多個神經網絡集成預測
一般常見的神經網絡預測中,都是只采用一個單個神經網絡進行訓練和學習,訓練樣本一般也選取在距離測試樣本比較接近的區(qū)間。本文作者在初步研究了利用神經網絡對證券指數(shù)進行分析的基本原理后有了不同的想法。從分形市場的的基本理論里我們看到,分形市場理論認為投資人的決策是有以來歷史經驗的,價格具有一定記憶性;信息的傳播是非均衡的,市場價格反映出的是投資人偏好的信息。市場由眾多投資者組成,他們具有不同的投資時間尺度,如長線的或者短線的,這使他們有著不同的投資行為。
因此,對于某一時期證券指數(shù)的變化以及其他市場信息的評估,不同的投資人將有各不相同的的結果,對于各個投資人多依賴的歷史經驗也是不同。比如說一個在90年代初入市的投資人,可能會因為對上證指數(shù)94年下探到325點的行情具有深刻的印象而容易對市場的未來走勢做出相對謹慎的判斷;而一個剛剛入市就經歷了“5.19”行情的投資人卻可能對未來的市場保持樂觀的看法。而只使用一個神經網絡來擬合指數(shù)變動的曲線,就隱含的認為所有投資人都是按照訓練樣本所在時間段的經驗進行判斷的,所有的投資人用同一個投資時間尺度來進行各自的投資行為,這是并不是一個符合分形市場的行為。
因此,如果我們使用多個神經網絡同時進行預測,每一個預測模型都可能提供某些別的模型不能提供的信息,幾種模型結合起來所得的預測結果所包含的信息將比某一個模型預測結果包含的信息更多,所以預測結果也會相對更準確。
為了改進這個缺陷,本文作者嘗試采用了訓練多個不同訓練樣本的神經網絡進行同一測試樣本的預測。我們可以在長期的時間序列里,選取n個等長的時間序列,將每個序列(i=1..n)作為訓練樣本進行訓練,得到n個不同的神經網絡。將測試的樣本同時輸入這n個神經網絡進行模擬,我們可以得到n個結果(i=1..n).
1993年,Perrone和Cooper證明,在將神經網絡集成用于回歸估計時,如果采用簡單平均,且各網絡的誤差是期望為0且互相獨立的隨機變量,則集成的泛化誤差為各網絡泛化誤差平均值的1/N,其中N為集成中網絡的數(shù)目;如果采用加權平均,通過適當選取各網絡的權值,能夠得到比采用簡單平均法更好的泛化能力①
所以,本文也采用了對按一定的權值進行加權平均的辦法,得到最后的預測結果。這樣我們就能將測試樣本擬合到不同時期的時間序列曲線上,模擬不同人群對不同歷史時期經驗的倚重。
1995年,Krogh和Vedelsby給出了神經網絡集成泛化誤差計算公式。②假設學習任務是利用N個神經網絡組成的集成對f:RnR進行近似,集成采用加權平均,各網絡分別被賦以權值w,并滿足式11和式12:
(11) (12)
再假設訓練集按分布p(x)隨機抽取,網絡對輸入X的輸出為V(X),則神經網絡集成的輸出為:
(13)
神經網絡的泛化誤差E和神經網絡集成的泛化誤差E分別為:
(14)
(15)
各網絡泛化誤差的加權平均為:
(16)
神經網絡的差異度A和神經網絡集成的差異度分別為:
_________________________________
PerroneMP,CooplerLN.“WhenNetworksDisagree:EnsembleMethodforNeuralNetworks.”MammoneRJed.ArtificialNeuralNetworksforSpeechandVision,London:Chapman-Hall,1993,126~142.
②KroghA,VedelsbyJ.NeuralNetworkEnsembles,CrossValidation,AndActiveLearning.In:TesauroG,TouretzkyD,LeenTeds.AdvancesinNeuralInformationProcessingSystems(Volume7),1995,231~238.
(17)
(18)
則神經網絡集成的泛化誤差為:
E= - (19)
式19中的度量了神經網絡集成中各網絡的相關程度。若集成是高度偏向(biased)的,即對于相同的輸入,集成中所有網絡都給出相同或相近的輸出,此時集成的差異度接近于0,其泛化誤差接近于各網絡泛化誤差的加權平均。反之,若集成中各網絡是相互獨立的,則集成的差異度較大,其泛化誤差將遠小于各網絡泛化誤差的加權平均。因此,要增強神經網絡集成的泛化能力,就應該盡可能地使集成中各網絡的誤差互不相關。
但是從我們計算上證指數(shù)的分形特征所得到的序列上看到,在n=308的時候發(fā)生顯著的下降,說明上證指數(shù)的一個長期記憶過程大約是308個交易日,所以想得到多個互相誤差互不相關的神經網絡需要大量的交易數(shù)據(jù)。
多個神經網絡進行加權預測的具體效果將在下文中得到體現(xiàn)。
第四章實證結果及其分析
第一節(jié)神經網絡結構設計
(1)信息的表達方式
實際應用中需要將領域問題及其相應的領域知識轉化為網絡所能表達并能處理的形式即將領域問題提煉成適合網絡求解所能接受的某種數(shù)據(jù)形式。我們將連續(xù)N日的上證收盤指數(shù)直接作為訓練數(shù)據(jù)。某些研究認為神經網絡的訓練數(shù)據(jù)需要進行歸一化處理,但是通過本人的實際比較,歸一化處理的數(shù)據(jù)不能提供更好的泛化能力,反而增加了計算量,因此,輸入樣本直接為上證收盤指數(shù)。
(2)網絡模型選擇
主要包括確定激活函數(shù)聯(lián)接方式各神經元的相互作用等。這里我們采用了BP多層前饋網絡。在BP網絡上,各個神經元之間的傳遞函數(shù)有S型對數(shù)函數(shù)、雙曲正切S型傳遞函數(shù),線性傳遞函數(shù)等。本人選取了線性傳遞函數(shù)作為神經元之間的傳遞函數(shù),雖然線形函數(shù)的泛化能力比非線形函數(shù)相比較弱,但是卻具有相對比較快的訓練速度。
(3)網絡學習訓練算法
BP神經網絡的學習算法有梯度下降學習算法、梯度下降動量學習算法等。本文采用了Levenberg-Marguardt的BP訓練函數(shù)。該方法與傳統(tǒng)方法比較,需要占用較大的內存空間,但是訓練次數(shù)一般只為梯度下降算法的1%,訓練速度較快。
(4)網絡參數(shù)選擇
確定神經網絡的結構,包括多層網的層數(shù)、隱層神經元數(shù)目和輸入輸出單元的數(shù)目等。
①多層網絡的層數(shù)
由Kosmogorov定理可知一個具有三層的前向網絡能實現(xiàn)任意給定的映射,因此在大多數(shù)的涉及函數(shù)逼近的研究與應用中一般都選用結構比較簡單的三層前向網絡,本文也同樣選擇了3層的向前網絡。
②輸出層單元數(shù)目
輸出單元的數(shù)目一般依需要預測的結果而定。比如需要預測連續(xù)N天的上證指數(shù),我們就可以取輸出單元數(shù)為N.這里,由于我們要預測的是某段n個連續(xù)上證指數(shù)序列后一天的上證指數(shù),所以輸出單元數(shù)為1,即第n+1個上證指數(shù)。
③輸入層單元數(shù)目
輸入層單元的數(shù)目就是每次輸入的訓練矢量的秩。在神經網絡應用中,模型的選取尤其是輸入變量個數(shù)的選取,對預測結果的影響具有關鍵意義。大量的研究表明,經濟時問序列是混沌的。我們可以用混沌時間序列的知識來確定模型的變量個數(shù)。
通常的做法是,對給定的經濟時間序列,求出該序列的飽和嵌入維數(shù),即重構相交間的最佳嵌入維數(shù),那么這個維數(shù)就可作為構經網絡輸入變量個數(shù)的數(shù)目。這里有一定的道理,神經網絡的每個輸入就是經濟時間序列的重構相空間向量的一個分量。大量的數(shù)值實驗證實了這種方法的有效性和可靠性。
系統(tǒng)的飽和嵌入維數(shù)可以由C-C法進行估測。上海交通大學的葉中行,楊利平曾經’采用相空間重構法計測算過上證指數(shù)的飽和嵌入維數(shù)為10。①但是實際測試訓練中輸入單元數(shù)為10的效果并不是很好。經過多次測試比較,發(fā)現(xiàn)輸入單元數(shù)字在15~20之間效果較好。可以估計目前上證指數(shù)的飽和嵌入維數(shù)可以在10到20之間。最后,本人選擇了輸入單元數(shù)目為20。①
④隱層單元數(shù)目
網絡的隱層單元個數(shù)的多寡關系到網絡的泛化性,目前圍繞隱層單元個數(shù)的選取方法有很多種。比較常見的有:
_________________________________
①呂金虎陸君安,《混沌時間序列分析及其應用》2002年第一版
1)
2)=()/2
其中表示隱層單元個數(shù),表示輸入單元個數(shù),表示輸出單元個數(shù),表示一常數(shù),一般取值范圍為[1,10]。
在實際應用中,由于逼近的股票指數(shù)函數(shù)變化劇烈波動很大,所以要求調整的聯(lián)接權數(shù)很多因此隱層單元應該多一些,而且更多的隱層單元能夠提供更高的逼近精度。當然隱層單位數(shù)目并不是越多越好的。經過對測試數(shù)據(jù)的多次測試,我們選擇了第2種隱層單元數(shù)的確定方式,最終的隱層單元數(shù)為12。當隱層單元數(shù)大于12后,神經網絡的逼近精度并沒有進一步的提高,所以不需要繼續(xù)增加隱蔽層單元數(shù)目。
⑤算法工具以及樣本來源
在本文的預測和計算過程中,本人采用了Matlab6.0數(shù)學計算工具軟件。
Matlab是美國MathWorks公司自20世紀80年代中期推出的數(shù)學軟件,優(yōu)秀的數(shù)值計算能力和卓越的數(shù)據(jù)可視化能力使其很快在數(shù)學軟件中脫穎而出。Matlab已經成為線性代數(shù)、自動控制理論、概率論及數(shù)理統(tǒng)計、數(shù)字信號處理、時間序列分析、動態(tài)系統(tǒng)仿真等方面重要的數(shù)學計算工具。該軟件在6.0及以上版本里提供了眾多實用的數(shù)學計算工具,尤其是包含有功能豐富的神經網絡函數(shù)集合以及GAOT工具箱,提供了靈活、開放、高效的計算環(huán)境,設計者可以根據(jù)自己的需要去調用工具箱中相關函數(shù),使自己能夠從繁瑣的編程中解脫出來從而提高效率和工作質量。
本文所有樣本以及測試數(shù)據(jù)均來自錢龍軟件網絡版V.4.53的日K線資料,未對指數(shù)做任何處理。
第二節(jié)利用BP神經網絡預測上證指數(shù)的流程
數(shù)據(jù)的預訓練和測試
該步驟是為了確定下合適的訓練樣本個數(shù),輸入單
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
- 4. 未經權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
- 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
- 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 個性化聘用協(xié)議:2024年版權益保障版A版
- 2025版臨時合作項目聘用協(xié)議4篇
- 2025年度市政道路大理石鋪裝及后期養(yǎng)護管理合同4篇
- 2025年度個人快遞分揀中心租賃合同樣本4篇
- 智能家居新趨勢提升家庭生活質量
- 教育與培訓中的創(chuàng)新思維教學方法探討
- SSL證書的申請與配置(2024版)3篇
- 家庭教育中的自然教育與戶外活動結合
- 2025年度土地承包權抵押融資承包合同模板4篇
- 2025年度瑪雅酒店客房預訂管理合同4篇
- 四川省成都市武侯區(qū)2023-2024學年九年級上學期期末考試化學試題
- 初一到初三英語單詞表2182個帶音標打印版
- 2024年秋季人教版七年級上冊生物全冊教學課件(2024年秋季新版教材)
- 2024年共青團入團積極分子考試題庫(含答案)
- 碎屑巖油藏注水水質指標及分析方法
- 【S洲際酒店婚禮策劃方案設計6800字(論文)】
- 鐵路項目征地拆遷工作體會課件
- 醫(yī)院死亡報告年終分析報告
- 中國教育史(第四版)全套教學課件
- 上海民辦楊浦實驗學校初一新生分班(摸底)語文考試模擬試卷(10套試卷帶答案解析)
- 圍手術期應急預案
評論
0/150
提交評論