湘潭大學(xué) 人工智能 機(jī)器學(xué)習(xí)PPT課件.ppt_第1頁(yè)
湘潭大學(xué) 人工智能 機(jī)器學(xué)習(xí)PPT課件.ppt_第2頁(yè)
湘潭大學(xué) 人工智能 機(jī)器學(xué)習(xí)PPT課件.ppt_第3頁(yè)
湘潭大學(xué) 人工智能 機(jī)器學(xué)習(xí)PPT課件.ppt_第4頁(yè)
湘潭大學(xué) 人工智能 機(jī)器學(xué)習(xí)PPT課件.ppt_第5頁(yè)
已閱讀5頁(yè),還剩70頁(yè)未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

1、Artificial Intelligence (AI)人工智能,第七章:機(jī)器學(xué)習(xí),內(nèi)容提要,第七章:機(jī)器學(xué)習(xí)系統(tǒng),1.機(jī)器學(xué)習(xí)的基本概念,2.機(jī)器學(xué)習(xí)策略與基本結(jié)構(gòu),3.歸納學(xué)習(xí),4.類比學(xué)習(xí),5.解釋學(xué)習(xí),6.神經(jīng)網(wǎng)絡(luò)學(xué)習(xí),8.其他,7.知識(shí)發(fā)現(xiàn),阿法狗通過(guò)神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)所有高水平圍棋棋譜,大概是歷史上有的20萬(wàn)個(gè)左右職業(yè)棋譜,從而獲得了在盤(pán)面上如何落子的直覺(jué)。,類似的深度學(xué)習(xí)是在近幾年出現(xiàn)的,目前,這項(xiàng)科技也有了一些應(yīng)用,最簡(jiǎn)單的例子就是通過(guò)深度學(xué)習(xí)識(shí)別貓。通過(guò)這項(xiàng)識(shí)別驗(yàn)證,已經(jīng)引申出了更多具有實(shí)際意義的應(yīng)用,比如識(shí)別某一個(gè)圖片中是否有癌細(xì)胞,某一個(gè)鐵路沿線上的軌道是否存在磨損,甚至軍事作

2、戰(zhàn)中,對(duì)方的視線中是否有坦克,都可以通過(guò)深度學(xué)習(xí)實(shí)現(xiàn)。谷歌的自動(dòng)駕駛,其中很重要的就是識(shí)別道路、交通信號(hào)燈、路標(biāo)等,這都是通過(guò)深度學(xué)習(xí)獲得。,阿法狗走的是通用學(xué)習(xí)的道路。它的估值函數(shù),不是專家攻關(guān)搗哧出來(lái)的。它的作者只是搭了一個(gè)基本的框架(一個(gè)多層的神經(jīng)網(wǎng)絡(luò)),除了圍棋最基本的規(guī)則外,沒(méi)有任何先驗(yàn)知識(shí)。你可以把它想象成一個(gè)新生兒的大腦,一張白紙。然后,直接用人類高手對(duì)局的3000萬(wàn)個(gè)局面訓(xùn)練它,自動(dòng)調(diào)節(jié)它的神經(jīng)網(wǎng)絡(luò)參數(shù),讓它的行為和人類高手接近。這樣,阿法狗就具有了基本的棋感,看到一個(gè)局面大致就能知道好還是不好。 阿法狗的核心技術(shù)還包括策略網(wǎng)絡(luò)的訓(xùn)練和蒙特卡洛樹(shù)搜索。,內(nèi)容提要,第七章:機(jī)器學(xué)

3、習(xí)系統(tǒng),1.機(jī)器學(xué)習(xí)的基本概念,2.機(jī)器學(xué)習(xí)策略與基本結(jié)構(gòu),3.歸納學(xué)習(xí),4.類比學(xué)習(xí),5.解釋學(xué)習(xí),6.神經(jīng)網(wǎng)絡(luò)學(xué)習(xí),8.其他,7.知識(shí)發(fā)現(xiàn),機(jī)器學(xué)習(xí)是人工智能的核心,通過(guò)使機(jī)器模擬人類學(xué)習(xí)行為,智能化地從過(guò)去的經(jīng)歷中獲得經(jīng)驗(yàn),從而改善其整體性能,重組內(nèi)在知識(shí)結(jié)構(gòu),并對(duì)未知事件進(jìn)行準(zhǔn)確的推斷。機(jī)器學(xué)習(xí)在科學(xué)和工程諸多領(lǐng)域都有著非常廣泛的應(yīng)用,例如金融分析、數(shù)據(jù)挖掘、生物信息學(xué)、醫(yī)學(xué)診斷等。生活中常見(jiàn)的一些智能系統(tǒng)也廣泛使用機(jī)器學(xué)習(xí)算法,例如電子商務(wù)、手寫(xiě)輸入、郵件過(guò)濾等。,人類的未來(lái)生活和工作,還將有機(jī)器人參與。機(jī)器人的自主學(xué)習(xí),更離不開(kāi)人臉識(shí)別技術(shù)。,2015年3月16日,馬云在德國(guó)參加活

4、動(dòng)時(shí),為嘉賓演示了一項(xiàng)“SmiletoPay”的掃臉技術(shù)。在網(wǎng)購(gòu)后的支付認(rèn)證階段,通過(guò)掃臉取代傳統(tǒng)的密碼,實(shí)現(xiàn)“刷臉支付”。,機(jī)器學(xué)習(xí)的基本概念,機(jī)器學(xué)習(xí)的兩大學(xué)派 機(jī)器學(xué)習(xí):人工智能的重要分支 構(gòu)造具有學(xué)習(xí)能力的智能系統(tǒng) 知識(shí)、推理、學(xué)習(xí) 手段:統(tǒng)計(jì),邏輯,代數(shù) 統(tǒng)計(jì)機(jī)器學(xué)習(xí) 從大量樣本出發(fā),運(yùn)用統(tǒng)計(jì)方法,發(fā)現(xiàn)統(tǒng)計(jì)規(guī)律 有監(jiān)督學(xué)習(xí)、無(wú)監(jiān)督學(xué)習(xí)、半監(jiān)督學(xué)習(xí) 問(wèn)題:分類,聚類,回歸,機(jī)器學(xué)習(xí)的基本概念,機(jī)器學(xué)習(xí)的定義 西蒙(Simon,1983):學(xué)習(xí)就是系統(tǒng)中的適應(yīng)性變化,這種變化使系統(tǒng)在重復(fù)同樣工作或類似工作時(shí),能夠做得更好。 明斯基(Minsky,1985):學(xué)習(xí)是在人們頭腦里(心理內(nèi)部)

5、有用的變化。 學(xué)習(xí)是一個(gè)有特定目的知識(shí)獲取和能力增長(zhǎng)過(guò)程,其內(nèi)在行為是獲得知識(shí)、積累經(jīng)驗(yàn)、發(fā)現(xiàn)規(guī)律等,其外部表現(xiàn)是改進(jìn)性能、適應(yīng)環(huán)境、實(shí)現(xiàn)自我完善等。 機(jī)器學(xué)習(xí)是研究如何使用機(jī)器來(lái)模擬人類學(xué)習(xí)活動(dòng)的一門(mén)學(xué)科。,機(jī)器學(xué)習(xí)的基本概念,機(jī)器學(xué)習(xí)的任務(wù) 根據(jù)有限樣本集 Q ,推算這個(gè)世界 W 的模型,使得其對(duì)這個(gè)世界為真。,機(jī)器學(xué)習(xí)的基本概念,機(jī)器學(xué)習(xí)的三要素 一致性假設(shè):假設(shè)世界W與樣本集Q具有某種相同性質(zhì)機(jī)器學(xué)習(xí)的條件。 樣本空間劃分:將樣本集放到一個(gè)n維空間,尋找一個(gè)決策面(等價(jià)關(guān)系),使得問(wèn)題決定的不同對(duì)象被劃分在不相交的區(qū)域。 泛化能力:從有限樣本集合中獲得的規(guī)律是否對(duì)學(xué)習(xí)集以外的數(shù)據(jù)仍然有

6、效。泛化能力 決定模型對(duì)世界的有效性。,內(nèi)容提要,第七章:機(jī)器學(xué)習(xí)系統(tǒng),1.機(jī)器學(xué)習(xí)的基本概念,2.機(jī)器學(xué)習(xí)策略與基本結(jié)構(gòu),3.歸納學(xué)習(xí),4.類比學(xué)習(xí),5.解釋學(xué)習(xí),6.神經(jīng)網(wǎng)絡(luò)學(xué)習(xí),8.其他,7.知識(shí)發(fā)現(xiàn),機(jī)器學(xué)習(xí)策略與基本結(jié)構(gòu),機(jī)器學(xué)習(xí)的主要策略:按照學(xué)習(xí)中使用推理的多少,機(jī)器學(xué)習(xí)所采用的策略大體上可分為4種 機(jī)械學(xué)習(xí):記憶學(xué)習(xí)方法,即把新的知識(shí)存儲(chǔ)起來(lái),供需要時(shí)檢索調(diào)用,而不需要計(jì)算和推理。 示教學(xué)習(xí):外界輸入知識(shí)與內(nèi)部知識(shí)的表達(dá)不完全一致,系統(tǒng)在接受外部知識(shí)時(shí)需要推理、翻譯和轉(zhuǎn)化。 類比學(xué)習(xí):需要發(fā)現(xiàn)當(dāng)前任務(wù)與已知知識(shí)的相似之處,通過(guò)類比給出完成當(dāng)前任務(wù)的方案。 示例學(xué)習(xí):需要從一組正

7、例和反例中分析和總結(jié)出一般性的規(guī)律,在新的任務(wù)中推廣、驗(yàn)證、修改規(guī)律。,機(jī)器學(xué)習(xí)策略與基本結(jié)構(gòu),學(xué)習(xí)系統(tǒng)的基本結(jié)構(gòu) 影響學(xué)習(xí)系統(tǒng)設(shè)計(jì)的要素 環(huán)境:環(huán)境向系統(tǒng)提供信息的水平(一般化程度)和質(zhì)量(正確性) 知識(shí)庫(kù):表達(dá)能力,易于推理,容易修改,知識(shí)表示易于擴(kuò)展。,內(nèi)容提要,第七章:機(jī)器學(xué)習(xí)系統(tǒng),1.機(jī)器學(xué)習(xí)的基本概念,2.機(jī)器學(xué)習(xí)策略與基本結(jié)構(gòu),3.歸納學(xué)習(xí),4.類比學(xué)習(xí),5.解釋學(xué)習(xí),6.神經(jīng)網(wǎng)絡(luò)學(xué)習(xí),8.其他,7.知識(shí)發(fā)現(xiàn),歸納學(xué)習(xí),歸納學(xué)習(xí)(Induction Learning) 歸納學(xué)習(xí)是應(yīng)用歸納推理進(jìn)行學(xué)習(xí)的一種方法。 歸納學(xué)習(xí)的模式:,實(shí)驗(yàn)規(guī)劃過(guò)程通過(guò)對(duì)實(shí)例空間的搜索完成實(shí)例選擇,并將

8、這些選中 拿到的活躍實(shí)例提交給解釋過(guò)程。解釋過(guò)程對(duì)實(shí)例加以適當(dāng)轉(zhuǎn)換,把活 躍實(shí)例變換為規(guī)則空間中的特定概念,以引導(dǎo)規(guī)則空間的搜索。,歸納學(xué)習(xí),歸納學(xué)習(xí)(Induction Learning) 歸納學(xué)習(xí)是目前研究得最多的學(xué)習(xí)方法,其學(xué)習(xí)目的是為了獲得新概念、構(gòu)造新規(guī)則或發(fā)現(xiàn)新理論。 根據(jù)歸納學(xué)習(xí)有無(wú)教師指導(dǎo),可把它分為 示例學(xué)習(xí):給學(xué)習(xí)者提供某一概念的一組正例和反例,學(xué)習(xí)者歸納出一個(gè)總的概念描述(規(guī)則),并使這個(gè)描述適合于所有的正例,排除所有的反例。 觀察發(fā)現(xiàn)學(xué)習(xí): 概念聚類:按照一定的方式和準(zhǔn)則分組,歸納概念 機(jī)器發(fā)現(xiàn):從數(shù)據(jù)和事例中發(fā)現(xiàn)新知識(shí),內(nèi)容提要,第七章:機(jī)器學(xué)習(xí)系統(tǒng),1.機(jī)器學(xué)習(xí)的基

9、本概念,2.機(jī)器學(xué)習(xí)策略與基本結(jié)構(gòu),3.歸納學(xué)習(xí),4.類比學(xué)習(xí),5.解釋學(xué)習(xí),6.神經(jīng)網(wǎng)絡(luò)學(xué)習(xí),8.其他,7.知識(shí)發(fā)現(xiàn),類比學(xué)習(xí),類比推理和類比學(xué)習(xí)方式 類比學(xué)習(xí)(learning by analogy)就是通過(guò)類比,即通過(guò)對(duì)相似事物加以比較所進(jìn)行的一種學(xué)習(xí) 。 類比學(xué)習(xí)是利用二個(gè)不同領(lǐng)域(源域、目標(biāo)域)中的知識(shí)相似性,可以通過(guò)類比,從源域的知識(shí)(包括相似的特征和其它性質(zhì))推導(dǎo)出目標(biāo)域的相應(yīng)知識(shí),從而實(shí)現(xiàn)學(xué)習(xí)。 例如: 1. 一個(gè)從未開(kāi)過(guò)truck的司機(jī),只要他有開(kāi)car的知識(shí)就可完成開(kāi)truck的任務(wù)。 2. 若把某個(gè)人比喻為消防車(chē),則可通過(guò)觀察消防車(chē)的行為,推斷出這個(gè)人的性格。,類比學(xué)習(xí),

10、類比推理和類比學(xué)習(xí)方式 類比學(xué)習(xí)系統(tǒng)可以使一個(gè)已有的計(jì)算機(jī)應(yīng)用系統(tǒng)轉(zhuǎn)變?yōu)檫m應(yīng)于新的領(lǐng)域,來(lái)完成原先沒(méi)有設(shè)計(jì)的相類似的功能。 類比推理過(guò)程: 回憶與聯(lián)想:找出當(dāng)前情況的相似情況 選擇:選擇最相似的情況及相關(guān)知識(shí) 建立對(duì)應(yīng)關(guān)系:建立相似元素之間的映射 轉(zhuǎn)換:求解問(wèn)題或產(chǎn)生新的知識(shí),類比學(xué)習(xí),類比學(xué)習(xí)研究類型 問(wèn)題求解型的類比學(xué)習(xí):求解一個(gè)新問(wèn)題時(shí),先回憶以前是否求解過(guò)類似問(wèn)題,若是,則以此為依據(jù)求解新問(wèn)題。 預(yù)測(cè)推理型的類比學(xué)習(xí) 傳統(tǒng)的類比法:用來(lái)推斷一個(gè)不完全確定的事物可能還有的其他屬性 因果關(guān)系型:已知因果關(guān)系S1:A-B,如果有AA,則可能有B滿足A-B,內(nèi)容提要,第七章:機(jī)器學(xué)習(xí)系統(tǒng),1.

11、機(jī)器學(xué)習(xí)的基本概念,2.機(jī)器學(xué)習(xí)策略與基本結(jié)構(gòu),3.歸納學(xué)習(xí),4.類比學(xué)習(xí),5.解釋學(xué)習(xí),6.神經(jīng)網(wǎng)絡(luò)學(xué)習(xí),8.其他,7.知識(shí)發(fā)現(xiàn),解釋學(xué)習(xí),解釋學(xué)習(xí)(Explanation-based learning, EBL) 解釋學(xué)習(xí)興起于20世紀(jì)80年代中期,根據(jù)任務(wù)所在領(lǐng)域知識(shí)和正在學(xué)習(xí)的概念知識(shí),對(duì)當(dāng)前實(shí)例進(jìn)行分析和求解,得出一個(gè)表征求解過(guò)程的因果解釋樹(shù),以獲取新的知識(shí)。 例如:學(xué)生根據(jù)教師提供的目標(biāo)概念、該概念的一個(gè)例子、領(lǐng)域理論及可操作準(zhǔn)則,首先構(gòu)造一個(gè)解釋來(lái)說(shuō)明為什么該例子滿足目標(biāo)概念,然后將解釋推廣為目標(biāo)概念的一個(gè)滿足可操作準(zhǔn)則的充分條件。,解釋學(xué)習(xí),解釋學(xué)習(xí)過(guò)程和算法 米切爾提出了一個(gè)

12、解釋學(xué)習(xí)的統(tǒng)一算法EBG,建立了基于解釋的概括過(guò)程,并用知識(shí)的邏輯表示和演繹推理進(jìn)行問(wèn)題求解。其一般性描述為: 給定: 領(lǐng)域知識(shí)DT 目標(biāo)概念TC 訓(xùn)練實(shí)例TE 操作性準(zhǔn)則OC 找出:滿足OC的關(guān)于TC的充分條件,解釋學(xué)習(xí),EBG算法可概括為兩步: 1.構(gòu)造解釋:運(yùn)用領(lǐng)域知識(shí)進(jìn)行演繹,證明提供給系統(tǒng)的訓(xùn)練實(shí)例為什么是滿足目標(biāo)概念的一個(gè)實(shí)例。 例如: 設(shè)要學(xué)習(xí)的目標(biāo)概念是 “一個(gè)物體(Obj1)可以安全地放置在另一個(gè)物體(Obj2)上”,即: Safe-To-Stack(Obj1,obj2) 領(lǐng)域知識(shí)是把一個(gè)物體放置在另一個(gè)物體上面的安全性準(zhǔn)則:,解釋學(xué)習(xí),EBG算法可概括為兩步: 領(lǐng)域知識(shí):

13、Fragile (y) Safe-To-Stack (x ,y):如果y不是易碎的,則x可以安全地放到y(tǒng)的上面 Lighter (x, y) Safe-To-Stack (x ,y):如果x 比y輕,則x可以安全地放到y(tǒng)的上面 Volume (p, v) Density (p, d) *(v, d, w) Weight (p, w):如果p的體積是v、密度是d、v乘以d的積是w,則p的重量是w Isa(p, table)Weight (p, 15) :若p是桌子,則p的重量是15 Weight(p1,w1)Weight(p2,w2)Smaller(w1,w2)Lighter(p1,p2):如果

14、p1的重量是w1、 p2的重量是w2、w1比w2小, 則p1比p2輕,解釋學(xué)習(xí),EBG算法可概括為兩步: Safe-To-Stack(Obj1,obj2)解釋結(jié)構(gòu):,解釋學(xué)習(xí),EBG算法可概括為兩步: 2.獲取一般性的知識(shí): 任務(wù):對(duì)上一步得到的解釋結(jié)構(gòu)進(jìn)行一般化的處理,從而得到關(guān)于目標(biāo)概念的一般性知識(shí)。 方法:將常量換成變量,并把某些不重要的信息去掉,只保留求解問(wèn)題必須的關(guān)鍵信息。 例如: Volume (O1, v1) Density (O1, d1)*(v1, d1, w1)Isa(O2,table) Smaller(w1,15) Safe-To-Stack(Obj1,obj2),解釋學(xué)

15、習(xí),EBG算法可概括為兩步: Safe-To-Stack(O1,O2)一般化解釋結(jié)構(gòu),以后求解類似問(wèn)題時(shí),就可以直接利用這個(gè)知識(shí)進(jìn)行求解,提到了系統(tǒng)求解問(wèn)題的效率。,內(nèi)容提要,第七章:機(jī)器學(xué)習(xí)系統(tǒng),1.機(jī)器學(xué)習(xí)的基本概念,2.機(jī)器學(xué)習(xí)策略與基本結(jié)構(gòu),3.歸納學(xué)習(xí),4.類比學(xué)習(xí),5.解釋學(xué)習(xí),6.神經(jīng)網(wǎng)絡(luò)學(xué)習(xí),8.其他,7.知識(shí)發(fā)現(xiàn),神經(jīng)網(wǎng)絡(luò)學(xué)習(xí),神經(jīng)生理學(xué)研究表明,人腦的神經(jīng)元既是學(xué)習(xí)的基本單位,同是也是記憶的基本單位。 目前,關(guān)于人腦學(xué)習(xí)和記憶機(jī)制的研究有兩大學(xué)派: 化學(xué)學(xué)派:認(rèn)為人腦經(jīng)學(xué)習(xí)所獲得的信息是記錄在某些生物大分子之上的。例如,蛋白質(zhì)、核糖核酸、神經(jīng)遞質(zhì),就像遺傳信息是記錄在DNA

16、(脫氧核糖核酸)上一樣。 突觸修正學(xué)派:認(rèn)為人腦學(xué)習(xí)所獲得的信息是分布在神經(jīng)元之間的突觸連接上的。,神經(jīng)網(wǎng)絡(luò)學(xué)習(xí),按照突觸修正學(xué)派的觀點(diǎn),人腦的學(xué)習(xí)和記憶過(guò)程實(shí)際上是一個(gè)在訓(xùn)練中完成的突觸連接權(quán)值的修正和穩(wěn)定過(guò)程。其中,學(xué)習(xí)表現(xiàn)為突觸連接權(quán)值的修正,記憶則表現(xiàn)為突觸連接權(quán)值的穩(wěn)定。 突觸修正假說(shuō)已成為人工神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)和記憶機(jī)制研究的心理學(xué)基礎(chǔ),與此對(duì)應(yīng)的權(quán)值修正學(xué)派也一直是人工神經(jīng)網(wǎng)絡(luò)研究的主流學(xué)派。 突觸修正學(xué)派認(rèn)為,人工神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)過(guò)程就是一個(gè)不斷調(diào)整網(wǎng)絡(luò)連接權(quán)值的過(guò)程。 按照學(xué)習(xí)規(guī)則,神經(jīng)學(xué)習(xí)可分為:Hebb學(xué)習(xí)、糾錯(cuò)學(xué)習(xí)、競(jìng)爭(zhēng)學(xué)習(xí)及隨機(jī)學(xué)習(xí)等。,神經(jīng)網(wǎng)絡(luò)學(xué)習(xí),Hebb學(xué)習(xí) Hebb學(xué)

17、習(xí)的基本思想:如果神經(jīng)網(wǎng)絡(luò)中某一神經(jīng)元同另一直接與它連接的神經(jīng)元同時(shí)處于興奮狀態(tài),那么這兩個(gè)神經(jīng)元之間的連接強(qiáng)度將得到加強(qiáng),反之應(yīng)該減弱。 Hebb學(xué)習(xí)對(duì)連接權(quán)值的調(diào)整可表示為: wij (t+1)表示對(duì)時(shí)刻 t 的權(quán)值修正一次后所得到的新的權(quán)值; 取正值,稱為學(xué)習(xí)因子,它取決于每次權(quán)值的修正量; xi(t)、xj(t)分別表示 t 時(shí)刻第 i 個(gè)和第 j 個(gè)神經(jīng)元的狀態(tài)。,神經(jīng)網(wǎng)絡(luò)學(xué)習(xí),糾錯(cuò)學(xué)習(xí) 糾錯(cuò)學(xué)習(xí)的基本思想:利用神經(jīng)網(wǎng)絡(luò)的期望輸出與實(shí)際輸出之間的偏差作為連接權(quán)值調(diào)整的參考,并最終減少這種偏差。糾錯(cuò)學(xué)習(xí)是一種有導(dǎo)師的學(xué)習(xí)過(guò)程。 最基本的誤差修正規(guī)則為:連接權(quán)值的變化與神經(jīng)元希望輸出和實(shí)

18、際輸出之差成正比。其聯(lián)結(jié)權(quán)值的計(jì)算公式為: yj (t)為神經(jīng)元 j 的實(shí)際輸出; dj (t)為神經(jīng)元 j 的希望輸出;,神經(jīng)網(wǎng)絡(luò)學(xué)習(xí),競(jìng)爭(zhēng)學(xué)習(xí) 基本思想:網(wǎng)絡(luò)中某一組神經(jīng)元相互競(jìng)爭(zhēng)對(duì)外界刺激模式響應(yīng)的權(quán)力,在競(jìng)爭(zhēng)中獲勝的神經(jīng)元,其連接權(quán)會(huì)向著對(duì)這一刺激模式競(jìng)爭(zhēng)更為有利的方向發(fā)展。 隨機(jī)學(xué)習(xí) 基本思想:結(jié)合隨機(jī)過(guò)程、概率和能量(函數(shù))等概念來(lái)調(diào)整網(wǎng)絡(luò)的變量,從而使網(wǎng)絡(luò)的目標(biāo)函數(shù)達(dá)到最大(或最?。?。他不僅可以接受能量函數(shù)減少(性能得到改善)的變化,而且還可以以某種概率分布接受使能量函數(shù)增大(性能變差)的變化。,感知器學(xué)習(xí) 單層感知器學(xué)習(xí)算法 單層感知器學(xué)習(xí)的例子 BP網(wǎng)絡(luò)學(xué)習(xí) Hopfield

19、網(wǎng)絡(luò)學(xué)習(xí),神經(jīng)網(wǎng)絡(luò)學(xué)習(xí),單層感知器學(xué)習(xí)實(shí)際上是一種基于糾錯(cuò)學(xué)習(xí)規(guī)則,采用迭代的思想對(duì)連接權(quán)值和閾值進(jìn)行不斷調(diào)整,直到滿足結(jié)束條件為止的學(xué)習(xí)算法。 假設(shè)X(k)和W(k)分別表示學(xué)習(xí)算法在第k次迭代時(shí)輸入向量和權(quán)值向量,為方便,把閾值作為權(quán)值向量W(k)中的第一個(gè)分量,對(duì)應(yīng)地把“-1”固定地作為輸入向量X(k)中的第一個(gè)分量。即W(k)和X(k)可分別表示如下: X(k)=-1, x1(k), x2(k), , xn(k) W(k)=(k),w1(k), w2(k), ,wn(k) 即x0(k)=-1,w0(k)=(k)。 單層感知器學(xué)習(xí)是一種有導(dǎo)師學(xué)習(xí),它需要給出輸入樣本的期望輸出。 假設(shè)一個(gè)

20、樣本空間可以被劃分為A、B兩類,定義: 功能函數(shù):若輸入樣本屬于A類,輸出為+1,否則其輸出為-1。 期望輸出:若輸入樣本屬于A類,期望輸出為+1,否則為-1。,單層感知器學(xué)習(xí)算法 算法思想,單層感知器學(xué)習(xí)算法可描述如下: (1) 設(shè)t=0,初始化連接權(quán)和閾值。即給wi(0)(i=1, 2, ,n)及(0)分別賦予一個(gè)較小的非零隨機(jī)數(shù),作為初值。其中,wi(0)是第0次迭代時(shí)輸入向量中第i個(gè)輸入的連接權(quán)值;(0)是第0次迭代時(shí)輸出節(jié)點(diǎn)的閾值; (2) 提供新的樣本輸入xi(t)(i=1, 2, , n)和期望輸出d(t); (3) 計(jì)算網(wǎng)絡(luò)的實(shí)際輸出:,單層感知器學(xué)習(xí)算法 算法描述,(4) 若

21、y(t)=d(t),不需要調(diào)整連接權(quán)值,轉(zhuǎn)(6)。否則,需要調(diào)整權(quán)值 (5) 調(diào)整連接權(quán)值 其中,是一個(gè)增益因子,用于控制修改速度,其值如果太大,會(huì)影響wi(t)的收斂性;如果太小,又會(huì)使wi(t)的收斂速度太慢; (6) 判斷是否滿足結(jié)束條件,若滿足,算法結(jié)束;否則,將t值加1,轉(zhuǎn)(2)重新執(zhí)行。這里的結(jié)束條件一般是指wi(t)對(duì)一切樣本均穩(wěn)定不變。 若輸入的兩類樣本是線性可分的,則該算法就一定會(huì)收斂。否則,不收斂。,單層感知器學(xué)習(xí)算法 算法描述,例 用單層感知器實(shí)現(xiàn)邏輯“與”運(yùn)算。 解:根據(jù)“與”運(yùn)算的邏輯關(guān)系,可將問(wèn)題轉(zhuǎn)換為:輸入向量: X1=0, 0, 1, 1 X2=0, 1, 0,

22、 1 輸出向量: Y=0, 0, 0, 1 為減少算法的迭代次數(shù),設(shè)初始連接權(quán)值和閾值取值如下: w1(0)=0.5, w2(0)=0.7, (0)=0.6 并取增益因子=0.4。 算法的學(xué)習(xí)過(guò)程如下: 設(shè)兩個(gè)輸入為x1(0)=0和x2(0)=0,其期望輸出為d(0)=0,實(shí)際輸出為: y(0)=f(w1(0)x1(0)+ w2(0)x2(0)-(0) =f(0.5*0+0.7*0-0.6)=f(-0.6)=0 實(shí)際輸出與期望輸出相同,不需要調(diào)節(jié)權(quán)值。,單層感知器學(xué)習(xí)的例子 學(xué)習(xí)例子(1/4),再取下一組輸入:x1(0)=0和x2(0)=1, 期望輸出d(0)=0,實(shí)際輸出: y(0)=f(w

23、1(0) x1(0)+ w2(0) x2(0)-(0) =f(0.5*0+0.7*1-0.6)=f(0.1)=1 實(shí)際輸出與期望輸出不同,需要調(diào)節(jié)權(quán)值,其調(diào)整如下: (1)=(0)+(d(0)- y(0)*(-1)=0.6+0.4*(0-1)*(-1)=1 w1(1)=w1(0)+(d(0)- y(0)x1(0)=0.5+0.4*(0-1)*0=0.5 w2(1)=w2(0)+(d(0)- y(0)x2(0)=0.7+0.4*(0-1)*1=0.3 取下一組輸入:x1(1)=1和x2(1)=0,其期望輸出為d(1)=0,實(shí)際輸出為: y(1)=f(w1(1) x1(1)+ w2(1) x2(1

24、)-(1) =f(0.5*1+0.3*0-1)=f(-0.51)=0 實(shí)際輸出與期望輸出相同,不需要調(diào)節(jié)權(quán)值。,單層感知器學(xué)習(xí)的例子 學(xué)習(xí)例子(2/4),再取下一組輸入:x1(1)=1和x2(1)=1,其期望輸出為d(1)=1,實(shí)際輸出為: y(1)=f(w1(1) x1(1)+ w2(1) x2(1)-(1) =f(0.5*1+0.3*1-1)=f(-0.2)=0 實(shí)際輸出與期望輸出不同,需要調(diào)節(jié)權(quán)值,其調(diào)整如下: (2)=(1)+(d(1)- y(1)*(-1)=1+0.4*(1-0)*(-1)=0.6 w1(2)=w1(1)+(d(1)- y(1)x1(1)=0.5+0.4*(1-0)*

25、1=0.9 w2(2)=w2(1)+(d(1)- y(1)x2(1)=0.3+0.4*(1-0)*1=0.7 取下一組輸入:x1(2)=0和x2(2)=0,其期望輸出為d(2)=0,實(shí)際輸出為: y(2)=f(0.9*0+0.7*0-0.6)=f(-0.6)=0 實(shí)際輸出與期望輸出相同,不需要調(diào)節(jié)權(quán)值.,單層感知器學(xué)習(xí)的例子 學(xué)習(xí)例子(3/4),再取下一組輸入:x1(2)=0和x2(2)=1,期望輸出為d(2)=0,實(shí)際輸出為: y(2)=f(0.9*0+0.7*1-0.6)=f(0.1)=1 實(shí)際輸出與期望輸出不同,需要調(diào)節(jié)權(quán)值,其調(diào)整如下: (3)=(2)+(d(2)- y(2)*(-1)

26、=0.6+0.4*(0-1)*(-1)=1 w1(3)=w1(2)+(d(2)- y(2)x1(2)=0.9+0.4*(0-1)*0=0.9 w2(3)=w2(2)+(d(2)- y(2)x2(2)=0.7+0.4*(0-1)*1=0.3 實(shí)際上,由與運(yùn)算的閾值條件可知,此時(shí)的閾值和連接權(quán)值以滿足結(jié)束條件,算法可以結(jié)束。 對(duì)此,可檢驗(yàn)如下: 對(duì)輸入:“0 0”有y=f(0.9*0+0.3*0-1)=f(-1)=0 對(duì)輸入:“0 1”有y=f(0.9*0+0.3*0.1-1)=f(-0.7)=0 對(duì)輸入:“1 0”有y=f(0.9*1+0.3*0-1)=f(-0.1)=0 對(duì)輸入:“1 1”有y

27、=f(0.9*1+0.3*1-1)=f(0.2)=1,單層感知器學(xué)習(xí)的例子 學(xué)習(xí)例子(4/4),多層感知器可以解決非線性可分問(wèn)題,但其隱層神經(jīng)元的期望輸出卻不易給出。 而單層感知器學(xué)習(xí)是一種有導(dǎo)師指導(dǎo)的學(xué)習(xí)過(guò)程,因此其學(xué)習(xí)算法無(wú)法直接用于多層感知器。 由于多層感知器和BP網(wǎng)絡(luò)都屬于前向網(wǎng)絡(luò),并能較好解決多層前饋網(wǎng)絡(luò)的學(xué)習(xí)問(wèn)題. 因此,可用BP學(xué)習(xí)來(lái)解決多層感知器學(xué)習(xí)問(wèn)題。,多層感知器學(xué)習(xí)問(wèn)題,BP網(wǎng)絡(luò)學(xué)習(xí)的網(wǎng)絡(luò)基礎(chǔ)是具有多層前饋結(jié)構(gòu)的BP網(wǎng)絡(luò)。為討論方便,采用如下圖所示的三層BP網(wǎng)絡(luò)。,BP網(wǎng)絡(luò)學(xué)習(xí)的基礎(chǔ) 1. 三層BP網(wǎng)絡(luò),對(duì)上述三層BP網(wǎng)絡(luò),分別用I,j,k表示輸入層、隱含層、輸出層節(jié)點(diǎn),

28、且以以下符號(hào)表示: Oi, Oj, Ok分別表示輸入層節(jié)點(diǎn)i、隱含層節(jié)點(diǎn)j,輸出層節(jié)點(diǎn)k的輸出; Ii , Ij ,Ik,分別表示輸入層節(jié)點(diǎn)i、隱含層節(jié)點(diǎn)j,輸出層節(jié)點(diǎn)k的輸入; wij, wjk分別表示從輸入層節(jié)點(diǎn)i到隱含層節(jié)點(diǎn)j,從隱含層節(jié)點(diǎn)j輸出層節(jié)點(diǎn)k的輸入節(jié)點(diǎn)j的連接權(quán)值; j 、 k分別表示隱含層節(jié)點(diǎn)j、輸出層節(jié)點(diǎn)k的閾值; 對(duì)輸入層節(jié)點(diǎn)i有:,BP網(wǎng)絡(luò)學(xué)習(xí)的基礎(chǔ) 2. 網(wǎng)絡(luò)節(jié)點(diǎn)的輸入/輸出關(guān)系(1/2),(7.1),對(duì)輸出層節(jié)點(diǎn)有:,BP網(wǎng)絡(luò)學(xué)習(xí)的基礎(chǔ) 2. 網(wǎng)絡(luò)節(jié)點(diǎn)的輸入/輸出關(guān)系(2/2),(7.5),(7.4),對(duì)隱含層節(jié)點(diǎn)有:,(7.2),(7.3),BP網(wǎng)絡(luò)學(xué)習(xí)的方式,

29、BP網(wǎng)絡(luò)學(xué)習(xí)的基礎(chǔ) BP網(wǎng)絡(luò)的激發(fā)函數(shù)和學(xué)習(xí)方式,BP網(wǎng)絡(luò)的激發(fā)函數(shù),(7.3),通常采用連續(xù)可微的S函數(shù),包括單極,BP網(wǎng)絡(luò)學(xué)習(xí)過(guò)程是一個(gè)對(duì)給定訓(xùn)練模式,利用傳播公式,沿著減小誤差的方向不斷調(diào)整網(wǎng)絡(luò)聯(lián)結(jié)權(quán)值和閾值的過(guò)程。 設(shè)樣本集中的第r個(gè)樣本,其輸出層結(jié)點(diǎn)k的期望輸出用drk表示,實(shí)際輸出用yrk表示。其中,drk由訓(xùn)練模式給出,yrk由7.5式計(jì)算得出。即有 yrk = Ork 如果僅針對(duì)單個(gè)輸入樣本,其實(shí)際輸出與期望輸出的誤差為,BP算法的傳播公式 誤差,上述誤差定義是針對(duì)單個(gè)訓(xùn)練樣本的誤差計(jì)算公式,它適用于網(wǎng)絡(luò)的順序?qū)W習(xí)方式。若采用批處理學(xué)習(xí)方式,需要定義其總體誤差。假設(shè)樣本集中有R

30、個(gè)樣本,則對(duì)整個(gè)樣本集的總體誤差定義為,(7.6),(7.7),針對(duì)順序?qū)W習(xí)方式,其聯(lián)結(jié)權(quán)值的調(diào)整公式為,BP算法的傳播公式 權(quán)值變化量(1/2),(7.8),(7.9),式中,為增益因子,取0, 1區(qū)間的一個(gè)正數(shù),其取值與算法的收斂速度有關(guān); 由下式計(jì)算,式中,wjk (t)和wjk(t+1)分別是第t次迭代和t+1次迭代時(shí),從結(jié)點(diǎn)j到結(jié)點(diǎn)k的聯(lián)結(jié)權(quán)值;wjk是聯(lián)結(jié)權(quán)值的變化量。 為了使聯(lián)結(jié)權(quán)值能沿著E的梯度下降的方向逐漸改善,網(wǎng)絡(luò)逐漸收斂,權(quán)值變化量wjk的計(jì)算公式如下:,(7.10),根據(jù)7.2式,可得到輸出層節(jié)點(diǎn)k的Ik為,BP算法的傳播公式 權(quán)值變化量(1/2),(7.11),(7.

31、12),令局部梯度,(7.13),對(duì)該式求偏導(dǎo)數(shù)有,將7.10式、7.11式和7.12式代入7.9式有,對(duì)k的計(jì)算,須區(qū)分k是輸出層上還是隱含層上的結(jié)點(diǎn)。下面分別討論。,如果結(jié)點(diǎn)k是輸出層上的結(jié)點(diǎn),則有Ok=yk,因此,BP算法的傳播公式 節(jié)點(diǎn)k是輸出層節(jié)點(diǎn)(1/3),(7.14),(7.15),由7.6式,有,即,而,(7.16),將7.15式和7.16式代入7.14式,有,BP算法的傳播公式 節(jié)點(diǎn)k是輸出層節(jié)點(diǎn)(2/3),(7.17),(7.15),由于f(Ik) = f(Ik)1-f(Ik),且f(Ik)=yk,因此有,再將7.18式代入7.13式,有,根據(jù)7.8,對(duì)輸出層有,(7.20

32、),(7.18),如果k不是輸出層結(jié)點(diǎn)它表示聯(lián)結(jié)權(quán)值是作用于隱含層上的結(jié)點(diǎn),此時(shí),有k=j ,j按下式計(jì)算,BP算法的傳播公式 節(jié)點(diǎn)k是隱含層節(jié)點(diǎn)(1/3),(7.22),由7.3式,Oj=f (Ij-j),因此有,式中,,(7.21),是一個(gè)隱函數(shù)求導(dǎo)問(wèn)題,其推導(dǎo)過(guò)程為,由7.12式有,BP算法的傳播公式 節(jié)點(diǎn)k是隱含層節(jié)點(diǎn)(2/3),(7.24),將7.23式代入7.22式,有,它說(shuō)明,低層結(jié)點(diǎn)的值是通過(guò)上一層結(jié)點(diǎn)的值來(lái)計(jì)算的。這樣,我們就可以先計(jì)算出輸出層上的值,然后把它返回到較低層上,并計(jì)算出各較低層上結(jié)點(diǎn)的值。 由于f (Ij) = f(Ij) 1-f (Ij) ,故由7.24可得,

33、(7.23),(7.25),再將7.25式代入7.13式,并將其轉(zhuǎn)化為隱函數(shù)的變化量,有,7.3.2 BP算法的傳播公式 節(jié)點(diǎn)k是隱含層節(jié)點(diǎn)(3/3),再由7.1式和7.3式,有,根據(jù)7.8,對(duì)隱含層有,(7.26),(7.28),(7.27),對(duì)三層BP網(wǎng)絡(luò),設(shè)wij是輸入層到隱層,wjk是隱層到輸出層的聯(lián)結(jié)權(quán)值;R是樣本個(gè)數(shù),其計(jì)數(shù)器為r;T是訓(xùn)練過(guò)程的最大迭代數(shù),其計(jì)數(shù)器為t。 (1) 初始化網(wǎng)絡(luò)及學(xué)習(xí)參數(shù):將wij、wjk、j、k均賦以較小的隨機(jī)數(shù);設(shè)置為0,1區(qū)間的數(shù);置訓(xùn)練樣本計(jì)數(shù)器r=0,誤差E=0、誤差閾值為很小的正數(shù)。 (2) 隨機(jī)輸入一個(gè)訓(xùn)練樣本,r=r+1,t=0。 (3

34、) 按7.1-7.5式計(jì)算隱層神經(jīng)元的狀態(tài)和輸出層每個(gè)節(jié)點(diǎn)的實(shí)際輸出yk,按7.6式計(jì)算該樣本的誤差E。,BP網(wǎng)絡(luò)學(xué)習(xí)算法 算法描述,(4) 檢查E ? 若是,執(zhí)行下一步;否則,轉(zhuǎn)(8)。 (5) t=t+1。 (6) 檢查t T ?若是,執(zhí)行下一步;否則,轉(zhuǎn)(8)。 (7) 按7.18式計(jì)算輸出層結(jié)點(diǎn)k的k,按7.25式計(jì)算隱層結(jié)點(diǎn)j的j,按 7.20式計(jì)算wjk(t+1),按 7.28式計(jì)算wij(t+1),返回(3)。其中,對(duì)閾值按聯(lián)結(jié)權(quán)值的學(xué)習(xí)方式修正,即把閾值設(shè)想為神經(jīng)元的聯(lián)結(jié)權(quán)值,并假定其輸入信號(hào)值總是為1。 (8) 檢查r = R ? 若是,執(zhí)行下一步;否則,轉(zhuǎn)(2)。 (9)

35、結(jié)束。,BP網(wǎng)絡(luò)學(xué)習(xí)算法 算法描述,BP網(wǎng)絡(luò)學(xué)習(xí)算法 算法流程,隨機(jī)輸入一個(gè)訓(xùn)練樣本,置r=r+1,t=0,初始化網(wǎng)絡(luò)及學(xué)習(xí)參數(shù)wij,wjk,j,k,R,T,置E=0,r=0,對(duì)輸入樣本,計(jì)算該樣本的每一個(gè)yk, 計(jì)算該樣本的誤差E,E?,t=t+1,tT ?,計(jì)算輸出層結(jié)點(diǎn)k的k 修正各層的wjk(t),wij(t),E?,結(jié)束,是,否,是,否,否,是,BP網(wǎng)絡(luò)模型是目前使用較多的一種神經(jīng)網(wǎng)絡(luò),其主要優(yōu)、缺點(diǎn)如下。 優(yōu)點(diǎn) (1)算法的優(yōu)點(diǎn)是算法推導(dǎo)清楚,學(xué)習(xí)精度較高; (2)從理論上說(shuō),多層前饋網(wǎng)絡(luò)可學(xué)會(huì)任何可學(xué)習(xí)的東西; (3)經(jīng)過(guò)訓(xùn)練后的BP網(wǎng)絡(luò),運(yùn)行速度極快,可用于實(shí)時(shí)處理。 缺點(diǎn)

36、(1)由于其數(shù)學(xué)基礎(chǔ)是非線性優(yōu)化問(wèn)題,因此可能陷入局部最小區(qū)域; (2)算法收斂速度很慢,通常需要數(shù)千步或更長(zhǎng),甚至還可能不收斂; (3)網(wǎng)絡(luò)中隱含結(jié)點(diǎn)的設(shè)置無(wú)理論指導(dǎo)。 上述缺點(diǎn)的解決辦法 對(duì)于局部最小區(qū)域問(wèn)題,通常需要采用模擬退火算法或遺傳算法。 對(duì)于算法收斂慢的問(wèn)題,其主要原因在于誤差是時(shí)間的復(fù)雜非線性函數(shù)。為提高算法收斂速度,可采用逐次自動(dòng)調(diào)整增益因子,或修改激活函數(shù)f(x)的方法來(lái)解決。,BP網(wǎng)絡(luò)學(xué)習(xí)的討論,Hopfield網(wǎng)絡(luò)學(xué)習(xí),Hopfield網(wǎng)絡(luò)學(xué)習(xí)的過(guò)程實(shí)際上是一個(gè)從網(wǎng)絡(luò)初始狀態(tài)向其穩(wěn)定狀態(tài)過(guò)渡的過(guò)程。而網(wǎng)絡(luò)的穩(wěn)定性又是通過(guò)能量函數(shù)來(lái)描述的。這里主要針對(duì)離散Hopfield

37、網(wǎng)絡(luò)討論其能量函數(shù)和學(xué)習(xí)算法。,Hopfield網(wǎng)絡(luò)的能量函數(shù) Hopfield網(wǎng)絡(luò)學(xué)習(xí)算法,式中,n是網(wǎng)絡(luò)中的神經(jīng)元個(gè)數(shù),wij是神經(jīng)元i和神經(jīng)元j之間的連接權(quán)值,且有wij=wji; vi和vj分別是神經(jīng)元i和神經(jīng)元j的輸出;i是神經(jīng)元i的閾值。 可以證明,對(duì)Hopfield網(wǎng)絡(luò),無(wú)論其神經(jīng)元的狀態(tài)由“0”變?yōu)椤?”,還是由“1”變?yōu)椤?”,始終有其網(wǎng)絡(luò)能量的變化: E0,Hopfield的能量函數(shù) 能量函數(shù)定義及性質(zhì),能量函數(shù)用于描述Hopfield網(wǎng)絡(luò)的穩(wěn)定性。其定義為:,對(duì)網(wǎng)絡(luò)能量變化的這一結(jié)論,我們可以從網(wǎng)絡(luò)能量的構(gòu)成形式進(jìn)行分析。 如果假設(shè)某一時(shí)刻網(wǎng)絡(luò)中僅有神經(jīng)元k的輸出發(fā)生了變

38、化,而其它神經(jīng)元的輸出沒(méi)有變化,則可把上述能量函數(shù)分作三部分來(lái)討論。其中,第一部分是i=1,k-1;第二部分是i=k;第三部分是i=k+1,n。,即網(wǎng)絡(luò)能量函數(shù)可寫(xiě)成如下形式:,Hopfield的能量函數(shù) 能量函數(shù)定義及性質(zhì)(2/7),在這種形式中,可以引起網(wǎng)絡(luò)能量變化的僅有公式中的如下部分:,i=1,k-1 ,jk,這部分能量與k的輸出無(wú)關(guān),i=1,k-1 ,j=k,這部分能量與k的輸出有關(guān),i=k ,jk,這部分能量與k的輸出有關(guān),i=k+1,n ,jk,這部分能量與k的輸出無(wú)關(guān),i=k+1,n ,jk,這部分能量與k的輸出有關(guān),Hopfield的能量函數(shù) 能量函數(shù)定義及性質(zhì)(3/7),又由于,即:,再根據(jù)連接權(quán)值的對(duì)稱性,即wij=wji, 有:,Hopfield的能量函數(shù) 能量函數(shù)定義及性質(zhì)(4/7),即可以引起網(wǎng)絡(luò)能量變化的部分為,為了更清晰地描述網(wǎng)絡(luò)能量的變化,我們引入時(shí)間概念。假設(shè)t表示當(dāng)前時(shí)刻,t+1表示下一時(shí)刻,時(shí)刻t和t+1的網(wǎng)絡(luò)能量分別為E(t)和E(t+1),神經(jīng)元i和神經(jīng)元j在時(shí)刻t和t+1的輸出分別為vi(t)、vj(t)和vj(t+1)、vj(t+1)。由時(shí)刻t到t+1網(wǎng)絡(luò)能量的變化為: E= E(t+1) - E(t),當(dāng)網(wǎng)絡(luò)中僅有神經(jīng)元k的輸出發(fā)生變化,且變

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論