




版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)
文檔簡介
人工神經(jīng)元網(wǎng)絡(luò)控制論網(wǎng)絡(luò)模型1第一頁,共一百零二頁,2022年,8月28日4.1引言4.2前向神經(jīng)網(wǎng)絡(luò)模型4.6神經(jīng)網(wǎng)絡(luò)控制基礎(chǔ)4.7非線性動態(tài)系統(tǒng)的神經(jīng)網(wǎng)絡(luò)辨識4.8神經(jīng)網(wǎng)絡(luò)控制的學習機制4.9神經(jīng)網(wǎng)絡(luò)控制器的設(shè)計4.3動態(tài)神經(jīng)網(wǎng)絡(luò)模型4.10單一神經(jīng)元控制法目錄2第二頁,共一百零二頁,2022年,8月28日4.1引言人工神經(jīng)網(wǎng)絡(luò)就是模擬人腦細胞的分布式工作特點和自組織功能,且能實現(xiàn)并行處理、自學習和非線性映射等能力的一種系統(tǒng)模型。3第三頁,共一百零二頁,2022年,8月28日發(fā)展歷史1943年,心理學家McCmloch和數(shù)學家Pitts合作提出形式神經(jīng)元數(shù)學模型(MP),揭開了神經(jīng)科學理論的新時代。1944年Hebb提出了改變神經(jīng)元連接強度的Hebb規(guī)則。1957年Rosenblatt首次引進了感知器概念(Perceptron)。。1976年,Grossberg提出了自適應(yīng)共振理論。1982年,美國加州工學院物理學家Hopfield提出了HNN模型,他引入了“計算能量函數(shù)”的概念,給出了網(wǎng)絡(luò)的穩(wěn)定性判據(jù)。1986年,Rumelhart等PDP研究小組提出了多層前向傳播網(wǎng)絡(luò)的BP學習算法。4第四頁,共一百零二頁,2022年,8月28日主要內(nèi)容5第五頁,共一百零二頁,2022年,8月28日4.1引言4.1.1神經(jīng)元模型4.1.2神經(jīng)網(wǎng)絡(luò)的模型分類4.1.3神經(jīng)網(wǎng)絡(luò)的學習算法4.1.4神經(jīng)網(wǎng)絡(luò)的泛化能力6第六頁,共一百零二頁,2022年,8月28日4.1.1神經(jīng)元模型神經(jīng)元模型是生物神經(jīng)元的抽象和模擬??煽醋鞫噍斎?單輸出的非線性器件。ui
神經(jīng)元的內(nèi)部狀態(tài),θi
閥值,
xi輸入信號,j=1,2,…,n;wij表示從單元uj
到單元ui
的連接權(quán)值;si外部輸入信號7第七頁,共一百零二頁,2022年,8月28日數(shù)學模型通常直接假設(shè)
yi=f(Neti)
f為激勵函數(shù),有4種類型。8第八頁,共一百零二頁,2022年,8月28日激勵函數(shù)類型1閾值型9第九頁,共一百零二頁,2022年,8月28日激勵函數(shù)類型2分段線性型10第十頁,共一百零二頁,2022年,8月28日激勵函數(shù)類型3Sigmoid函數(shù)型11第十一頁,共一百零二頁,2022年,8月28日激勵函數(shù)類型4Tan函數(shù)型12第十二頁,共一百零二頁,2022年,8月28日4.1引言4.1.1神經(jīng)元模型4.1.2神經(jīng)網(wǎng)絡(luò)的模型分類4.1.3神經(jīng)網(wǎng)絡(luò)的學習算法4.1.4神經(jīng)網(wǎng)絡(luò)的泛化能力13第十三頁,共一百零二頁,2022年,8月28日4.1.2神經(jīng)網(wǎng)絡(luò)的模型分類123414第十四頁,共一百零二頁,2022年,8月28日網(wǎng)絡(luò)結(jié)構(gòu)圖15第十五頁,共一百零二頁,2022年,8月28日4.1引言4.1.1神經(jīng)元模型4.1.2神經(jīng)網(wǎng)絡(luò)的模型分類4.1.3神經(jīng)網(wǎng)絡(luò)的學習算法4.1.4神經(jīng)網(wǎng)絡(luò)的泛化能力16第十六頁,共一百零二頁,2022年,8月28日4.1.3神經(jīng)網(wǎng)絡(luò)的學習算法ab17第十七頁,共一百零二頁,2022年,8月28日學習規(guī)則18第十八頁,共一百零二頁,2022年,8月28日相關(guān)學習僅僅根據(jù)連接間的激活水平改變權(quán)系數(shù)。它常用于自聯(lián)想網(wǎng)絡(luò)。最常見的學習算法是Hebb規(guī)則。η表示學習步長19第十九頁,共一百零二頁,2022年,8月28日糾錯學習有導師學習方法,依賴關(guān)于輸出節(jié)點的外部反饋改變權(quán)系數(shù)。它常用于感知器網(wǎng)絡(luò)、多層前向傳播網(wǎng)絡(luò)和Boltzmann機網(wǎng)絡(luò)。其學習的方法是梯度下降法。最常見的學習算法有δ規(guī)則、模擬退火學習規(guī)則。20第二十頁,共一百零二頁,2022年,8月28日無導師學習學習表現(xiàn)為自適應(yīng)實現(xiàn)輸入空間的檢測規(guī)則。它常用于ART、Kohonen自組織網(wǎng)絡(luò)。在這類學習規(guī)則中,關(guān)鍵不在于實際節(jié)點的輸出怎樣與外部的期望輸出相一致,而在于調(diào)整參數(shù)以反映觀察事件的分布。例如Winner-Take-All學習規(guī)則。21第二十一頁,共一百零二頁,2022年,8月28日4.1引言4.1.1神經(jīng)元模型4.1.2神經(jīng)網(wǎng)絡(luò)的模型分類4.1.3神經(jīng)網(wǎng)絡(luò)的學習算法4.1.4神經(jīng)網(wǎng)絡(luò)的泛化能力22第二十二頁,共一百零二頁,2022年,8月28日4.1.4神經(jīng)網(wǎng)絡(luò)的泛化能力當輸入矢量與樣本輸入矢量存在差異時,其神經(jīng)網(wǎng)絡(luò)的輸出同樣能夠準確地呈現(xiàn)出應(yīng)有的輸出。這種能力就稱為神經(jīng)網(wǎng)絡(luò)的泛化能力。在有導師指導下的學習中,泛化能力可以定義為訓練誤差和測試誤差之差。與輸入矢量的個數(shù)、網(wǎng)絡(luò)的節(jié)點數(shù)和權(quán)值與訓練樣本集數(shù)目之間存在密切的關(guān)系。23第二十三頁,共一百零二頁,2022年,8月28日4.1引言4.2前向神經(jīng)網(wǎng)絡(luò)模型4.6神經(jīng)網(wǎng)絡(luò)控制基礎(chǔ)4.7非線性動態(tài)系統(tǒng)的神經(jīng)網(wǎng)絡(luò)辨識4.8神經(jīng)網(wǎng)絡(luò)控制的學習機制4.9神經(jīng)網(wǎng)絡(luò)控制器的設(shè)計4.3動態(tài)神經(jīng)網(wǎng)絡(luò)模型4.10單一神經(jīng)元控制法目錄24第二十四頁,共一百零二頁,2022年,8月28日4.2前向神經(jīng)網(wǎng)絡(luò)模型4.2.1網(wǎng)絡(luò)結(jié)構(gòu)4.2.2多層傳播網(wǎng)絡(luò)的BP學習算法4.2.3快速的BP改進算法25第二十五頁,共一百零二頁,2022年,8月28日4.2.1網(wǎng)絡(luò)結(jié)構(gòu)單一神經(jīng)元12326第二十六頁,共一百零二頁,2022年,8月28日單一神經(jīng)元w0
為閾值,
wj
決定第j個輸入的突觸權(quán)系數(shù)。27第二十七頁,共一百零二頁,2022年,8月28日單層神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)x0=128第二十八頁,共一百零二頁,2022年,8月28日多層神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)以單隱含層網(wǎng)絡(luò)為例:Oj為隱含層的激勵29第二十九頁,共一百零二頁,2022年,8月28日4.2前向神經(jīng)網(wǎng)絡(luò)模型4.2.1網(wǎng)絡(luò)結(jié)構(gòu)4.2.2多層傳播網(wǎng)絡(luò)的BP學習算法4.2.3快速的BP改進算法30第三十頁,共一百零二頁,2022年,8月28日4.2.2多層傳播網(wǎng)絡(luò)的BP學習算法基本思想單層網(wǎng)絡(luò)的學習算法多層前向網(wǎng)絡(luò)學習算法31第三十一頁,共一百零二頁,2022年,8月28日1.有導師學習的基本思想性能指標為φ(·)是一個正定的、可微的凸函數(shù),常取32第三十二頁,共一百零二頁,2022年,8月28日2.單層網(wǎng)絡(luò)的學習算法激勵函數(shù)為線性函數(shù)時,可通過最小二乘法來學習。
激勵函數(shù)為非線性函數(shù)時,可采用Delta規(guī)則,即梯度法,有α是學習因子
33第三十三頁,共一百零二頁,2022年,8月28日4.多層前向網(wǎng)絡(luò)學習算法針對多層前向網(wǎng)絡(luò)有導師學習34第三十四頁,共一百零二頁,2022年,8月28日網(wǎng)絡(luò)模型第r+1個隱含層:輸出層35第三十五頁,共一百零二頁,2022年,8月28日采用梯度法:其中:定義廣義誤差:可得:BP學習算法36第三十六頁,共一百零二頁,2022年,8月28日反向誤差傳播輸出層時,有:隱含層時,有:37第三十七頁,共一百零二頁,2022年,8月28日例3-1假設(shè)對于期望的輸入。
網(wǎng)絡(luò)權(quán)系數(shù)的初始值見圖。試用BP算法訓練此網(wǎng)絡(luò)(本例中只給出一步迭代學習過程)。這里,取神經(jīng)元激勵函數(shù):
學習步長為38第三十八頁,共一百零二頁,2022年,8月28日圖3-1539第三十九頁,共一百零二頁,2022年,8月28日當前輸出40第四十頁,共一百零二頁,2022年,8月28日計算廣義誤差41第四十一頁,共一百零二頁,2022年,8月28日連接權(quán)系數(shù)更新42第四十二頁,共一百零二頁,2022年,8月28日學習流程43第四十三頁,共一百零二頁,2022年,8月28日(1)初始化設(shè)置學習因子η>0。較大時,收斂快,但易振蕩。較小時,反之。最大容許誤差Emax。 用于判斷學習是否結(jié)束。隨機賦網(wǎng)絡(luò)初始權(quán)值。 一般選擇比較小的隨機數(shù)。44第四十四頁,共一百零二頁,2022年,8月28日增量型學習累積型學習(2)學習方式45第四十五頁,共一百零二頁,2022年,8月28日收斂性46第四十六頁,共一百零二頁,2022年,8月28日(3)學習速率激勵函數(shù),如用Sigmoid函數(shù),應(yīng)增大斜率,減少飽和的情況。調(diào)節(jié)學習因子增加Momentum項47第四十七頁,共一百零二頁,2022年,8月28日例3-2:非線性函數(shù)逼近目標函數(shù):48第四十八頁,共一百零二頁,2022年,8月28日學習設(shè)置采用傳統(tǒng)的BP學習算法激勵函數(shù)都為Sigmoid函數(shù)。初始權(quán)系數(shù)陣由(0,1)之間的隨機數(shù)組成。學習步長η=0.09。學習樣本取20點,即:
校驗樣本取30點,即:49第四十九頁,共一百零二頁,2022年,8月28日兩種MLP模型的學習效果50第五十頁,共一百零二頁,2022年,8月28日4.2前向神經(jīng)網(wǎng)絡(luò)模型4.2.1網(wǎng)絡(luò)結(jié)構(gòu)4.2.2多層傳播網(wǎng)絡(luò)的BP學習算法4.2.3快速的BP改進算法51第五十一頁,共一百零二頁,2022年,8月28日1.快速BP算法Fahlman在1988年首先提出當問題滿足以下條件時:誤差表面呈拋物面、極值點附近凹面向上;某一權(quán)系數(shù)的梯度變化與其它權(quán)系數(shù)變化無關(guān)??刹扇∪缦碌母鹿?2第五十二頁,共一百零二頁,2022年,8月28日2.共軛梯度學習算法共軛梯度算法是一種經(jīng)典優(yōu)化方法共軛梯度學習算法 特點:使用二階導數(shù)信息,但不計算Hessian矩陣53第五十三頁,共一百零二頁,2022年,8月28日目標函數(shù)的二階近似目標函數(shù):Taylor展開:其中:54第五十四頁,共一百零二頁,2022年,8月28日最佳權(quán)系數(shù)求取函數(shù)取極小值時,最佳權(quán)系數(shù)可求解
獲得。由最優(yōu)化理論可知,解決H逆矩陣的計算問題方法之一是利用共軛梯度來間接地構(gòu)成H的逆矩陣值。55第五十五頁,共一百零二頁,2022年,8月28日共軛方向如果diHdjT=0對于所有的i≠j,i,j,=1,2,...,n。 則稱d1,d2,...,dn是H共軛的。可見d1,d2,...,dn是線性無關(guān)的,因此可作為一組基。56第五十六頁,共一百零二頁,2022年,8月28日最優(yōu)矩陣的間接求解記W*是極值點的權(quán)系數(shù)矢量,則有:令Wk=Wk-1+αkdk
,則n次迭代后可得W*。57第五十七頁,共一百零二頁,2022年,8月28日共軛梯度學習算法注意到則58第五十八頁,共一百零二頁,2022年,8月28日共軛矢量的遞推求取定義第一個矢量d1為初始點的負梯度矢量,即d1=-g1。根據(jù)gTk+1dk=0(線性無關(guān)),可得
dk+1=-gk+1+βkdk
βk=gk+1HdkT/(dkHdkT)注意到 (gk+1-gk)T=H(Wk+1-Wk)T=αkHdkT
所以βk=gk+1(gk+1-gk)T/[dk(gk+1-gk)T]
αk
可通過一維步長最優(yōu)搜索得到59第五十九頁,共一百零二頁,2022年,8月28日4.1引言4.2前向神經(jīng)網(wǎng)絡(luò)模型4.6神經(jīng)網(wǎng)絡(luò)控制基礎(chǔ)4.7非線性動態(tài)系統(tǒng)的神經(jīng)網(wǎng)絡(luò)辨識4.8神經(jīng)網(wǎng)絡(luò)控制的學習機制4.9神經(jīng)網(wǎng)絡(luò)控制器的設(shè)計4.3動態(tài)神經(jīng)網(wǎng)絡(luò)模型4.10單一神經(jīng)元控制法目錄60第六十頁,共一百零二頁,2022年,8月28日4.3動態(tài)神經(jīng)網(wǎng)絡(luò)模型動態(tài)神經(jīng)網(wǎng)絡(luò)帶時滯的多層感知器網(wǎng)絡(luò)Hopfield網(wǎng)絡(luò)回歸神經(jīng)網(wǎng)絡(luò)61第六十一頁,共一百零二頁,2022年,8月28日4.4.1帶時滯的多層感知器網(wǎng)絡(luò)有兩種實現(xiàn):無輸出反饋有輸出反饋62第六十二頁,共一百零二頁,2022年,8月28日帶時滯的多層感知器網(wǎng)絡(luò)1圖3-20時滯神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)63第六十三頁,共一百零二頁,2022年,8月28日帶時滯的多層感知器網(wǎng)絡(luò)2圖3-21帶反饋時滯神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)64第六十四頁,共一百零二頁,2022年,8月28日4.4.2Hopfield神經(jīng)網(wǎng)絡(luò)具有相互連接的反饋型神經(jīng)網(wǎng)絡(luò)模型將其定義的“能量函數(shù)”概念引入到神經(jīng)網(wǎng)絡(luò)研究中,給出了網(wǎng)絡(luò)的穩(wěn)定性判據(jù)。用模擬電子線路實現(xiàn)了所提出的模型,并成功地用神經(jīng)網(wǎng)絡(luò)方法實現(xiàn)了4位A/D轉(zhuǎn)換。65第六十五頁,共一百零二頁,2022年,8月28日類型1266第六十六頁,共一百零二頁,2022年,8月28日1.二值型的Hopfield網(wǎng)絡(luò)全連接單層網(wǎng)絡(luò)神經(jīng)元模型yi取值通常為0和1或-1和1
67第六十七頁,共一百零二頁,2022年,8月28日例3-4:狀態(tài)轉(zhuǎn)移關(guān)系假設(shè)一個3節(jié)點的離散Hopfield神經(jīng)網(wǎng)絡(luò),已知網(wǎng)絡(luò)權(quán)值與閾值如圖3-23(a)所示。采取隨機異步更新策略,求計算狀態(tài)轉(zhuǎn)移關(guān)系。68第六十八頁,共一百零二頁,2022年,8月28日狀態(tài)轉(zhuǎn)移圖69第六十九頁,共一百零二頁,2022年,8月28日動力學特征:能量井能量函數(shù)能量井:能量極小狀態(tài)(與網(wǎng)絡(luò)的穩(wěn)定狀態(tài)一一對應(yīng))用途:聯(lián)想記憶、優(yōu)化70第七十頁,共一百零二頁,2022年,8月28日能量井設(shè)計能量井的分布是由連接權(quán)值決定的。一是根據(jù)求解問題的要求直接計算出所需要的連接權(quán)值。這種方法為靜態(tài)產(chǎn)生方法,一旦權(quán)值確定下來就不再改變;二是通過提供一種學習機制來訓練網(wǎng)絡(luò),使其能夠自動調(diào)整連接權(quán)值,產(chǎn)生期望的能量井。這種方法為動態(tài)產(chǎn)生方法。71第七十一頁,共一百零二頁,2022年,8月28日(1)權(quán)值的靜態(tài)設(shè)計方法:例3-6如下圖3節(jié)點DHNN模型為例要求設(shè)計的能量井為狀態(tài)y1y2y3=010和111。權(quán)值和閾值可在[-1,1]區(qū)間取值,確定網(wǎng)絡(luò)權(quán)值和閾值。72第七十二頁,共一百零二頁,2022年,8月28日解對于狀態(tài)A,當系統(tǒng)處于穩(wěn)態(tài)時,有
W12+θ1<0 θ2>0W23+θ3<0對于狀態(tài)B,當系統(tǒng)處于穩(wěn)態(tài)時,有
W12+W13+θ1>0W12+W23+θ2>0W23+W13+θ3>073第七十三頁,共一百零二頁,2022年,8月28日特解W12=0.5,W13=0.4,W23=0.1,θ1=-0.7,θ2=0.2,θ3=-0.4.W12=-0.5,W13=0.5,W23=0.4,θ1=0.1,θ2=0.2,θ3=-0.7.出現(xiàn)了假能量井10074第七十四頁,共一百零二頁,2022年,8月28日(2)基于學習規(guī)則的設(shè)計方法Hebb學習規(guī)則(主要方法)δ學習規(guī)則
75第七十五頁,共一百零二頁,2022年,8月28日Hebb學習規(guī)則原則為:若i與j兩個神經(jīng)元同時處于興奮狀態(tài),則它們之間的連接應(yīng)加強,即:
.76第七十六頁,共一百零二頁,2022年,8月28日外積規(guī)則對于一給定的需記憶的樣本向量{t1,t2,...,tN},如果初始權(quán)值為0,tk的狀態(tài)值為+1或-1,則其連接權(quán)系數(shù)的學習可以利用“外積規(guī)則”,即:標量形式:活躍值為1或0時:77第七十七頁,共一百零二頁,2022年,8月28日2.網(wǎng)絡(luò)的穩(wěn)定性定理3-2:令S=(W,θ)代表神經(jīng)網(wǎng)絡(luò),W為一對稱矩陣。則有:如果S工作在串行模式,W的對角元素非負(包括對角元為0的情況),則網(wǎng)絡(luò)總是收斂于穩(wěn)定狀態(tài)。(即在狀態(tài)空間沒有極限環(huán)存在);如果S工作在并行模式時,網(wǎng)絡(luò)總是收斂于穩(wěn)定狀態(tài)或Hamming距離小于2的極限環(huán)。78第七十八頁,共一百零二頁,2022年,8月28日證明定義能量函數(shù)為:
將E(k)在Y(k)展開Talyor級數(shù),有:其中,
79第七十九頁,共一百零二頁,2022年,8月28日不失一般性,假設(shè)閾值函數(shù)f(·)為符號函數(shù)sgn(·)。則
其中:80第八十頁,共一百零二頁,2022年,8月28日顯然在串行工作方式下,81第八十一頁,共一百零二頁,2022年,8月28日例3-7:
假設(shè)神經(jīng)元的閾值矢量θ=0,網(wǎng)絡(luò)輸出只取兩值{0,1}。要求Hopfield網(wǎng)絡(luò)記憶如下穩(wěn)定狀態(tài),t1=(1010)T。設(shè)采取并行更新,并對以下三種初始狀態(tài)下的網(wǎng)絡(luò)行為作出評價。y1(0)=(1001)T,y2(0)=(1000)T,y3(0)=(0001)T。82第八十二頁,共一百零二頁,2022年,8月28日步驟1:權(quán)值設(shè)計根據(jù)得83第八十三頁,共一百零二頁,2022年,8月28日步驟2:穩(wěn)定性分析對于y1(0)有: [1,0,0,1]T→[0,0,0,0]T→[0,0,0,0]T,
因此y1=[0,0,0,0]T,是一個穩(wěn)定態(tài)。對于y2(0)有: [1,0,0,0]T→[0,0,1,0]T→[1,0,0,0]T,
所以初始狀態(tài)2不屬于此Hopfield網(wǎng)絡(luò)記憶范圍。無法實現(xiàn)聯(lián)想。對于y3(0)有: [0,0,0,1]T→[0,1,0,0]T→[0,0,0,1]T,
也不屬于此Hopfield區(qū)的記憶范圍。84第八十四頁,共一百零二頁,2022年,8月28日4.應(yīng)用:聯(lián)想記憶功能必須具備兩個基本條件:能夠收斂于穩(wěn)定狀態(tài),利用此穩(wěn)態(tài)來記憶樣本信息;具有回憶能力,能夠從某一局部輸入信息回憶起與其相關(guān)的其它記憶,或者由某一殘缺的信息回憶起比較完整的記憶。85第八十五頁,共一百零二頁,2022年,8月28日舉例:數(shù)字識別X=[x1,x2,...,xN]T
、X∈{-1,1}N
,N=10×12=12086第八十六頁,共一百零二頁,2022年,8月28日存在的問題假能量井現(xiàn)象并非任何一組樣本經(jīng)訓練都可構(gòu)成一組穩(wěn)定的狀態(tài)。給定一個偏離樣本的初始狀態(tài),最終不一定收斂到與其Hamming距離最近的標準樣本狀態(tài)。各樣本之間的Hamming距離分布對聯(lián)想記憶功能的正確實現(xiàn)有重要影響。若樣本之間相互正交(dH=N/2)效果最好。反之,若樣本特征相近則易出現(xiàn)錯誤識別。樣本數(shù)M越小,聯(lián)想記憶功能出現(xiàn)的錯誤的可能性越小。仿真研究表明,取M=0.15N時,聯(lián)想的正確率較高。87第八十七頁,共一百零二頁,2022年,8月28日4.連續(xù)型的Hopfield網(wǎng)絡(luò)與二值型的Hopfield網(wǎng)絡(luò)模型具有相同的拓撲結(jié)構(gòu)神經(jīng)元的狀態(tài)oj滿足:
N為網(wǎng)絡(luò)中神經(jīng)元的個數(shù);
oj
為神經(jīng)元j的狀態(tài);
cj
為常數(shù)且大于0;
Rj
為正數(shù);
xj
為外部輸入;
yi
為神經(jīng)元i的輸出,滿足yi=f(oi)。88第八十八頁,共一百零二頁,2022年,8月28日穩(wěn)定性引入一個能量函數(shù)E:定理3-3:若f-1
為單調(diào)遞增且連續(xù), ,則沿系統(tǒng)軌道有:且當且僅當時,89第八十九頁,共一百零二頁,2022年,8月28日證明因為且當時,90第九十頁,共一百零二頁,2022年,8月28日5.優(yōu)化問題的應(yīng)用:TSP問題旅行商最優(yōu)路徑問題(TravellingSalesmanProblem,簡稱TSP)91第九十一頁,共一百零二頁,2022年,
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
- 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 人力勞務(wù)招工合同樣本
- 企業(yè)租賃物業(yè)合同樣本
- 享受經(jīng)濟補償合同樣本
- 公租房拆遷合同范例
- 傳媒公司學員合同樣本
- 伐木木材出售合同標準文本
- 買賣酒合同標準文本
- 買物品正式合同樣本
- 住房協(xié)議合同樣本
- 全款買房房屋合同樣本
- 某煤業(yè)有限公司機電安裝工程竣工驗收資料
- 隱患排查統(tǒng)計分析報告
- 給小學數(shù)學教師的建議
- 中國古代文學史二復習資料
- 2024年重慶發(fā)展投資有限公司招聘筆試參考題庫含答案解析
- 成熟生產(chǎn)線評價報告
- 足球準確傳球訓練技巧:提高準確傳球能力掌控比賽節(jié)奏
- 自救器培訓(2023年煤礦安全生產(chǎn)培訓教師培訓班隨堂課程設(shè)計)
- 成人癌性疼痛護理指南解讀
- 供應(yīng)鏈安全風險評估與管理項目風險評估報告
- 2023年-2024年電子物證專業(yè)考試復習題庫(含答案)
評論
0/150
提交評論