




版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)
文檔簡介
1、2021/4/11貝葉斯網(wǎng)絡(luò)簡介貝葉斯網(wǎng)絡(luò)簡介Introduction to Bayesian Networks 2021/4/12基本框架基本框架 貝葉斯網(wǎng)絡(luò):貝葉斯網(wǎng)絡(luò): 概率論概率論 圖論圖論2021/4/13基本思路基本思路 貝葉斯網(wǎng)絡(luò)是為了處理人工智能研究中貝葉斯網(wǎng)絡(luò)是為了處理人工智能研究中的不確定性的不確定性(uncertainty)問題而發(fā)展起來問題而發(fā)展起來的的. 貝葉斯網(wǎng)絡(luò)是將概率統(tǒng)計應(yīng)用于復(fù)雜領(lǐng)貝葉斯網(wǎng)絡(luò)是將概率統(tǒng)計應(yīng)用于復(fù)雜領(lǐng)域進(jìn)行不確定性推理和數(shù)據(jù)分析的工具域進(jìn)行不確定性推理和數(shù)據(jù)分析的工具。 BN是一種系統(tǒng)地描述隨即變量之間關(guān)系是一種系統(tǒng)地描述隨即變量之間關(guān)系的工具。
2、建立的工具。建立BN的目的主要是進(jìn)行概率的目的主要是進(jìn)行概率推理推理(probabilistic inference)。 用概率論處理不確定性的主要優(yōu)點是保用概率論處理不確定性的主要優(yōu)點是保證推理結(jié)果的正確性。證推理結(jié)果的正確性。2021/4/14幾個重要原理幾個重要原理 鏈規(guī)則鏈規(guī)則(chain rule) 貝葉斯定理貝葉斯定理(Bayes theorem) 利用變量間條件獨立性利用變量間條件獨立性),.,|().|()(),.,(2112121nnnXXXXPXXPXPXXXP2021/4/15 What are they? Bayesian nets are a network-base
3、d framework for representing and analyzing models involving uncertainty What are they used for? Intelligent decision aids, data fusion, feature recognition, intelligent diagnostic aids, automated free text understanding, data mining Where did they come from? Cross fertilization of ideas between the
4、artificial intelligence, decision analysis, and statistic communities2021/4/16貝葉斯網(wǎng)絡(luò)的幾個主要問題貝葉斯網(wǎng)絡(luò)的幾個主要問題F貝葉斯網(wǎng)絡(luò)概率推理貝葉斯網(wǎng)絡(luò)概率推理(Probabilistic Inference)F結(jié)構(gòu)學(xué)習(xí)結(jié)構(gòu)學(xué)習(xí) (structure learning)F參數(shù)學(xué)習(xí)參數(shù)學(xué)習(xí) (Parameter learning)F分類分類 (classification)FF 隱變量及隱結(jié)構(gòu)學(xué)習(xí)隱變量及隱結(jié)構(gòu)學(xué)習(xí) (Hidden variables and hidden structure learning)20
5、21/4/17一個簡單貝葉斯網(wǎng)絡(luò)例子一個簡單貝葉斯網(wǎng)絡(luò)例子2021/4/18一個簡單貝葉斯網(wǎng)絡(luò)例子一個簡單貝葉斯網(wǎng)絡(luò)例子 計算過程:計算過程: (1) P(y1|x1)=0.9 P(z1|x1)=P(z1|y1,x1)P(y1|x1)+P(z1|y2,x1)P(y2|x1) =P(z1|y1)P(y1|x1)+P(z1|y2)P(y2|x1) =0.7*0.9+0.4*0.1=0.67 P(w1|x1)=P(w1|z1,x1)P(z1|x1)+P(w1|z2,x1)P(z2|x1) =P(w1|z1)P(z1|x1)+P(w1|z2)P(z2|x1) =0.5*0.67+0.6*0.33=0.
6、533 該計算利用向下概率傳播及鏈?zhǔn)揭?guī)則。該計算利用向下概率傳播及鏈?zhǔn)揭?guī)則。2021/4/19一個簡單貝葉斯網(wǎng)絡(luò)例子一個簡單貝葉斯網(wǎng)絡(luò)例子計算過程:計算過程:(2) P(y1)=P(y1|x1)P(x1)+P(y1|x2)P(x2)=0.9*0.4+0.8*0.6=0.84P(z1)=P(z1|y1)P(y1)+P(z1|y2)P(y2)=0.7*0.84+0.4*0.16=0.652P(w1)=P(w1|z1)P(z1)+P(w1|z2)P(z2)=0.5*0.652+0.6*0.348=0.5348P(w1|y1)=P(w1|z1)P(z1|y1)+P(w1|z2)P(z2|y1)=0.5
7、*0.7+0.6*0.3=0.53P(w1|y2)=P(w1|z1)P(z1|y2)+P(w1|z2)P(z2|y2) =0.5*0.4+0.6*0.6=0.56P(w1|x1)=P(w1|y1)P(y1|x1)+P(w1|y2)P(y2|x1) =0.53*0.9+0.56*0.1=0.533 該計算利用向上概率傳播及貝葉斯定理。該計算利用向上概率傳播及貝葉斯定理。 2021/4/110為什么要用貝葉斯網(wǎng)絡(luò)進(jìn)行概率推理?為什么要用貝葉斯網(wǎng)絡(luò)進(jìn)行概率推理? 理論上,進(jìn)行概率推理所需要的只是一個聯(lián)合概率分理論上,進(jìn)行概率推理所需要的只是一個聯(lián)合概率分布。但是聯(lián)合概率分布的復(fù)雜度相對于變量個數(shù)成指
8、布。但是聯(lián)合概率分布的復(fù)雜度相對于變量個數(shù)成指數(shù)增長,所以當(dāng)變量眾多時不可行。數(shù)增長,所以當(dāng)變量眾多時不可行。 貝葉斯網(wǎng)絡(luò)的提出就是要解決這個問題。貝葉斯網(wǎng)絡(luò)的提出就是要解決這個問題。它把復(fù)雜的它把復(fù)雜的聯(lián)合概率分布分解成一系列相對簡單的模塊,從而大聯(lián)合概率分布分解成一系列相對簡單的模塊,從而大大降低知識獲取和概率推理的復(fù)雜度,使得可以把概大降低知識獲取和概率推理的復(fù)雜度,使得可以把概率論應(yīng)用于大型問題。率論應(yīng)用于大型問題。 統(tǒng)計學(xué)、系統(tǒng)工程、信息論以及模式識別等學(xué)科中貝統(tǒng)計學(xué)、系統(tǒng)工程、信息論以及模式識別等學(xué)科中貝葉斯網(wǎng)絡(luò)特里的多元概率模型:樸素貝葉斯模型,隱葉斯網(wǎng)絡(luò)特里的多元概率模型:樸素
9、貝葉斯模型,隱類模型,混合模型,隱馬爾科夫模型,卡爾曼濾波器類模型,混合模型,隱馬爾科夫模型,卡爾曼濾波器等。等。 動態(tài)貝葉斯網(wǎng)絡(luò)主要用于對多維離散時間序列的監(jiān)控動態(tài)貝葉斯網(wǎng)絡(luò)主要用于對多維離散時間序列的監(jiān)控和預(yù)測。和預(yù)測。 多層隱類模型,能夠揭示觀測變量背后的隱結(jié)構(gòu)。多層隱類模型,能夠揭示觀測變量背后的隱結(jié)構(gòu)。2021/4/111概率論基礎(chǔ)貝葉斯網(wǎng)絡(luò)所依賴的一個核心貝葉斯網(wǎng)絡(luò)所依賴的一個核心概念是條件獨立概念是條件獨立: Conditional Independence2021/4/112基本概念基本概念2021/4/113例子例子P(C, S,R,W) = P(C)P(S|C)P(R|S,
10、C)P(W|S,R,C) chain rule = P(C)P(S|C)P(R|C)P(W|S,R,C) since = P(C)P(S|C)P(R|C)P(W|S,R) since 2021/4/114貝葉斯網(wǎng)絡(luò)應(yīng)用l 醫(yī)療診斷,醫(yī)療診斷,l 工業(yè),工業(yè),l 金融分析,金融分析,l 計算機(微軟計算機(微軟Windows,Office),),l 模式識別:分類,語義理解模式識別:分類,語義理解l 軍事(目標(biāo)識別,多目標(biāo)跟蹤,戰(zhàn)爭身份識別軍事(目標(biāo)識別,多目標(biāo)跟蹤,戰(zhàn)爭身份識別等),等),l 生態(tài)學(xué),生態(tài)學(xué),l 生物信息學(xué)(貝葉斯網(wǎng)絡(luò)在基因連鎖分析中應(yīng)生物信息學(xué)(貝葉斯網(wǎng)絡(luò)在基因連鎖分析中應(yīng)用
11、),用),l 編碼學(xué),編碼學(xué),l 分類聚類,分類聚類,l 時序數(shù)據(jù)和動態(tài)模型時序數(shù)據(jù)和動態(tài)模型2021/4/115圖分割與變量獨立圖分割與變量獨立圖分割,有向分割(圖分割,有向分割(d-separate,d-分割)分割)變量變量X和和Y通過第三個變量通過第三個變量Z間接相連的三種情況:間接相連的三種情況:阻塞阻塞(block)設(shè)設(shè)Z為一節(jié)點集合,為一節(jié)點集合,X和和Y是不在是不在Z中的兩個節(jié)點。考慮中的兩個節(jié)點??紤]X和和Y之間的一條通之間的一條通路。如果滿足下面條件之一,則稱被路。如果滿足下面條件之一,則稱被Z所阻塞:所阻塞:1有一個在有一個在Z中的順連節(jié)點;中的順連節(jié)點;2有一個在有一個在
12、Z中的分連節(jié)點中的分連節(jié)點3 有一個匯連節(jié)點有一個匯連節(jié)點W,它和它的后代節(jié)點均不在,它和它的后代節(jié)點均不在Z中。中。2021/4/116圖分割與變量獨立圖分割與變量獨立 如果如果X和和Y之間的所有通路都被之間的所有通路都被Z阻塞,則說阻塞,則說Z有向分有向分割割(directed separate)X和和Y,簡稱,簡稱d-separate,d-分割。分割。那么那么X和和Y在給定在給定Z時條件獨立。時條件獨立。 定理(整體馬爾科夫性)定理(整體馬爾科夫性)設(shè)設(shè)X和和Y為貝葉斯網(wǎng)為貝葉斯網(wǎng)N中的兩中的兩個變量,個變量,Z為為N中一個不包含中一個不包含X和和Y的節(jié)點集合。如果的節(jié)點集合。如果Z d
13、-分割分割X和和Y,那么,那么X和和Y在給定在給定Z時條件獨立,即時條件獨立,即 d-分割是圖論的概念,而條件獨立是概率論的概念,分割是圖論的概念,而條件獨立是概率論的概念,所以定理揭示了貝葉斯網(wǎng)絡(luò)圖論側(cè)面和概率論側(cè)面之所以定理揭示了貝葉斯網(wǎng)絡(luò)圖論側(cè)面和概率論側(cè)面之間的關(guān)系。間的關(guān)系。2021/4/117馬爾科夫邊界與端正圖馬爾科夫邊界與端正圖馬爾科夫邊界:條件獨立性馬爾科夫邊界:條件獨立性 在貝葉斯網(wǎng)絡(luò)中,一個節(jié)點在貝葉斯網(wǎng)絡(luò)中,一個節(jié)點X的馬爾科夫邊界的馬爾科夫邊界(Markov boundary)包括其父節(jié)點、子節(jié)點、以及子節(jié)點的父節(jié)包括其父節(jié)點、子節(jié)點、以及子節(jié)點的父節(jié)點。點。 端正圖
14、端正圖(Moral graph): 團(tuán)樹傳播算法團(tuán)樹傳播算法-junction tree 設(shè)設(shè)G為一有向無環(huán)圖,如果將為一有向無環(huán)圖,如果將G中每個節(jié)點的不同父節(jié)中每個節(jié)點的不同父節(jié)點結(jié)合,即在他們之間加一條邊,然后去掉所有邊的點結(jié)合,即在他們之間加一條邊,然后去掉所有邊的方向,所得到的無向圖成為方向,所得到的無向圖成為G的端正圖。的端正圖。2021/4/118貝葉斯網(wǎng)絡(luò)推理貝葉斯網(wǎng)絡(luò)推理(Inference)貝葉斯網(wǎng)絡(luò)可以利用變量間的條件獨立對聯(lián)合分貝葉斯網(wǎng)絡(luò)可以利用變量間的條件獨立對聯(lián)合分布進(jìn)行分解,降低參數(shù)個數(shù)。布進(jìn)行分解,降低參數(shù)個數(shù)。 推理推理(inference)是通過計算來回答查
15、詢的過程是通過計算來回答查詢的過程 計算后驗概率分布:計算后驗概率分布:P(Q|E=e)2021/4/119貝葉斯網(wǎng)絡(luò)推理貝葉斯網(wǎng)絡(luò)推理(Inference)1 變量消元算法變量消元算法(Variable elimination) 利用概率分解降低推理復(fù)雜度。利用概率分解降低推理復(fù)雜度。 使得運算局部化。消元過程實質(zhì)上就是一個邊緣化的過程。使得運算局部化。消元過程實質(zhì)上就是一個邊緣化的過程。 最優(yōu)消元順序:最大勢搜索,最小缺邊搜索最優(yōu)消元順序:最大勢搜索,最小缺邊搜索2021/4/120貝葉斯網(wǎng)絡(luò)推理貝葉斯網(wǎng)絡(luò)推理(Inference)2. 團(tuán)樹傳播算法l利用步驟共享來加快推理的算法。l團(tuán)樹(
16、clique tree)是一種無向樹,其中每一個節(jié)點代表一個變量集合,稱為團(tuán)(clique)。團(tuán)樹必須滿足變量連通性,即包含同一變量的所有團(tuán)所導(dǎo)出的子圖必須是連通的。 2021/4/121 用團(tuán)樹組織變量消元的算法。計算共享用團(tuán)樹組織變量消元的算法。計算共享 團(tuán)樹傳播算法基本步驟:團(tuán)樹傳播算法基本步驟: 將貝葉斯網(wǎng)絡(luò)轉(zhuǎn)化為團(tuán)樹將貝葉斯網(wǎng)絡(luò)轉(zhuǎn)化為團(tuán)樹 團(tuán)樹初始化團(tuán)樹初始化 在團(tuán)樹中選一個團(tuán)作為樞紐在團(tuán)樹中選一個團(tuán)作為樞紐 全局概率傳播:全局概率傳播:CollectMessage; DistributeMessage 邊緣化,歸一化邊緣化,歸一化2021/4/122 團(tuán)樹傳播算法示例團(tuán)樹傳播算法示
17、例 (TLR是樞紐節(jié)點)是樞紐節(jié)點) FF變量消元和團(tuán)樹傳播算法都是精確推理算法。變量消元和團(tuán)樹傳播算法都是精確推理算法。2021/4/123貝葉斯網(wǎng)絡(luò)推理貝葉斯網(wǎng)絡(luò)推理(Inference)3 . 近似推理近似推理(1) 隨機抽樣算法:順序抽樣法,隨機抽樣算法:順序抽樣法,MCMC抽樣抽樣 是一類應(yīng)用于數(shù)值積分和統(tǒng)計物理中的近似計是一類應(yīng)用于數(shù)值積分和統(tǒng)計物理中的近似計算方法?;舅枷胧菑哪硞€概率分布隨機抽樣算方法?;舅枷胧菑哪硞€概率分布隨機抽樣,生成一組樣本,然后從樣本出發(fā)近似計算感,生成一組樣本,然后從樣本出發(fā)近似計算感興趣的量。興趣的量。 隨機抽樣算法理論基礎(chǔ)是隨機抽樣算法理論基礎(chǔ)是
18、大數(shù)定律大數(shù)定律。 2021/4/124MCMC算法算法吉布斯抽樣吉布斯抽樣(Gibbs sampling)。它首先隨機生。它首先隨機生成一個與證據(jù)成一個與證據(jù)E=e相一致的樣本相一致的樣本s1作為起始樣本。此后,作為起始樣本。此后,每個樣本每個樣本si的產(chǎn)生都依賴于前一個樣本的產(chǎn)生都依賴于前一個樣本si-1,且且si與與si-1最多最多只有一個非證據(jù)變量的取值不同,記改變量為只有一個非證據(jù)變量的取值不同,記改變量為X。 X的取值可以從非證據(jù)變量中隨機選取,也可以按某個固的取值可以從非證據(jù)變量中隨機選取,也可以按某個固定順序輪流決定。定順序輪流決定。 在在si中,中,X的值通過隨機抽樣決定,抽
19、樣分布是:的值通過隨機抽樣決定,抽樣分布是: 當(dāng)樣本數(shù)當(dāng)樣本數(shù) 時,馬氏鏈理論保證了算法返回的結(jié)果收時,馬氏鏈理論保證了算法返回的結(jié)果收斂于真正的后驗概率。吉布斯抽樣的缺點是收斂速度慢,斂于真正的后驗概率。吉布斯抽樣的缺點是收斂速度慢,因為馬氏鏈往往需要花很長時間才能真正達(dá)到平穩(wěn)分布。因為馬氏鏈往往需要花很長時間才能真正達(dá)到平穩(wěn)分布。 (2) 變分法。變分法。2021/4/125貝葉斯網(wǎng)絡(luò)學(xué)習(xí)貝葉斯網(wǎng)絡(luò)學(xué)習(xí)1. 結(jié)構(gòu)學(xué)習(xí):發(fā)現(xiàn)變量之間的圖關(guān)系結(jié)構(gòu)學(xué)習(xí):發(fā)現(xiàn)變量之間的圖關(guān)系 ,2 .參數(shù)學(xué)習(xí):決定變量之間互相關(guān)聯(lián)的量化關(guān)系。參數(shù)學(xué)習(xí):決定變量之間互相關(guān)聯(lián)的量化關(guān)系。 2021/4/126貝葉斯網(wǎng)
20、絡(luò)結(jié)構(gòu)學(xué)習(xí)貝葉斯網(wǎng)絡(luò)結(jié)構(gòu)學(xué)習(xí)l 選擇具有最大后驗概率的結(jié)構(gòu)選擇具有最大后驗概率的結(jié)構(gòu) 。l 基于評分函數(shù)基于評分函數(shù)(scoring function):BIC, MDL, AIC等等 拉普拉斯近似拉普拉斯近似(Laplace approximation):對拉普拉斯近似簡化,得對拉普拉斯近似簡化,得BIC:BICBIC既不依賴于先驗也不依賴于參數(shù)坐標(biāo)系統(tǒng)既不依賴于先驗也不依賴于參數(shù)坐標(biāo)系統(tǒng) 第一項度量參數(shù)模型預(yù)測數(shù)據(jù)的優(yōu)良程度,第二項用于懲罰模型復(fù)雜度第一項度量參數(shù)模型預(yù)測數(shù)據(jù)的優(yōu)良程度,第二項用于懲罰模型復(fù)雜度 2021/4/127結(jié)構(gòu)學(xué)習(xí)算法結(jié)構(gòu)學(xué)習(xí)算法算法:算法:u K2: 通過為每個
21、結(jié)點尋找父結(jié)點集合來學(xué)習(xí)貝葉斯網(wǎng)絡(luò)結(jié)構(gòu)。它不斷通過為每個結(jié)點尋找父結(jié)點集合來學(xué)習(xí)貝葉斯網(wǎng)絡(luò)結(jié)構(gòu)。它不斷往父結(jié)點集中添加結(jié)點,并選擇能最大化數(shù)據(jù)和結(jié)構(gòu)的聯(lián)合概率往父結(jié)點集中添加結(jié)點,并選擇能最大化數(shù)據(jù)和結(jié)構(gòu)的聯(lián)合概率的結(jié)點集。的結(jié)點集。 u HillClimbing (operators: edge addition, edge deletion, edge reversion) 從一個無邊結(jié)構(gòu)開始,在每一步,它添加能最大化從一個無邊結(jié)構(gòu)開始,在每一步,它添加能最大化BIC的邊。算的邊。算法在通過添加邊不能再提高結(jié)構(gòu)得分時停止。法在通過添加邊不能再提高結(jié)構(gòu)得分時停止。u 缺值數(shù)據(jù)結(jié)構(gòu)學(xué)習(xí):缺值數(shù)
22、據(jù)結(jié)構(gòu)學(xué)習(xí):Structural EM SEM不是每次迭代都同時優(yōu)化模型結(jié)構(gòu)和參數(shù),而是先固定模型不是每次迭代都同時優(yōu)化模型結(jié)構(gòu)和參數(shù),而是先固定模型結(jié)構(gòu)進(jìn)行數(shù)次參數(shù)優(yōu)化后,再進(jìn)行一次結(jié)構(gòu)加參數(shù)優(yōu)化,如此交結(jié)構(gòu)進(jìn)行數(shù)次參數(shù)優(yōu)化后,再進(jìn)行一次結(jié)構(gòu)加參數(shù)優(yōu)化,如此交替進(jìn)行。替進(jìn)行。 目的:減小計算復(fù)雜度。目的:減小計算復(fù)雜度。 2021/4/1282021/4/1292021/4/130貝葉斯網(wǎng)絡(luò)參數(shù)學(xué)習(xí)貝葉斯網(wǎng)絡(luò)參數(shù)學(xué)習(xí)u最大似然估計最大似然估計 完全基于數(shù)據(jù),不需要先驗概率:完全基于數(shù)據(jù),不需要先驗概率: u貝葉斯估計貝葉斯估計 假定在考慮數(shù)據(jù)之前,網(wǎng)絡(luò)參數(shù)服從某個先驗分布。假定在考慮數(shù)據(jù)之前
23、,網(wǎng)絡(luò)參數(shù)服從某個先驗分布。先驗的主觀概率先驗的主觀概率,它的影響隨著數(shù)據(jù)量的增大而減小。它的影響隨著數(shù)據(jù)量的增大而減小。 2021/4/131貝葉斯網(wǎng)絡(luò)參數(shù)學(xué)習(xí)貝葉斯網(wǎng)絡(luò)參數(shù)學(xué)習(xí)u缺值數(shù)據(jù)最大似然估計:缺值數(shù)據(jù)最大似然估計:EM算法算法 (迭代算法)(迭代算法) 1 基于基于 對數(shù)據(jù)進(jìn)行修補,使之完整對數(shù)據(jù)進(jìn)行修補,使之完整 (E-step) 2 基于修補后的完整數(shù)據(jù)計算的最大似然估計基于修補后的完整數(shù)據(jù)計算的最大似然估計 (M-Step)EM算法是收斂的。算法是收斂的。2021/4/132隱結(jié)構(gòu)模型學(xué)習(xí)隱結(jié)構(gòu)模型學(xué)習(xí)l 隱變量是取值未被觀察到的變量。通過數(shù)據(jù)分析:隱變量是取值未被觀察到的變
24、量。通過數(shù)據(jù)分析: 1 隱變量的個數(shù)隱變量的個數(shù) 2 隱結(jié)構(gòu)隱結(jié)構(gòu) 3 隱變量的勢隱變量的勢 4 模型參數(shù)模型參數(shù)l 方法:基于評分函數(shù)的爬山法方法:基于評分函數(shù)的爬山法 G是一個隱變量模型,是一個隱變量模型,D是一組數(shù)據(jù)。是一組數(shù)據(jù)。 是是G的參數(shù)的某一個最大似然估計,的參數(shù)的某一個最大似然估計, 是是G的有效維數(shù)。的有效維數(shù)。 u隱變量勢學(xué)習(xí)爬山算法隱變量勢學(xué)習(xí)爬山算法u隱結(jié)構(gòu)學(xué)習(xí)雙重爬山算法隱結(jié)構(gòu)學(xué)習(xí)雙重爬山算法2021/4/133貝葉斯網(wǎng)絡(luò)用于分類和因果關(guān)系分析貝葉斯網(wǎng)絡(luò)用于分類和因果關(guān)系分析(1) Nave Bayesian networks(2) Tree augment Baye
25、sian networks, et al.(3) PC (Spirtes et al.,2000) , IC(Pearl,2000) algorithm2021/4/134動態(tài)貝葉斯網(wǎng)絡(luò)動態(tài)貝葉斯網(wǎng)絡(luò)DBN: Dynamic Bayesian networks Dealing with time In many systems, data arrives sequentially Dynamic Bayes nets (DBNs) can be used to model such time-series (sequence) data Special cases of DBNs include State-space models Hidden Markov models (HMMs)2021/4/135Software ToolsuMicrosofts MSBNXuBNT Kevin Murphy. BayesNet Toolbox for Matlab (BNT). http:/www.cs.ubc
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 心理資本與學(xué)習(xí)動力企業(yè)培訓(xùn)的新視角
- 教育技術(shù)在遠(yuǎn)程辦公中的實踐與思考
- 教育品牌在數(shù)字時代的品牌塑造與傳播
- 培養(yǎng)孩子學(xué)習(xí)興趣從心理學(xué)角度出發(fā)的教育方法探討
- 教育行業(yè)未來趨勢與學(xué)習(xí)路勁規(guī)劃
- 智慧教育與學(xué)生學(xué)習(xí)動力的關(guān)系研究
- 從數(shù)據(jù)泄露看教育技術(shù)的倫理困境
- 教育心理學(xué)與教師決策實踐與探索
- 中職思政課課件
- 2025屆安徽省池州一中物理高一下期末教學(xué)質(zhì)量檢測試題含解析
- 高中歷史《第一次工業(yè)革命》說課課件
- 預(yù)計財務(wù)報表編制及分析課件
- 學(xué)生集體外出活動備案表
- Q∕SY 1347-2010 石油化工蒸汽透平式壓縮機組節(jié)能監(jiān)測方法
- 基于Qt的俄羅斯方塊的設(shè)計(共25頁)
- 西門子順序功能圖語言S7-Graph的應(yīng)用
- 中醫(yī)治療室工作制度管理辦法
- 提花裝造工藝技術(shù)培訓(xùn)課程
- 食堂投訴處理方案
- 北京市昌平區(qū)2021-2022學(xué)年八年級上學(xué)期期末考試語文試卷(word版含答案)
- 直播傳媒公司簡介PPT課件(參考)
評論
0/150
提交評論