計(jì)算機(jī)視覺:面部識別:面部識別原理與應(yīng)用_第1頁
計(jì)算機(jī)視覺:面部識別:面部識別原理與應(yīng)用_第2頁
計(jì)算機(jī)視覺:面部識別:面部識別原理與應(yīng)用_第3頁
計(jì)算機(jī)視覺:面部識別:面部識別原理與應(yīng)用_第4頁
計(jì)算機(jī)視覺:面部識別:面部識別原理與應(yīng)用_第5頁
已閱讀5頁,還剩11頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

計(jì)算機(jī)視覺:面部識別:面部識別原理與應(yīng)用1計(jì)算機(jī)視覺基礎(chǔ)1.1圖像處理基礎(chǔ)在計(jì)算機(jī)視覺領(lǐng)域,圖像處理是基礎(chǔ)中的基礎(chǔ)。它涉及對圖像進(jìn)行一系列操作,以增強(qiáng)圖像質(zhì)量、提取有用信息或?yàn)楹罄m(xù)的高級分析做準(zhǔn)備。圖像處理技術(shù)可以分為幾個(gè)關(guān)鍵步驟:1.1.1圖像獲取圖像獲取是通過攝像頭或掃描儀等設(shè)備捕獲圖像的過程。獲取的圖像可能需要進(jìn)行預(yù)處理,如調(diào)整亮度和對比度,以適應(yīng)后續(xù)處理。1.1.2圖像預(yù)處理預(yù)處理包括圖像的灰度化、二值化、噪聲去除等。例如,使用OpenCV庫進(jìn)行圖像灰度化:importcv2

importnumpyasnp

#讀取圖像

img=cv2.imread('path_to_image.jpg')

#轉(zhuǎn)換為灰度圖像

gray_img=cv2.cvtColor(img,cv2.COLOR_BGR2GRAY)

#顯示灰度圖像

cv2.imshow('GrayImage',gray_img)

cv2.waitKey(0)

cv2.destroyAllWindows()1.1.3圖像增強(qiáng)圖像增強(qiáng)技術(shù)用于改善圖像的視覺效果,如銳化、對比度增強(qiáng)等。下面是一個(gè)使用OpenCV進(jìn)行圖像銳化的示例:#讀取圖像

img=cv2.imread('path_to_image.jpg')

#定義銳化核

kernel=np.array([[-1,-1,-1],[-1,9,-1],[-1,-1,-1]])

#應(yīng)用銳化

sharp_img=cv2.filter2D(img,-1,kernel)

#顯示銳化后的圖像

cv2.imshow('SharpImage',sharp_img)

cv2.waitKey(0)

cv2.destroyAllWindows()1.2特征提取技術(shù)特征提取是計(jì)算機(jī)視覺中的關(guān)鍵步驟,它從圖像中提取出描述對象的特征,以便進(jìn)行識別或分類。常見的特征提取技術(shù)包括:1.2.1SIFT(Scale-InvariantFeatureTransform)SIFT是一種用于檢測和描述圖像中的關(guān)鍵點(diǎn)的算法,它對尺度和旋轉(zhuǎn)具有不變性。下面是一個(gè)使用OpenCV實(shí)現(xiàn)SIFT的示例:importcv2

importnumpyasnp

#讀取圖像

img=cv2.imread('path_to_image.jpg',0)

#初始化SIFT檢測器

sift=cv2.SIFT_create()

#計(jì)算關(guān)鍵點(diǎn)和描述符

keypoints,descriptors=sift.detectAndCompute(img,None)

#繪制關(guān)鍵點(diǎn)

img_with_keypoints=cv2.drawKeypoints(img,keypoints,None)

#顯示帶有關(guān)鍵點(diǎn)的圖像

cv2.imshow('SIFTKeypoints',img_with_keypoints)

cv2.waitKey(0)

cv2.destroyAllWindows()1.2.2HOG(HistogramofOrientedGradients)HOG特征是用于物體檢測的特征描述符,它通過計(jì)算圖像中局部區(qū)域的梯度方向直方圖來描述圖像的形狀。importcv2

importnumpyasnp

#讀取圖像

img=cv2.imread('path_to_image.jpg',0)

#初始化HOG描述符

hog=cv2.HOGDescriptor()

#計(jì)算HOG特征

hog_features=pute(img)

#打印HOG特征的形狀

print(hog_features.shape)1.3卷積神經(jīng)網(wǎng)絡(luò)簡介卷積神經(jīng)網(wǎng)絡(luò)(CNN)是深度學(xué)習(xí)中的一種網(wǎng)絡(luò)結(jié)構(gòu),特別適用于圖像處理和計(jì)算機(jī)視覺任務(wù)。CNN通過卷積層、池化層和全連接層的組合,能夠自動(dòng)學(xué)習(xí)圖像的特征表示。1.3.1卷積層卷積層使用一組可學(xué)習(xí)的濾波器來檢測圖像中的局部特征。下面是一個(gè)使用Keras構(gòu)建簡單CNN的示例:fromkeras.modelsimportSequential

fromkeras.layersimportConv2D

#創(chuàng)建模型

model=Sequential()

#添加卷積層

model.add(Conv2D(32,(3,3),activation='relu',input_shape=(64,64,3)))

#編譯模型

pile(optimizer='adam',loss='binary_crossentropy',metrics=['accuracy'])

#打印模型結(jié)構(gòu)

model.summary()1.3.2池化層池化層用于降低卷積層的輸出維度,同時(shí)保留重要信息。常見的池化操作有最大池化和平均池化。fromkeras.modelsimportSequential

fromkeras.layersimportMaxPooling2D

#創(chuàng)建模型

model=Sequential()

#添加卷積層

model.add(Conv2D(32,(3,3),activation='relu',input_shape=(64,64,3)))

#添加最大池化層

model.add(MaxPooling2D(pool_size=(2,2)))

#編譯模型

pile(optimizer='adam',loss='binary_crossentropy',metrics=['accuracy'])

#打印模型結(jié)構(gòu)

model.summary()1.3.3全連接層全連接層用于將卷積層和池化層提取的特征轉(zhuǎn)換為分類或回歸的輸出。在CNN中,全連接層通常位于網(wǎng)絡(luò)的末端。fromkeras.modelsimportSequential

fromkeras.layersimportConv2D,MaxPooling2D,Flatten,Dense

#創(chuàng)建模型

model=Sequential()

#添加卷積層和池化層

model.add(Conv2D(32,(3,3),activation='relu',input_shape=(64,64,3)))

model.add(MaxPooling2D(pool_size=(2,2)))

#添加全連接層

model.add(Flatten())

model.add(Dense(128,activation='relu'))

model.add(Dense(1,activation='sigmoid'))

#編譯模型

pile(optimizer='adam',loss='binary_crossentropy',metrics=['accuracy'])

#打印模型結(jié)構(gòu)

model.summary()通過上述示例,我們可以看到如何使用Python和相關(guān)庫進(jìn)行圖像處理、特征提取以及構(gòu)建卷積神經(jīng)網(wǎng)絡(luò)。這些技術(shù)是計(jì)算機(jī)視覺中面部識別等高級應(yīng)用的基礎(chǔ)。2面部識別原理2.1面部檢測算法2.1.1Haar特征與Adaboost算法Haar特征是一種簡單有效的特征描述方法,用于快速檢測圖像中的對象。Adaboost算法則是一種集成學(xué)習(xí)方法,可以將多個(gè)弱分類器組合成一個(gè)強(qiáng)分類器。在面部檢測中,通常使用Haar特征結(jié)合Adaboost算法來訓(xùn)練分類器,識別圖像中的面部區(qū)域。示例代碼importcv2

#加載預(yù)訓(xùn)練的Haar級聯(lián)分類器

face_cascade=cv2.CascadeClassifier('haarcascade_frontalface_default.xml')

#讀取圖像

img=cv2.imread('face.jpg')

gray=cv2.cvtColor(img,cv2.COLOR_BGR2GRAY)

#進(jìn)行面部檢測

faces=face_cascade.detectMultiScale(gray,scaleFactor=1.1,minNeighbors=5)

#繪制檢測到的面部區(qū)域

for(x,y,w,h)infaces:

cv2.rectangle(img,(x,y),(x+w,y+h),(255,0,0),2)

#顯示結(jié)果

cv2.imshow('DetectedFaces',img)

cv2.waitKey(0)

cv2.destroyAllWindows()2.1.2Dlib庫中的HOG+SVMDlib庫提供了基于HistogramofOrientedGradients(HOG)和SupportVectorMachine(SVM)的面部檢測方法,這種方法在復(fù)雜背景下的面部檢測效果較好。示例代碼importdlib

importcv2

#加載預(yù)訓(xùn)練的面部檢測器

detector=dlib.get_frontal_face_detector()

#讀取圖像

img=cv2.imread('face.jpg')

gray=cv2.cvtColor(img,cv2.COLOR_BGR2GRAY)

#進(jìn)行面部檢測

rects=detector(gray,1)

#繪制檢測到的面部區(qū)域

forrectinrects:

cv2.rectangle(img,(rect.left(),rect.top()),(rect.right(),rect.bottom()),(0,255,0),2)

#顯示結(jié)果

cv2.imshow('DetectedFaces',img)

cv2.waitKey(0)

cv2.destroyAllWindows()2.2面部對齊與標(biāo)準(zhǔn)化面部對齊是指將檢測到的面部區(qū)域調(diào)整到一個(gè)標(biāo)準(zhǔn)的姿勢和大小,以便于后續(xù)的特征提取和識別。標(biāo)準(zhǔn)化則通常包括灰度化、尺寸調(diào)整、直方圖均衡化等步驟,以減少光照、角度等外部因素對識別結(jié)果的影響。2.2.1使用Dlib進(jìn)行面部對齊Dlib庫提供了面部對齊的功能,可以基于檢測到的面部特征點(diǎn),將面部調(diào)整到一個(gè)標(biāo)準(zhǔn)的姿勢。示例代碼importdlib

importcv2

#加載預(yù)訓(xùn)練的面部檢測器和特征點(diǎn)定位器

detector=dlib.get_frontal_face_detector()

predictor=dlib.shape_predictor('shape_predictor_68_face_landmarks.dat')

#讀取圖像

img=cv2.imread('face.jpg')

gray=cv2.cvtColor(img,cv2.COLOR_BGR2GRAY)

#進(jìn)行面部檢測

rects=detector(gray,1)

#對每個(gè)檢測到的面部進(jìn)行對齊

forrectinrects:

#定位面部特征點(diǎn)

shape=predictor(gray,rect)

#提取特征點(diǎn)坐標(biāo)

parts=shape.parts()

landmarks=np.array([[p.x,p.y]forpinparts])

#計(jì)算對齊參數(shù)

mean_face=np.mean(landmarks,axis=0)

aligned_face=dlib.get_face_chip(img,shape,size=256)

#顯示對齊后的面部

cv2.imshow('AlignedFace',aligned_face)

cv2.waitKey(0)

cv2.destroyAllWindows()2.3面部特征點(diǎn)定位面部特征點(diǎn)定位是指在面部圖像中找到關(guān)鍵的特征點(diǎn),如眼睛、鼻子、嘴巴等的位置。這些特征點(diǎn)對于面部對齊和表情分析等任務(wù)至關(guān)重要。2.3.1使用OpenCV和Dlib進(jìn)行特征點(diǎn)定位OpenCV和Dlib庫都提供了面部特征點(diǎn)定位的功能,可以基于預(yù)訓(xùn)練的模型,定位面部的關(guān)鍵特征點(diǎn)。示例代碼importdlib

importcv2

importnumpyasnp

#加載預(yù)訓(xùn)練的面部檢測器和特征點(diǎn)定位器

detector=dlib.get_frontal_face_detector()

predictor=dlib.shape_predictor('shape_predictor_68_face_landmarks.dat')

#讀取圖像

img=cv2.imread('face.jpg')

gray=cv2.cvtColor(img,cv2.COLOR_BGR2GRAY)

#進(jìn)行面部檢測

rects=detector(gray,1)

#對每個(gè)檢測到的面部進(jìn)行特征點(diǎn)定位

forrectinrects:

#定位面部特征點(diǎn)

shape=predictor(gray,rect)

#提取特征點(diǎn)坐標(biāo)

parts=shape.parts()

landmarks=np.array([[p.x,p.y]forpinparts])

#繪制特征點(diǎn)

for(x,y)inlandmarks:

cv2.circle(img,(x,y),2,(0,255,0),-1)

#顯示特征點(diǎn)定位結(jié)果

cv2.imshow('FaceLandmarks',img)

cv2.waitKey(0)

cv2.destroyAllWindows()2.4深度學(xué)習(xí)在面部識別中的應(yīng)用深度學(xué)習(xí),尤其是卷積神經(jīng)網(wǎng)絡(luò)(CNN),在面部識別領(lǐng)域取得了顯著的成果。通過訓(xùn)練深度學(xué)習(xí)模型,可以從面部圖像中提取出具有高度區(qū)分性的特征,用于面部識別和表情分析等任務(wù)。2.4.1使用FaceNet進(jìn)行面部識別FaceNet是一種基于深度學(xué)習(xí)的面部識別模型,它使用三元組損失函數(shù)(TripletLoss)來訓(xùn)練模型,使得同一個(gè)人的面部特征盡可能接近,不同人的面部特征盡可能遠(yuǎn)離。示例代碼importtensorflowastf

importfacenet

#加載預(yù)訓(xùn)練的FaceNet模型

sess=tf.Session()

facenet.load_model('20170512-110547.pb')

#獲取模型的輸入和輸出

images_placeholder=tf.get_default_graph().get_tensor_by_name("input:0")

embeddings=tf.get_default_graph().get_tensor_by_name("embeddings:0")

phase_train_placeholder=tf.get_default_graph().get_tensor_by_name("phase_train:0")

#讀取圖像

img1=cv2.imread('face1.jpg')

img2=cv2.imread('face2.jpg')

#將圖像轉(zhuǎn)換為模型輸入的格式

img1=facenet.prewhiten(img1)

img2=facenet.prewhiten(img2)

img1=np.expand_dims(img1,axis=0)

img2=np.expand_dims(img2,axis=0)

#計(jì)算面部特征

feed_dict={images_placeholder:img1,phase_train_placeholder:False}

emb1=sess.run(embeddings,feed_dict=feed_dict)

feed_dict={images_placeholder:img2,phase_train_placeholder:False}

emb2=sess.run(embeddings,feed_dict=feed_dict)

#計(jì)算特征之間的距離

dist=np.sqrt(np.sum(np.square(np.subtract(emb1,emb2))))

#輸出結(jié)果

print('Distancebetweenthetwofaces:',dist)以上代碼中,我們首先加載了預(yù)訓(xùn)練的FaceNet模型,然后讀取了兩張面部圖像,并將它們轉(zhuǎn)換為模型輸入的格式。接著,我們使用模型計(jì)算了兩張圖像的面部特征,并計(jì)算了特征之間的距離。最后,我們輸出了兩張面部圖像之間的距離,這個(gè)距離可以用于判斷兩張圖像是否屬于同一個(gè)人。3面部識別技術(shù)應(yīng)用3.1面部識別系統(tǒng)設(shè)計(jì)3.1.1系統(tǒng)架構(gòu)面部識別系統(tǒng)通常包括幾個(gè)關(guān)鍵組件:圖像采集、面部檢測、特征提取、特征匹配和決策。設(shè)計(jì)時(shí),需考慮系統(tǒng)的實(shí)時(shí)性、準(zhǔn)確性和安全性。3.1.2特征提取算法特征提取是面部識別的核心。一種常用的方法是使用卷積神經(jīng)網(wǎng)絡(luò)(CNN)來提取面部特征。下面是一個(gè)使用Keras庫構(gòu)建的簡單CNN模型示例:#導(dǎo)入所需庫

fromkeras.modelsimportSequential

fromkeras.layersimportConv2D,MaxPooling2D,Flatten,Dense

#創(chuàng)建模型

model=Sequential()

#添加卷積層

model.add(Conv2D(32,(3,3),activation='relu',input_shape=(128,128,3)))

model.add(MaxPooling2D(pool_size=(2,2)))

#添加更多卷積層

model.add(Conv2D(64,(3,3),activation='relu'))

model.add(MaxPooling2D(pool_size=(2,2)))

#添加全連接層

model.add(Flatten())

model.add(Dense(128,activation='relu'))

#輸出層

model.add(Dense(1,activation='sigmoid'))

#編譯模型

pile(optimizer='adam',loss='binary_crossentropy',metrics=['accuracy'])3.1.3數(shù)據(jù)預(yù)處理在訓(xùn)練模型前,數(shù)據(jù)預(yù)處理是必要的。這包括圖像的縮放、灰度化、標(biāo)準(zhǔn)化等步驟。例如,使用OpenCV庫進(jìn)行圖像預(yù)處理:#導(dǎo)入OpenCV庫

importcv2

#讀取圖像

img=cv2.imread('path_to_image.jpg')

#調(diào)整圖像大小

img=cv2.resize(img,(128,128))

#轉(zhuǎn)換為灰度圖像

gray=cv2.cvtColor(img,cv2.COLOR_BGR2GRAY)

#標(biāo)準(zhǔn)化圖像

gray=gray/255.03.1.4特征匹配特征匹配通常使用距離度量或相似度分?jǐn)?shù)。例如,使用余弦相似度進(jìn)行特征匹配:fromsklearn.metrics.pairwiseimportcosine_similarity

#假設(shè)我們有兩個(gè)特征向量

feature1=[0.1,0.2,0.3,0.4,0.5]

feature2=[0.1,0.2,0.3,0.4,0.6]

#計(jì)算余弦相似度

similarity=cosine_similarity([feature1],[feature2])

#輸出相似度

print("余弦相似度:",similarity[0][0])3.2面部識別在安全領(lǐng)域的應(yīng)用3.2.1安全門禁系統(tǒng)面部識別技術(shù)可以用于安全門禁系統(tǒng),以識別和驗(yàn)證進(jìn)入特定區(qū)域的人員身份。這在機(jī)場、銀行和企業(yè)中廣泛應(yīng)用。3.2.2監(jiān)控與追蹤在監(jiān)控系統(tǒng)中,面部識別可以幫助追蹤特定個(gè)體,用于犯罪預(yù)防和調(diào)查。例如,通過實(shí)時(shí)視頻流識別已知的嫌疑人。3.3面部識別在娛樂行業(yè)的應(yīng)用3.3.1虛擬現(xiàn)實(shí)與增強(qiáng)現(xiàn)實(shí)面部識別技術(shù)在虛擬現(xiàn)實(shí)(VR)和增強(qiáng)現(xiàn)實(shí)(AR)中用于表情捕捉,使虛擬角色能夠模仿用戶的真實(shí)表情,增強(qiáng)用戶體驗(yàn)。3.3.2個(gè)性化內(nèi)容推薦在娛樂應(yīng)用中,面部識別可以用于識別用戶,從而提供個(gè)性化的內(nèi)容推薦,如電影、音樂或游戲。3.4面部識別的倫理與隱私問題3.4.1數(shù)據(jù)保護(hù)面部識別技術(shù)的使用引發(fā)了對個(gè)人隱私的擔(dān)憂。確保數(shù)據(jù)的安全存儲和處理是至關(guān)重要的,以防止信息泄露。3.4.2透明度與同意在使用面部識別技術(shù)時(shí),應(yīng)向用戶明確說明數(shù)據(jù)的使用目的,并獲得用戶的明確同意,以遵守倫理和法律標(biāo)準(zhǔn)。3.4.3偏見與歧視面部識別系統(tǒng)可能因訓(xùn)練數(shù)據(jù)的偏見而產(chǎn)生歧視性結(jié)果。開發(fā)人員應(yīng)努力消除數(shù)據(jù)偏見,確保系統(tǒng)的公平性。3.4.4法律與監(jiān)管隨著技術(shù)的發(fā)展,各國政府正在制定相關(guān)法律和監(jiān)管政策,以規(guī)范面部識別技術(shù)的使用,保護(hù)公民的隱私權(quán)。以上內(nèi)容概述了面部識別技術(shù)在不同領(lǐng)域的應(yīng)用,以及設(shè)計(jì)和實(shí)施時(shí)需要考慮的關(guān)鍵問題。通過合理設(shè)計(jì)和謹(jǐn)慎應(yīng)用,面部識別技術(shù)可以為社會(huì)帶來諸多益處,同時(shí)確保個(gè)人隱私和倫理標(biāo)準(zhǔn)得到尊重。4面部識別挑戰(zhàn)與未來趨勢4.1光照與姿態(tài)影響光照和姿態(tài)是面部識別中常見的挑戰(zhàn)。光照條件的變化可以顯著影響面部特征的提取,而不同的頭部姿態(tài)(如側(cè)臉、仰頭或低頭)則可能遮擋關(guān)鍵的面部特征,影響識別的準(zhǔn)確性。4.1.1光照影響處理為了解決光照問題,可以采用光照歸一化技術(shù),如HistogramEqualization(直方圖均衡化)或Retinex算法。這些技術(shù)旨在減少光照變化對面部圖像的影響,使特征在不同光照條件下保持一致。示例:直方圖均衡化importcv2

importnumpyasnp

#讀取面部圖像

img=cv2.imread('face.jpg',0)

#應(yīng)用直方圖均衡化

equ=cv2.equalizeHist(img)

#顯示原圖和均衡化后的圖像

cv2.imshow('OriginalImage',img)

cv2.imshow('EqualizedImage',equ)

cv2.waitKey(0)

cv2.destroyAllWindows()直方圖均衡化通過重新分配圖像的像素強(qiáng)度值,增強(qiáng)圖像的對比度,從而在光照不均的情況下改善面部特征的識別。4.1.2姿態(tài)影響處理姿態(tài)問題可以通過3D面部模型或深度學(xué)習(xí)方法來解決。3D模型可以估計(jì)頭部的姿態(tài),并對面部進(jìn)行校正,使其看起來像是正面的。深度學(xué)習(xí)方法則可以學(xué)習(xí)不同姿態(tài)下的面部特征,提高識別的魯棒性。示例:使用Dlib進(jìn)行姿態(tài)估計(jì)importdlib

importcv2

#加載面部檢測器和姿態(tài)估計(jì)模型

detector=dlib.get_frontal_face_detector()

predictor=dlib.shape_predictor('shape_predictor_68_face_landmarks.dat')

#讀取圖像

img=cv2.imread('face.jpg')

#轉(zhuǎn)換為灰度圖像

gray=cv2.cvtColor(img,cv2.COLOR_BGR2GRAY)

#檢測面部

faces=detector(gray)

#對每個(gè)檢測到的面部進(jìn)行姿態(tài)估計(jì)

forfaceinfaces:

landmarks=predictor(gray,face)

#使用landmarks進(jìn)行姿態(tài)估計(jì)

#這里省略具體姿態(tài)估計(jì)代碼,實(shí)際應(yīng)用中需要根據(jù)Dlib庫的文檔來實(shí)現(xiàn)Dlib庫提供了面部檢測和姿態(tài)估計(jì)的功能,通過檢測面部關(guān)鍵點(diǎn),可以對面部姿態(tài)進(jìn)行估計(jì),從而對面部圖像進(jìn)行校正。4.2面部遮擋處理面部遮擋,如口罩、眼鏡或頭發(fā),會(huì)遮擋面部特征,降低識別率。處理遮擋的方法包括使用局部特征和深度學(xué)習(xí)模型。4.2.1局部特征局部特征方法關(guān)注于面部的未遮擋部分,如眼睛或嘴巴,通過這些局部特征進(jìn)行識別。4.2.2深度學(xué)習(xí)模型深度學(xué)習(xí)模型,如卷積神經(jīng)網(wǎng)絡(luò)(CNN),可以學(xué)習(xí)到遮擋下的面部特征,提高識別的準(zhǔn)確性。示例:使用MaskR-CNN檢測面部遮擋importnumpyasnp

importskimage.io

importmatplotlib.pyplotasplt

importos

importcv2

frommrcnn.configimportConfig

frommrcnnimportmodelasmodellib

frommrcnnimportvisualize

#加載MaskR-CNN模型

model=modellib.MaskRCNN(mode="inference",model_dir='./',config=config)

#加載面部遮擋檢測模型

model.load_weights('mask_rcnn_face.h5',by_name=True)

#讀取圖像

image=skimage.io.imread('face.jpg')

#進(jìn)行面部遮擋檢測

results=model.detect([image],verbose=1)

r=results[0]

#顯示檢測結(jié)果

visualize.display_instances(image,r['rois'],r['masks'],r['class_ids'],

['BG','face','mask']

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論