機(jī)器學(xué)習(xí):支持向量機(jī)(SVM):SVM的核技巧詳解_第1頁(yè)
機(jī)器學(xué)習(xí):支持向量機(jī)(SVM):SVM的核技巧詳解_第2頁(yè)
機(jī)器學(xué)習(xí):支持向量機(jī)(SVM):SVM的核技巧詳解_第3頁(yè)
機(jī)器學(xué)習(xí):支持向量機(jī)(SVM):SVM的核技巧詳解_第4頁(yè)
機(jī)器學(xué)習(xí):支持向量機(jī)(SVM):SVM的核技巧詳解_第5頁(yè)
已閱讀5頁(yè),還剩9頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

機(jī)器學(xué)習(xí):支持向量機(jī)(SVM):SVM的核技巧詳解1機(jī)器學(xué)習(xí):支持向量機(jī)(SVM):SVM的核技巧詳解1.1SVM基礎(chǔ)理論1.1.1SVM的基本概念支持向量機(jī)(SupportVectorMachine,SVM)是一種監(jiān)督學(xué)習(xí)模型,主要用于分類和回歸分析。SVM的基本思想是在特征空間中尋找一個(gè)超平面,使得兩類樣本在該超平面上的間隔最大化。這個(gè)超平面被稱為最大間隔超平面,而位于間隔邊界上的樣本點(diǎn)被稱為支持向量。1.1.2線性可分SVM的數(shù)學(xué)原理對(duì)于線性可分的數(shù)據(jù)集,SVM的目標(biāo)是找到一個(gè)超平面,使得兩類樣本被盡可能清晰地分開。假設(shè)我們有兩類樣本,分別標(biāo)記為+1和-1,SVM的目標(biāo)函數(shù)可以表示為:minsubjectto其中,w是超平面的法向量,b是偏置項(xiàng),xi是第i個(gè)樣本點(diǎn),y1.1.2.1示例代碼假設(shè)我們使用Python的scikit-learn庫(kù)來實(shí)現(xiàn)一個(gè)線性SVM:fromsklearnimportsvm

fromsklearn.datasetsimportmake_blobs

importnumpyasnp

#生成線性可分的數(shù)據(jù)集

X,y=make_blobs(n_samples=100,centers=2,random_state=6)

#創(chuàng)建SVM分類器

clf=svm.SVC(kernel='linear')

#訓(xùn)練模型

clf.fit(X,y)

#預(yù)測(cè)新數(shù)據(jù)點(diǎn)的類別

new_data=np.array([[1,2],[3,4]])

predictions=clf.predict(new_data)

print(predictions)1.1.3線性不可分問題的處理在現(xiàn)實(shí)世界中,許多數(shù)據(jù)集并不是線性可分的。為了解決這個(gè)問題,SVM引入了核技巧(KernelTrick)。核技巧允許SVM在高維特征空間中尋找非線性決策邊界,而無需顯式地將數(shù)據(jù)映射到高維空間。常見的核函數(shù)包括多項(xiàng)式核、高斯核(徑向基函數(shù)核)和Sigmoid核等。1.1.3.1示例代碼使用scikit-learn庫(kù)中的高斯核(RBF核)來處理線性不可分的數(shù)據(jù)集:fromsklearnimportsvm

fromsklearn.datasetsimportmake_circles

importnumpyasnp

#生成線性不可分的數(shù)據(jù)集

X,y=make_circles(n_samples=100,factor=0.3,noise=0.1)

#創(chuàng)建SVM分類器,使用RBF核

clf=svm.SVC(kernel='rbf')

#訓(xùn)練模型

clf.fit(X,y)

#預(yù)測(cè)新數(shù)據(jù)點(diǎn)的類別

new_data=np.array([[0,0],[1,1]])

predictions=clf.predict(new_data)

print(predictions)在這個(gè)例子中,我們使用了make_circles函數(shù)生成了一個(gè)非線性可分的數(shù)據(jù)集,然后通過設(shè)置kernel='rbf'參數(shù),使用了高斯核函數(shù)來訓(xùn)練SVM模型。高斯核函數(shù)能夠?qū)?shù)據(jù)映射到一個(gè)高維空間,使得在該空間中數(shù)據(jù)變得線性可分,從而找到一個(gè)非線性的決策邊界。1.2核技巧詳解核技巧是SVM處理非線性問題的關(guān)鍵。它通過在原始特征空間和高維特征空間之間使用一個(gè)核函數(shù),避免了直接在高維空間中計(jì)算的復(fù)雜性。核函數(shù)計(jì)算的是兩個(gè)樣本點(diǎn)在高維空間中的內(nèi)積,而無需顯式地知道這個(gè)高維空間的具體形式。1.2.1多項(xiàng)式核多項(xiàng)式核函數(shù)是一種常見的核函數(shù),其形式為:K其中,x和x′是兩個(gè)樣本點(diǎn),c是一個(gè)常數(shù)項(xiàng),d是多項(xiàng)式的次數(shù)。多項(xiàng)式核函數(shù)可以將數(shù)據(jù)映射到一個(gè)d1.2.2高斯核(徑向基函數(shù)核)高斯核函數(shù),也稱為徑向基函數(shù)(RadialBasisFunction,RBF)核,其形式為:K其中,γ是一個(gè)正數(shù),控制著高斯核的寬度。高斯核函數(shù)可以將數(shù)據(jù)映射到一個(gè)無限維的特征空間,使得在該空間中數(shù)據(jù)變得線性可分。高斯核函數(shù)的靈活性使其在處理復(fù)雜非線性問題時(shí)非常有效。1.2.3Sigmoid核Sigmoid核函數(shù)的形式為:K其中,α和c是參數(shù)。Sigmoid核函數(shù)最初是為神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)的,但在SVM中使用時(shí),它可能不會(huì)產(chǎn)生良好的分類效果,尤其是在數(shù)據(jù)集不是線性可分的情況下。1.3結(jié)論支持向量機(jī)(SVM)通過核技巧能夠有效地處理非線性問題。不同的核函數(shù)適用于不同類型的數(shù)據(jù)集,選擇合適的核函數(shù)對(duì)于SVM的性能至關(guān)重要。在實(shí)際應(yīng)用中,通常需要通過交叉驗(yàn)證等方法來選擇最佳的核函數(shù)和參數(shù)。請(qǐng)注意,上述代碼示例和數(shù)學(xué)公式是基于SVM的基本原理和核技巧的介紹,實(shí)際應(yīng)用中可能需要根據(jù)具體數(shù)據(jù)集和問題進(jìn)行調(diào)整和優(yōu)化。2核技巧詳解2.1核函數(shù)的引入在支持向量機(jī)(SVM)中,核技巧是解決非線性可分問題的關(guān)鍵。當(dāng)數(shù)據(jù)在原始空間中無法被線性分類時(shí),SVM通過將數(shù)據(jù)映射到一個(gè)更高維度的空間,使得數(shù)據(jù)在新空間中變得線性可分。這一映射過程是通過核函數(shù)實(shí)現(xiàn)的,核函數(shù)可以計(jì)算兩個(gè)向量在高維空間中的內(nèi)積,而無需顯式地進(jìn)行向量映射,從而大大減少了計(jì)算復(fù)雜度。2.1.1原理核函數(shù)定義為:K其中,Kx,y是核函數(shù),?x和?y是將向量x和y2.1.2示例假設(shè)我們有以下數(shù)據(jù)集,它在二維空間中是非線性可分的:importnumpyasnp

importmatplotlib.pyplotasplt

#生成數(shù)據(jù)

X=np.array([[1,2],[2,3],[3,1],[4,5],[5,4]])

y=np.array([1,1,-1,-1,-1])

#繪制數(shù)據(jù)點(diǎn)

plt.scatter(X[:,0],X[:,1],c=y,cmap='bwr')

plt.xlabel('Feature1')

plt.ylabel('Feature2')

plt.title('Non-linearlyseparabledata')

plt.show()使用高斯核函數(shù)(也稱為徑向基函數(shù),RBF)將數(shù)據(jù)映射到高維空間,可以使得數(shù)據(jù)變得線性可分:fromsklearn.svmimportSVC

#創(chuàng)建SVM分類器,使用高斯核函數(shù)

clf=SVC(kernel='rbf',gamma='scale')

#訓(xùn)練模型

clf.fit(X,y)

#預(yù)測(cè)新數(shù)據(jù)點(diǎn)

new_data=np.array([[3,2]])

prediction=clf.predict(new_data)

print("Predictionfornewdatapoint:",prediction)2.2常見核函數(shù)介紹2.2.1高斯核函數(shù)高斯核函數(shù)(或RBF核函數(shù))是最常用的核函數(shù)之一,其形式為:K其中,γ是高斯核函數(shù)的參數(shù),控制著數(shù)據(jù)點(diǎn)在高維空間中的分布密度。2.2.2多項(xiàng)式核函數(shù)多項(xiàng)式核函數(shù)可以表示為:K其中,c和d是多項(xiàng)式核函數(shù)的參數(shù),分別表示常數(shù)項(xiàng)和多項(xiàng)式的次數(shù)。2.2.3Sigmoid核函數(shù)Sigmoid核函數(shù)的形式為:K其中,α和c是Sigmoid核函數(shù)的參數(shù)。2.3高斯核函數(shù)詳解高斯核函數(shù)通過計(jì)算兩個(gè)向量之間的歐氏距離,并使用指數(shù)函數(shù)來衡量它們?cè)诟呔S空間中的相似度。較小的γ值會(huì)導(dǎo)致較寬的高斯分布,使得數(shù)據(jù)點(diǎn)在高維空間中的分布更加平滑;較大的γ值會(huì)導(dǎo)致較窄的高斯分布,使得數(shù)據(jù)點(diǎn)在高維空間中的分布更加集中。2.3.1示例使用高斯核函數(shù)訓(xùn)練SVM模型:#使用高斯核函數(shù)訓(xùn)練SVM模型

clf=SVC(kernel='rbf',gamma=0.1)

#訓(xùn)練模型

clf.fit(X,y)

#繪制決策邊界

defplot_decision_boundary(clf,X,y):

h=.02#網(wǎng)格步長(zhǎng)

x_min,x_max=X[:,0].min()-1,X[:,0].max()+1

y_min,y_max=X[:,1].min()-1,X[:,1].max()+1

xx,yy=np.meshgrid(np.arange(x_min,x_max,h),

np.arange(y_min,y_max,h))

Z=clf.predict(np.c_[xx.ravel(),yy.ravel()])

Z=Z.reshape(xx.shape)

plt.contourf(xx,yy,Z,cmap='bwr',alpha=0.8)

plt.scatter(X[:,0],X[:,1],c=y,cmap='bwr')

plt.xlabel('Feature1')

plt.ylabel('Feature2')

plt.title('DecisionboundaryusingRBFkernel')

plt.show()

plot_decision_boundary(clf,X,y)2.4多項(xiàng)式核函數(shù)詳解多項(xiàng)式核函數(shù)通過計(jì)算兩個(gè)向量的內(nèi)積,并加上一個(gè)常數(shù)項(xiàng)c,然后將結(jié)果提升到次數(shù)d的冪。這可以將數(shù)據(jù)映射到一個(gè)更高維度的多項(xiàng)式空間,使得數(shù)據(jù)在新空間中變得線性可分。2.4.1示例使用多項(xiàng)式核函數(shù)訓(xùn)練SVM模型:#使用多項(xiàng)式核函數(shù)訓(xùn)練SVM模型

clf=SVC(kernel='poly',degree=2,coef0=1,gamma='scale')

#訓(xùn)練模型

clf.fit(X,y)

#繪制決策邊界

plot_decision_boundary(clf,X,y)2.5Sigmoid核函數(shù)詳解Sigmoid核函數(shù)通過計(jì)算兩個(gè)向量的內(nèi)積,并加上一個(gè)常數(shù)項(xiàng)c,然后將結(jié)果通過Sigmoid函數(shù)進(jìn)行轉(zhuǎn)換。Sigmoid核函數(shù)在某些情況下可以模擬神經(jīng)網(wǎng)絡(luò)的行為,但通常在SVM中并不推薦使用,因?yàn)樗赡懿粷M足核函數(shù)的數(shù)學(xué)條件,導(dǎo)致模型不穩(wěn)定。2.5.1示例使用Sigmoid核函數(shù)訓(xùn)練SVM模型:#使用Sigmoid核函數(shù)訓(xùn)練SVM模型

clf=SVC(kernel='sigmoid',gamma='scale')

#訓(xùn)練模型

clf.fit(X,y)

#繪制決策邊界

plot_decision_boundary(clf,X,y)通過上述示例,我們可以看到不同核函數(shù)對(duì)SVM模型決策邊界的影響。選擇合適的核函數(shù)和參數(shù)對(duì)于構(gòu)建有效的SVM模型至關(guān)重要。3SVM與核技巧的實(shí)踐3.1數(shù)據(jù)預(yù)處理與特征選擇在應(yīng)用支持向量機(jī)(SVM)之前,數(shù)據(jù)預(yù)處理和特征選擇是至關(guān)重要的步驟。數(shù)據(jù)預(yù)處理包括標(biāo)準(zhǔn)化、歸一化和缺失值處理,而特征選擇則幫助我們識(shí)別出對(duì)模型預(yù)測(cè)最有價(jià)值的特征。3.1.1數(shù)據(jù)預(yù)處理數(shù)據(jù)預(yù)處理的目的是確保數(shù)據(jù)在輸入模型時(shí)具有良好的格式和質(zhì)量。例如,標(biāo)準(zhǔn)化(Standardization)和歸一化(Normalization)可以將特征縮放到相同的尺度,避免某些特征因數(shù)值范圍大而對(duì)模型產(chǎn)生過大的影響。3.1.1.1示例:使用scikit-learn進(jìn)行數(shù)據(jù)預(yù)處理fromsklearn.preprocessingimportStandardScaler,MinMaxScaler

fromsklearn.imputeimportSimpleImputer

importnumpyasnp

#假設(shè)我們有以下數(shù)據(jù)

data=np.array([[1,2,np.nan],

[4,5,6],

[7,8,9]])

#處理缺失值

imputer=SimpleImputer(strategy='mean')

data_imputed=imputer.fit_transform(data)

#標(biāo)準(zhǔn)化數(shù)據(jù)

scaler=StandardScaler()

data_scaled=scaler.fit_transform(data_imputed)

#歸一化數(shù)據(jù)

normalizer=MinMaxScaler()

data_normalized=normalizer.fit_transform(data_imputed)3.1.2特征選擇特征選擇有助于減少模型的復(fù)雜度,提高訓(xùn)練速度,同時(shí)避免過擬合。可以使用scikit-learn中的SelectKBest或RFE(遞歸特征消除)等方法進(jìn)行特征選擇。3.1.2.1示例:使用scikit-learn進(jìn)行特征選擇fromsklearn.datasetsimportload_iris

fromsklearn.feature_selectionimportSelectKBest,chi2

fromsklearn.svmimportSVC

fromsklearn.feature_selectionimportRFE

#加載數(shù)據(jù)集

iris=load_iris()

X,y=iris.data,iris.target

#使用SelectKBest進(jìn)行特征選擇

selector=SelectKBest(chi2,k=2)

X_new=selector.fit_transform(X,y)

#使用RFE進(jìn)行特征選擇

svc=SVC(kernel="linear")

rfe=RFE(estimator=svc,n_features_to_select=2)

X_rfe=rfe.fit_transform(X,y)3.2使用Python實(shí)現(xiàn)SVM支持向量機(jī)(SVM)是一種監(jiān)督學(xué)習(xí)模型,用于分類和回歸分析。在Python中,scikit-learn庫(kù)提供了SVM的實(shí)現(xiàn),包括線性SVM和非線性SVM。3.2.1示例:使用scikit-learn實(shí)現(xiàn)SVMfromsklearnimportdatasets

fromsklearn.model_selectionimporttrain_test_split

fromsklearn.svmimportSVC

fromsklearn.metricsimportaccuracy_score

#加載數(shù)據(jù)集

iris=datasets.load_iris()

X=iris.data

y=iris.target

#劃分訓(xùn)練集和測(cè)試集

X_train,X_test,y_train,y_test=train_test_split(X,y,test_size=0.2,random_state=42)

#創(chuàng)建SVM分類器

clf=SVC(kernel='linear')

#訓(xùn)練模型

clf.fit(X_train,y_train)

#預(yù)測(cè)

y_pred=clf.predict(X_test)

#計(jì)算準(zhǔn)確率

accuracy=accuracy_score(y_test,y_pred)

print(f"Accuracy:{accuracy}")3.3核技巧在實(shí)際問題中的應(yīng)用核技巧是SVM處理非線性問題的關(guān)鍵。通過選擇不同的核函數(shù),如多項(xiàng)式核、高斯核(RBF)或Sigmoid核,SVM可以將數(shù)據(jù)映射到高維空間,從而在該空間中找到一個(gè)超平面來分類數(shù)據(jù)。3.3.1示例:使用高斯核(RBF)的SVMfromsklearn.datasetsimportmake_moons

fromsklearn.model_selectionimporttrain_test_split

fromsklearn.svmimportSVC

fromsklearn.metricsimportaccuracy_score

#生成非線性可分?jǐn)?shù)據(jù)

X,y=make_moons(n_samples=100,noise=0.1,random_state=42)

#劃分訓(xùn)練集和測(cè)試集

X_train,X_test,y_train,y_test=train_test_split(X,y,test_size=0.2,random_state=42)

#創(chuàng)建使用RBF核的SVM分類器

clf=SVC(kernel='rbf')

#訓(xùn)練模型

clf.fit(X_train,y_train)

#預(yù)測(cè)

y_pred=clf.predict(X_test)

#計(jì)算準(zhǔn)確率

accuracy=accuracy_score(y_test,y_pred)

print(f"Accuracy:{accuracy}")3.4SVM參數(shù)調(diào)優(yōu)SVM的性能可以通過調(diào)整其參數(shù)來優(yōu)化,如C(懲罰參數(shù))和gamma(核函數(shù)參數(shù))。C控制錯(cuò)誤項(xiàng)的懲罰程度,而gamma定義了核函數(shù)的寬度,影響模型的復(fù)雜度。3.4.1示例:使用GridSearchCV進(jìn)行SVM參數(shù)調(diào)優(yōu)fromsklearn.datasetsimportmake_classification

fromsklearn.model_selectionimportGridSearchCV

fromsklearn.svmimportSVC

fromsklearn.metricsimportaccuracy_score

#生成分類數(shù)據(jù)

X,y=make_classification(n_samples=100,n_features=20,n_informative=2,n_redundant=10,random_state=42)

#劃分訓(xùn)練集和測(cè)試集

X_train,X_test,y_train,y_test=train_test_split(X,y,test_size=0.2,random_state=42)

#定義參數(shù)網(wǎng)格

param_grid={'C':[0.1,1,10,100],'gamma':[1,0.1,0.01,0.001],'kernel':['rbf']}

#創(chuàng)建SVM分類器

clf=SVC()

#使用GridSearchCV進(jìn)行參數(shù)調(diào)優(yōu)

grid_search=GridSearchCV(clf,param_grid,refit=True,verbose=2)

grid_search.fit(X_train,y_train)

#最佳參數(shù)

best_params=grid_search.best_params_

print(f"Bestparameters:{best_params}")

#使用最佳參數(shù)預(yù)測(cè)

y_pred=grid_search.predict(X_test)

#計(jì)算準(zhǔn)確率

accuracy=accuracy_score(y_test,y_pred)

print(f"Accuracy:{accuracy}")通過以上步驟,我們可以有效地應(yīng)用SVM解決實(shí)際問題,并通過核技巧和參數(shù)調(diào)優(yōu)來優(yōu)化模型性能。4高級(jí)主題與擴(kuò)展4.1SVM的軟間隔與硬間隔在支持向量機(jī)(SVM)中,硬間隔(HardMargin)和軟間隔(SoftMargin)是處理分類問題時(shí)兩種不同的策略。硬間隔要求所有訓(xùn)練樣本都嚴(yán)格滿足分類邊界,即所有樣本點(diǎn)都必須位于分類邊界的一側(cè),且與邊界保持一定的距離。然而,在現(xiàn)實(shí)世界的數(shù)據(jù)集中,數(shù)據(jù)往往存在噪聲或異常點(diǎn),硬間隔可能無法找到一個(gè)合適的分類邊界,導(dǎo)致模型過擬合。4.1.1軟間隔軟間隔允許一些樣本點(diǎn)跨越分類邊界,通過引入松弛變量(SlackVariables)和懲罰參數(shù)(C)來控制這種越界。松弛變量表示樣本點(diǎn)與分類邊界的距離,而懲罰參數(shù)C則用于平衡模型的復(fù)雜度和訓(xùn)練誤差。當(dāng)C較大時(shí),模型傾向于減少訓(xùn)練誤差,可能過擬合;當(dāng)C較小時(shí),模型更關(guān)注泛化能力,可能欠擬合。4.1.2示例代碼以下是一個(gè)使用Python的scikit-learn庫(kù)實(shí)現(xiàn)SVM軟間隔分類的例子:fromsklearnimportsvm

fromsklearn.datasetsimportmake_blobs

importnumpyasnp

#生成數(shù)據(jù)

X,y=make_blobs(n_samples=50,centers=2,random_state=0,cluster_std=0.60)

#創(chuàng)建SVM分類器,使用線性核函數(shù),設(shè)置C=1.0

clf=svm.SVC(kernel='linear',C=1.0)

clf.fit(X,y)

#預(yù)測(cè)新數(shù)據(jù)點(diǎn)

new_data=np.array([[0,0],[2,2]])

predictions=clf.predict(new_data)

print(predictions)4.1.3解釋在這個(gè)例子中,我們使用了make_blobs函數(shù)生成了兩個(gè)類別的數(shù)據(jù)點(diǎn)。然后,我們創(chuàng)建了一個(gè)SVM分類器,使用線性核函數(shù),并設(shè)置了懲罰參數(shù)C為1.0。通過調(diào)整C的值,我們可以控制模型對(duì)訓(xùn)練誤差的容忍度,從而實(shí)現(xiàn)軟間隔分類。4.2核技巧的局限性與解決方法核技巧(KernelTrick)是SVM處理非線性分類問題的關(guān)鍵。它通過將數(shù)據(jù)映射到高維空間,使得原本在低維空間中不可分的數(shù)據(jù)在高維空間中變得可分。然而,核技巧并非沒有局限性:計(jì)算復(fù)雜度:在高維空間中計(jì)算可能非常耗時(shí),尤其是當(dāng)數(shù)據(jù)量大時(shí)。過擬合風(fēng)險(xiǎn):高維空間中模型的復(fù)雜度增加,可能會(huì)導(dǎo)致過擬合。核函數(shù)選擇:選擇合適的核函數(shù)對(duì)于模型的性能至關(guān)重要,但沒有通用的規(guī)則。4.2.1解決方法為了解決這些局限性,可以采取以下策略:核函數(shù)優(yōu)化:選擇或設(shè)計(jì)更有效的核函數(shù),如徑向基函數(shù)(RBF)核,多項(xiàng)式核等。特征選擇:在數(shù)據(jù)映射到高維空間之前,通過特征選擇減少數(shù)據(jù)的維度。正則化:通過調(diào)整懲罰參數(shù)C,控制模型的復(fù)雜度,避免過擬合。4.3多分類SVM與核技巧SVM本質(zhì)上是一個(gè)二分類模型,但通過一些策略可以擴(kuò)展到多分類問題。常見的多分類策略包括:一對(duì)多(One-vs-All,OVA):訓(xùn)練多個(gè)SVM分類器,每個(gè)分類器負(fù)責(zé)將一個(gè)類別與所有其他類別區(qū)分開。一對(duì)一(One-vs-One,OVO):訓(xùn)練多個(gè)SVM分類器,每個(gè)分類器負(fù)責(zé)將兩個(gè)類別區(qū)分開,最終通過投票機(jī)制確定類別。4.3.1示例代碼以下是一個(gè)使用scikit-learn庫(kù)實(shí)現(xiàn)多分類SVM的例子:fromsklearnimportsvm

fromsklearn.datasetsimportload_iris

fromsklearn.model_selectionimporttrain_test_split

#加載數(shù)據(jù)

data=load_iris()

X=data.data

y=data.target

#劃分訓(xùn)練集和測(cè)試集

X_train,X_test,y_train,

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論