版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡介
人工智能和機(jī)器學(xué)習(xí)之分類算法:支持向量機(jī)(SVM):SVM在文本分類中的應(yīng)用1支持向量機(jī)(SVM)基礎(chǔ)1.11SVM的基本原理支持向量機(jī)(SVM,SupportVectorMachine)是一種監(jiān)督學(xué)習(xí)模型,主要用于分類和回歸分析。其核心思想是找到一個(gè)超平面,使得兩類數(shù)據(jù)在該超平面兩側(cè)的間隔最大化。在二維空間中,超平面是一條直線;在高維空間中,超平面是一個(gè)超平面。SVM通過最大化間隔來提高模型的泛化能力,從而在新數(shù)據(jù)上表現(xiàn)更好。1.1.1示例代碼假設(shè)我們有以下數(shù)據(jù)集,其中包含兩類數(shù)據(jù)點(diǎn):importnumpyasnp
fromsklearnimportsvm
importmatplotlib.pyplotasplt
#生成數(shù)據(jù)
X=np.array([[3,3],[4,3],[1,1],[2,1]])
y=np.array([1,1,-1,-1])
#創(chuàng)建SVM分類器
clf=svm.SVC(kernel='linear')
#訓(xùn)練模型
clf.fit(X,y)
#繪制決策邊界
w=clf.coef_[0]
a=-w[0]/w[1]
xx=np.linspace(0,5)
yy=a*xx-(ercept_[0])/w[1]
#繪制支持向量
b=clf.support_vectors_[0]
yy_down=a*xx+(b[1]-a*b[0])
b=clf.support_vectors_[-1]
yy_up=a*xx+(b[1]-a*b[0])
#繪制數(shù)據(jù)點(diǎn)
plt.scatter(X[:,0],X[:,1],c=y,s=80,cmap=plt.cm.Paired)
plt.plot(xx,yy,'k-')
plt.plot(xx,yy_down,'k--')
plt.plot(xx,yy_up,'k--')
plt.show()1.1.2解釋此代碼示例展示了如何使用scikit-learn庫中的SVM分類器對一個(gè)簡單的二維數(shù)據(jù)集進(jìn)行分類。clf.fit(X,y)用于訓(xùn)練模型,clf.coef_和ercept_用于計(jì)算決策邊界。支持向量(即距離決策邊界最近的點(diǎn))通過clf.support_vectors_獲取。1.22最大間隔與支持向量SVM通過最大化分類間隔來確定決策邊界。分類間隔是支持向量到?jīng)Q策邊界的最短距離。支持向量是那些直接影響決策邊界位置的訓(xùn)練樣本點(diǎn)。在SVM中,只有支持向量對模型的訓(xùn)練有貢獻(xiàn),其他點(diǎn)則不參與決策邊界的確定。1.2.1示例代碼在上一節(jié)的代碼示例中,clf.support_vectors_返回了支持向量。這些點(diǎn)是離決策邊界最近的點(diǎn),它們決定了分類器的邊界。1.33SVM的數(shù)學(xué)模型SVM的數(shù)學(xué)模型基于以下優(yōu)化問題:minsubjectto其中,w是權(quán)重向量,b是偏置項(xiàng),xi是輸入向量,yi是對應(yīng)的類別標(biāo)簽(?1或1)。這個(gè)優(yōu)化問題的目標(biāo)是找到一個(gè)w和b1.3.1示例代碼在scikit-learn中,SVM分類器通過求解上述優(yōu)化問題來確定w和b。用戶可以通過設(shè)置參數(shù)來控制優(yōu)化過程,例如C參數(shù)用于控制錯(cuò)誤項(xiàng)的懲罰程度。1.44核函數(shù)與非線性分類當(dāng)數(shù)據(jù)不是線性可分時(shí),SVM通過使用核函數(shù)將數(shù)據(jù)映射到高維空間,使得在高維空間中數(shù)據(jù)變得線性可分。常見的核函數(shù)包括線性核、多項(xiàng)式核、高斯核(RBF核)等。1.4.1示例代碼使用高斯核(RBF核)的SVM分類器:#使用高斯核的SVM分類器
clf=svm.SVC(kernel='rbf',gamma=0.1)
#訓(xùn)練模型
clf.fit(X,y)
#繪制決策邊界
#由于高維空間的決策邊界無法直接可視化,這里省略了決策邊界的繪制1.4.2解釋在代碼中,kernel='rbf'指定了使用高斯核函數(shù),gamma=0.1是高斯核函數(shù)的參數(shù),控制著數(shù)據(jù)點(diǎn)的影響范圍。通過調(diào)整gamma值,可以控制模型的復(fù)雜度,從而影響模型的泛化能力。以上內(nèi)容詳細(xì)介紹了支持向量機(jī)(SVM)的基礎(chǔ)原理,包括基本概念、最大間隔、數(shù)學(xué)模型以及核函數(shù)的使用。通過示例代碼,我們展示了如何在Python中使用scikit-learn庫實(shí)現(xiàn)SVM分類器,并解釋了代碼的運(yùn)行機(jī)制。2文本分類與特征提取2.11文本數(shù)據(jù)的預(yù)處理文本數(shù)據(jù)預(yù)處理是文本分類任務(wù)中的關(guān)鍵步驟,它包括多個(gè)子任務(wù),如文本清洗、分詞、去除停用詞、詞干提取和詞形還原等。這些步驟有助于減少噪聲,提高模型的性能。2.1.1文本清洗文本清洗涉及去除文本中的HTML標(biāo)簽、特殊字符、數(shù)字和標(biāo)點(diǎn)符號等非文本內(nèi)容。importre
defclean_text(text):
#去除HTML標(biāo)簽
text=re.sub(r'<[^>]+>','',text)
#去除非字母字符
text=re.sub(r'[^a-zA-Z\s]','',text)
#轉(zhuǎn)換為小寫
text=text.lower()
returntext
#示例文本
text="這是一個(gè)示例文本,包含HTML標(biāo)簽<p>和一些特殊字符!@#¥%……&*()——+【】{}|;:‘’“”<>?/。"
cleaned_text=clean_text(text)
print(cleaned_text)2.1.2分詞將文本分割成單詞或短語的過程,有助于后續(xù)的特征提取。importjieba
deftokenize(text):
returnlist(jieba.cut(text))
#示例文本
text="這是一個(gè)示例文本,用于演示分詞過程。"
tokens=tokenize(text)
print(tokens)2.1.3去除停用詞停用詞如“的”、“是”、“在”等在文本中頻繁出現(xiàn),但對分類貢獻(xiàn)不大。defremove_stopwords(tokens,stopwords):
return[tokenfortokenintokensiftokennotinstopwords]
#示例停用詞列表
stopwords=['的','是','在']
#示例文本分詞
tokens=['這','是','一個(gè)','示例','文本',',','用于','演示','分詞','過程','。']
filtered_tokens=remove_stopwords(tokens,stopwords)
print(filtered_tokens)2.22詞袋模型與TF-IDF詞袋模型是一種將文本轉(zhuǎn)換為數(shù)值向量的方法,它忽略了單詞的順序,只關(guān)注單詞的出現(xiàn)頻率。2.2.1詞袋模型fromsklearn.feature_extraction.textimportCountVectorizer
#示例文本
documents=[
"這是一個(gè)示例文本",
"這是另一個(gè)示例文本",
"示例文本用于演示"
]
#創(chuàng)建詞袋模型
vectorizer=CountVectorizer()
X=vectorizer.fit_transform(documents)
#輸出特征名稱和向量
print(vectorizer.get_feature_names_out())
print(X.toarray())2.2.2TF-IDFTF-IDF(TermFrequency-InverseDocumentFrequency)是一種加權(quán)技術(shù),用于評估一個(gè)詞對文檔集中的某篇文檔的重要性。fromsklearn.feature_extraction.textimportTfidfVectorizer
#創(chuàng)建TF-IDF模型
tfidf_vectorizer=TfidfVectorizer()
X_tfidf=tfidf_vectorizer.fit_transform(documents)
#輸出特征名稱和TF-IDF向量
print(tfidf_vectorizer.get_feature_names_out())
print(X_tfidf.toarray())2.33N-gram模型N-gram模型考慮了連續(xù)N個(gè)詞的組合,這有助于捕捉短語和語法結(jié)構(gòu)。2.3.1N-gram特征提取#使用N-gram模型
ngram_vectorizer=CountVectorizer(ngram_range=(1,2))
X_ngram=ngram_vectorizer.fit_transform(documents)
#輸出N-gram特征名稱和向量
print(ngram_vectorizer.get_feature_names_out())
print(X_ngram.toarray())2.44特征選擇與降維特征選擇和降維有助于減少模型的復(fù)雜性,提高訓(xùn)練速度和預(yù)測性能。2.4.1特征選擇fromsklearn.feature_selectionimportSelectKBest,chi2
#選擇K個(gè)最佳特征
selector=SelectKBest(chi2,k=2)
X_selected=selector.fit_transform(X_tfidf,y)
#輸出選擇的特征索引
print(selector.get_support(indices=True))2.4.2降維fromsklearn.decompositionimportTruncatedSVD
#使用SVD進(jìn)行降維
svd=TruncatedSVD(n_components=2)
X_reduced=svd.fit_transform(X_tfidf)
#輸出降維后的向量
print(X_reduced)以上步驟為文本分類任務(wù)中特征提取和預(yù)處理的基本流程,通過這些技術(shù),可以將原始文本轉(zhuǎn)換為機(jī)器學(xué)習(xí)模型可以理解的數(shù)值向量,從而進(jìn)行有效的分類。3SVM在文本分類中的應(yīng)用3.11SVM文本分類器的構(gòu)建在文本分類中,支持向量機(jī)(SVM)是一種非常有效的分類算法。它通過將文本數(shù)據(jù)轉(zhuǎn)換為特征向量,然后在高維空間中找到一個(gè)最優(yōu)的超平面來區(qū)分不同類別的文本。構(gòu)建SVM文本分類器的關(guān)鍵步驟包括:文本預(yù)處理:包括分詞、去除停用詞、詞干提取等。特征提?。菏褂迷~袋模型、TF-IDF等方法將文本轉(zhuǎn)換為數(shù)值特征。模型訓(xùn)練:使用訓(xùn)練數(shù)據(jù)集訓(xùn)練SVM模型。模型評估:在測試數(shù)據(jù)集上評估模型的性能。3.1.1示例代碼假設(shè)我們有以下文本數(shù)據(jù)和對應(yīng)的類別:texts=[
"Ilovethismovie",
"Thisisaterriblemovie",
"Theactingwassuperb",
"Idonotrecommendthisfilm"
]
labels=[1,0,1,0]#1表示正面評價(jià),0表示負(fù)面評價(jià)使用scikit-learn庫構(gòu)建SVM文本分類器:fromsklearn.feature_extraction.textimportTfidfVectorizer
fromsklearn.svmimportLinearSVC
fromsklearn.pipelineimportPipeline
fromsklearn.model_selectionimporttrain_test_split
#文本預(yù)處理和特征提取
vectorizer=TfidfVectorizer(stop_words='english',max_df=0.5)
#SVM模型
classifier=LinearSVC()
#構(gòu)建管道
text_clf=Pipeline([
('tfidf',vectorizer),
('clf',classifier)
])
#劃分?jǐn)?shù)據(jù)集
X_train,X_test,y_train,y_test=train_test_split(texts,labels,test_size=0.2,random_state=42)
#訓(xùn)練模型
text_clf.fit(X_train,y_train)
#預(yù)測
predictions=text_clf.predict(X_test)3.22參數(shù)調(diào)優(yōu)與交叉驗(yàn)證SVM的性能可以通過調(diào)整其參數(shù)來優(yōu)化,如C(懲罰參數(shù))和kernel(核函數(shù))。交叉驗(yàn)證是一種評估模型性能和選擇最佳參數(shù)的方法。3.2.1示例代碼使用GridSearchCV進(jìn)行參數(shù)調(diào)優(yōu):fromsklearn.model_selectionimportGridSearchCV
#定義參數(shù)網(wǎng)格
parameters={
'tfidf__max_df':(0.5,0.75,1.0),
'tfidf__ngram_range':((1,1),(1,2)),#Unigramsorbigrams
'clf__C':(0.1,1,10,100),
'clf__kernel':('linear','rbf')
}
#創(chuàng)建GridSearchCV對象
gs_clf=GridSearchCV(text_clf,parameters,cv=5,n_jobs=-1)
#在訓(xùn)練數(shù)據(jù)上進(jìn)行交叉驗(yàn)證
gs_clf.fit(X_train,y_train)
#輸出最佳參數(shù)
print(gs_clf.best_params_)3.33多類文本分類SVM可以擴(kuò)展到多類分類問題,通過一對多(OvR)或一對一(OvO)策略實(shí)現(xiàn)。3.3.1示例代碼假設(shè)我們有三個(gè)類別的文本數(shù)據(jù):texts=[
"Ilovethismovie",
"Thisisaterriblemovie",
"Theactingwassuperb",
"Idonotrecommendthisfilm",
"Theplotwasinteresting",
"Thedirectionwaspoor"
]
labels=[1,0,1,0,2,2]#1表示正面評價(jià),0表示負(fù)面評價(jià),2表示中性評價(jià)使用OneVsRestClassifier進(jìn)行多類分類:fromsklearn.multiclassimportOneVsRestClassifier
#SVM模型
classifier=OneVsRestClassifier(LinearSVC())
#構(gòu)建管道
text_clf=Pipeline([
('tfidf',vectorizer),
('clf',classifier)
])
#訓(xùn)練模型
text_clf.fit(X_train,y_train)
#預(yù)測
predictions=text_clf.predict(X_test)3.44SVM在情感分析中的應(yīng)用情感分析是文本分類的一個(gè)重要應(yīng)用,用于識別和提取文本中的情感信息。SVM可以有效地用于情感分析,通過訓(xùn)練模型來識別正面、負(fù)面或中性情感。3.4.1示例代碼使用IMDb電影評論數(shù)據(jù)集進(jìn)行情感分析:fromsklearn.datasetsimportload_files
fromsklearn.feature_extraction.textimportCountVectorizer
fromsklearn.svmimportLinearSVC
fromsklearn.pipelineimportPipeline
fromsklearn.model_selectionimporttrain_test_split
fromsklearn.metricsimportclassification_report
#加載數(shù)據(jù)集
movie_data=load_files(r"../data/movie_reviews")
X,y=movie_data.data,movie_data.target
#劃分?jǐn)?shù)據(jù)集
X_train,X_test,y_train,y_test=train_test_split(X,y,test_size=0.2,random_state=42)
#構(gòu)建管道
text_clf=Pipeline([
('vect',CountVectorizer()),
('clf',LinearSVC())
])
#訓(xùn)練模型
text_clf.fit(X_train,y_train)
#預(yù)測
predictions=text_clf.predict(X_test)
#輸出分類報(bào)告
print(classification_report(y_test,predictions))以上代碼示例展示了如何使用SVM進(jìn)行文本分類,包括構(gòu)建分類器、參數(shù)調(diào)優(yōu)、多類分類以及在情感分析中的應(yīng)用。通過這些步驟,可以有效地利用SVM解決各種文本分類問題。4實(shí)戰(zhàn)案例分析4.11數(shù)據(jù)集的選擇與準(zhǔn)備在文本分類任務(wù)中,選擇合適的數(shù)據(jù)集至關(guān)重要。一個(gè)廣泛使用的數(shù)據(jù)集是20Newsgroups,它包含20個(gè)不同主題的新聞組文章。為了準(zhǔn)備數(shù)據(jù)集,我們需要進(jìn)行以下步驟:數(shù)據(jù)清洗:去除HTML標(biāo)簽、停用詞、標(biāo)點(diǎn)符號等。文本向量化:使用TF-IDF或詞袋模型將文本轉(zhuǎn)換為數(shù)值向量。數(shù)據(jù)分割:將數(shù)據(jù)集分為訓(xùn)練集和測試集。4.1.1示例代碼fromsklearn.datasetsimportfetch_20newsgroups
fromsklearn.feature_extraction.textimportTfidfVectorizer
fromsklearn.model_selectionimporttrain_test_split
#加載數(shù)據(jù)集
newsgroups=fetch_20newsgroups(subset='all',remove=('headers','footers','quotes'))
#數(shù)據(jù)清洗和向量化
vectorizer=TfidfVectorizer(stop_words='english',max_df=0.5)
X=vectorizer.fit_transform(newsgroups.data)
#數(shù)據(jù)分割
X_train,X_test,y_train,y_test=train_test_split(X,newsgroups.target,test_size=0.2,random_state=42)4.22使用SVM進(jìn)行文本分類的步驟支持向量機(jī)(SVM)是一種監(jiān)督學(xué)習(xí)模型,用于分類和回歸分析。在文本分類中,SVM通過在高維空間中找到一個(gè)最優(yōu)超平面來區(qū)分不同類別的文本。4.2.1示例代碼fromsklearn.svmimportSVC
fromsklearn.metricsimportclassification_report
#創(chuàng)建SVM分類器
svm=SVC(kernel='linear')
#訓(xùn)練模型
svm.fit(X_train,y_train)
#預(yù)測
y_pred=svm.predict(X_test)
#評估模型
print(classification_report(y_test,y_pred))4.33模型評估與結(jié)果分析模型評估通常包括準(zhǔn)確率、召回率、F1分?jǐn)?shù)等指標(biāo)。在文本分類中,這些指標(biāo)可以幫助我們理解模型在不同類別上的表現(xiàn)。4.3.1示例代碼fromsklearn.metricsimportaccuracy_score,recall_score,f1_score
#計(jì)算準(zhǔn)確率
accuracy=accuracy_score(y_test,y_pred)
#計(jì)算召回率
recall=recall_score(y_test,y_pred,average='weighted')
#計(jì)算F1分?jǐn)?shù)
f1=f1_score(y_test,y_pred,average='weighted')
print(f'Accuracy:{accuracy}')
print(f'Recall:{recall}')
print(f'F1Score:{f1}')4.44常見問題與解決方案在使用SVM進(jìn)行文本分類時(shí),可能會遇到以下問題:過擬合:可以通過正則化或使用交叉驗(yàn)證來避免。訓(xùn)練時(shí)間長:使用線性核或減少特征數(shù)量可以加快訓(xùn)練速度。類別不平衡:調(diào)整SVM的類權(quán)重或使用SMOTE等技術(shù)來平衡數(shù)據(jù)集。4.4.1示例代碼:解決過擬合問題fromsklearn.model_selectionimportGridSearchCV
#設(shè)置參數(shù)網(wǎng)格
param_grid={'C':[0.1,1,10,100],'gamma':[1,0.1,0.01,0.001],'kernel':['linear','rbf']}
#創(chuàng)建GridSearchCV對象
grid=GridSearchCV(SVC(),param_grid,refit=True,verbose=3)
#擬合模型
grid.fit(X_train,y_train)
#輸出最佳參數(shù)
print(grid.best_params_)
#使用最佳參數(shù)重新訓(xùn)練模型
best_svm=SVC(C=grid.best_params_['C'],gamma=grid.best_params_['gamma'],kernel=grid.best_params_['kernel'])
best_svm.fit(X_train,y_train)4.4.2示例代碼:解決類別不平衡問題fromimblearn.over_samplingimportSMOTE
#創(chuàng)建SMOTE對象
smote=SMOTE(random_state=42)
#重采樣
X_res,y_res=smote.fit_resample(X_train,y_train)
#使用重采樣后的數(shù)據(jù)訓(xùn)練SVM
svm.fit(X_res,y_res)通過以上步驟,我們可以有效地使用SVM進(jìn)行文本分類,并解決常見的問題。5SVM在文本分類中的局限與優(yōu)化5.11SVM的局限性支持向量機(jī)(SVM)在文本分類中表現(xiàn)出色,但并非沒有局限。主要局限包括:-計(jì)算復(fù)雜度:SVM在處理大規(guī)模數(shù)據(jù)集時(shí),計(jì)算復(fù)雜度較高,尤其是當(dāng)數(shù)據(jù)量大且特征維度高時(shí),訓(xùn)練時(shí)間會顯著增加。-非線性問題:雖然SVM通過核技巧可以處理非線性分類問題,但在高維空間中選擇合適的核函數(shù)并不總是直觀的,且可能引入額外的計(jì)算負(fù)擔(dān)。-參數(shù)選擇:SVM的性能高度依賴于參數(shù)選擇,包括懲罰參數(shù)C和核函數(shù)參數(shù)。不恰當(dāng)?shù)膮?shù)設(shè)置可能導(dǎo)致過擬合或欠擬合。-多分類問題:SVM本質(zhì)上是二分類算法,處理多分類問題時(shí)需要額外的策略,如一對多(one-vs-all)或一對一(one-vs-one)方法,這可能增加模型的復(fù)雜度和預(yù)測時(shí)間。5.22大規(guī)模數(shù)據(jù)集的處理5.2.1示例代碼:使用線性SVM處理大規(guī)模文本數(shù)據(jù)#導(dǎo)入必要的庫
fromsklearn.feature_extraction.textimportTfidfVectorizer
fromsklearn.svmimportLinearSVC
fromsklearn.pipelineimportPipeline
fromsklearn.datasetsimportfetch_20newsgroups
fromsklearn.model_selectionimporttrain_test_split
#加載數(shù)據(jù)集
newsgroups=fetch_20newsgroups(subset='all')
X_train,X_test,y_train,y_test=train_test_split(newsgroups.data,newsgroups.target,test_size=0.2,random_state=42)
#創(chuàng)建管道
text_clf=Pipeline([
('tfidf',TfidfVectorizer()),
('clf',LinearSVC())
])
#訓(xùn)練模型
text_clf.fit(X_train,y_train)
#預(yù)測
predictions=text_clf.predict(X_test)
#評估模型
fromsklea
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 出納月工作總結(jié)
- 裝表接電工-初級工模擬習(xí)題+答案
- 物流服務(wù)師高級考試題含參考答案
- 2024年新人教版七年級上冊數(shù)學(xué)課件 第六章 小結(jié)與復(fù)習(xí)
- 滄州市黃驊市2025屆數(shù)學(xué)四年級第一學(xué)期期末學(xué)業(yè)質(zhì)量監(jiān)測試題含解析
- 跨度42+68+42m米帶鋼掛梁V墩連續(xù)剛構(gòu)箱疊合箱梁橋施工組織設(shè)計(jì)(技術(shù)標(biāo))
- 2024化學(xué)檢驗(yàn)工專項(xiàng)試題
- 6和7的加減法課件
- 交通安全主題班會一
- 學(xué)校合同擬定與審批制度
- 河北省定州市多校2024-2025學(xué)年七年級上學(xué)期第一次月考地理試題
- 燃燒仿真.燃燒應(yīng)用案例:微重力燃燒:燃燒仿真結(jié)果的后處理與分析
- 【新教材】人教版(2024)七年級上冊英語Start Unit 1 ~Unit 7全冊教案
- CPK-能力分析模板(標(biāo)準(zhǔn)版)
- 2024-2030年中國學(xué)生校服行業(yè)市場現(xiàn)狀供需分析及重點(diǎn)企業(yè)投資評估規(guī)劃分析研究報(bào)告
- 2024-2025學(xué)年教科版六年級科學(xué)上冊第三單元《工具與技術(shù)》知識清單講義
- 建筑施工安全生產(chǎn)治本攻堅(jiān)三年行動(dòng)方案(2024-2026年)
- 數(shù)學(xué)探究讓興趣引導(dǎo)認(rèn)知-正方體截面的探究 說課課件
- 人工智能與《智慧農(nóng)業(yè)》的課件
- 人教版小學(xué)英語單詞表(完整版)
- 歐美電力市場發(fā)展分析及對我國的啟發(fā)
評論
0/150
提交評論