




版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認(rèn)領(lǐng)
文檔簡介
1大綱緒論相關(guān)文獻研究方法系統(tǒng)發(fā)展與實證分析結(jié)論與建議1大綱緒論2緒論2緒論3研究背景與動機資訊過載(InformationOverload)搜尋引擎與推薦系統(tǒng)的出現(xiàn),成為改善資訊過載問題的兩大利器使用者除了本身的主觀喜好之外,其行為容易受到人際關(guān)係的影響虛擬社群與社會網(wǎng)路,成為許多使用者獲得資訊情報的最佳來源本研究探討如何運用社會網(wǎng)路提升資訊推薦的品質(zhì)3研究背景與動機資訊過載(InformationOverl4研究目的本研究希望透過主題概念萃取與社會網(wǎng)路分析,建構(gòu)資訊推薦系統(tǒng),藉此達到以下的目標(biāo):主題概念萃?。狠腿〕鑫募械闹匾P(guān)鍵字利用關(guān)鍵字分群的方式,達到主題概念萃取的目的,藉以瞭解使用者所關(guān)注的興趣與議題形成主題社群以向量空間模型表示使用者的個別興趣,並結(jié)合使用者社會網(wǎng)路,將相似度高且具有相同主題興趣的使用者群聚在一起,以形成主題社群資訊推薦經(jīng)由主題社群的產(chǎn)生,針對使用者個人的主題偏好,進行個人化推薦4研究目的本研究希望透過主題概念萃取與社會網(wǎng)路分析,建構(gòu)資訊5相關(guān)研究5相關(guān)研究6社會網(wǎng)路分析社會網(wǎng)路分析(SocialNetworkAnalysis)是一種研究社會結(jié)構(gòu)、組織系統(tǒng)、人際關(guān)係、團體互動的概念與方法,是在社會計量學(xué)基礎(chǔ)上所發(fā)展出來的分析方法社會網(wǎng)路分析研究領(lǐng)域中,最著名的理論之一為「六度分隔」理論[40]最初利用信件傳遞實驗,發(fā)現(xiàn)從寄件者到收件者之間,平均轉(zhuǎn)寄了六次指互不相干的兩個人,最多可經(jīng)由五個中介者連結(jié)出某種關(guān)係6社會網(wǎng)路分析社會網(wǎng)路分析(SocialNetworkA7社會網(wǎng)路示意圖/wiki/Social_network
7社會網(wǎng)路示意圖http://en.wikipedia.or8社會網(wǎng)路分析(Cont.)在社會網(wǎng)路分析中,個別行動者的量測指標(biāo)主要有以下三項[21]:Degree—numberofdirectconnections
Betweenness—roleofbrokerorgatekeeperClosenessCentrality—whohastheshortestpathtoallothers8社會網(wǎng)路分析(Cont.)在社會網(wǎng)路分析中,個別行動者的量9ClusteringAlgorithmPartitioningmethodsk-MeansHierarchicalmethodsAgglomerativeDivisiveModel-basedmethodsSelf-OrganizingMap9ClusteringAlgorithmPartition10ClusteringAlgorithm(續(xù))Partitioningmethodsk-MeansHierarchicalmethodsAgglomerativeDivisiveModel-basedmethodsSelf-OrganizingMap10ClusteringAlgorithm(續(xù))Part11ClusteringAlgorithm(續(xù))Partitioningmethodsk-MeansHierarchicalmethodsAgglomerativeDivisiveModel-basedmethodsSelf-OrganizingMap11ClusteringAlgorithm(續(xù))Part12推薦系統(tǒng)推薦系統(tǒng)的目的是從大量資訊中找出使用者最可能感興趣的部份,減少使用者主動搜尋的機會成本目前常應(yīng)用在推薦系統(tǒng)的方法主要有兩種內(nèi)容導(dǎo)向(Content-based)式推薦協(xié)同過濾(CollaborativeFiltering)式推薦12推薦系統(tǒng)推薦系統(tǒng)的目的是從大量資訊中找出使用者最可能感興13資訊檢索—向量空間模型Thevectormodelranksthedocumentsaccordingtotheirdegreeofsimilaritytothequery,andretrievethedocumentswithadegreeofsimilarityaboveathresholdDefineWeightwi,j
associatedwithapair(ki,dj)ispositiveandnon-binary
(tisthetotalnumberofindexterms)Theindextermsinthequeryarealsoweightedwi,qistheweightassociatedwiththepair[ki,q],wherewi,q>=0(tisthetotalnumberofindexterms)Degreeofsimilarityofdjwithregardtoq:Thecosineoftheanglebetweenthetwocorrespondingvectors13資訊檢索—向量空間模型Thevectormodel14資訊檢索—向量空間模型圖示NormalizedTerm-documentmatrix14資訊檢索—向量空間模型圖示NormalizedTerm-15資訊檢索—向量空間模型圖示15資訊檢索—向量空間模型圖示16研究方法16研究方法17語料庫本研究以交通大學(xué)機構(gòu)典藏系統(tǒng)[38]所收集的期刊論文做為語料庫選取標(biāo)題(Title)、摘要(Abstract)、關(guān)鍵字(Keyword)及作者(Author)欄位做為資料來源.tw
系統(tǒng)雛型展示17語料庫本研究以交通大學(xué)機構(gòu)典藏系統(tǒng)[38]所收集的期刊18前置處理斷詞切字(Tokenization)與小寫化(Lowercasing)刪除停用字(StopwordRemoving)詞性標(biāo)記(Part-of-speech)片語化(Chunking)詞幹還原(Stemming)特徵選擇(FeatureSelection)18前置處理斷詞切字(Tokenization)與小寫化(L19Somecombinatorialcharacteristicsofmatrixmultiplicationonregulartwo-dimensionalarraysarestudied.Fromthestudies,theauthorsareabletodesignmanyefficientvarietiesofthecylindricalarrayandthetwo-layeredmesharrayformatrixmultiplication.somecombinatorialcharacteristicsofmatrixmultiplicationonregulartwo-dimensionalarraysarestudiedfromthestudiestheauthorsareabletodesignmanyefficientvarietiesofthecylindricalarrayandthetwo-layeredmesharrayformatrixmultiplicationsomecombinatorialcharacteristicsofmatrixmultiplicationonregulartwo-dimensionalarraysarestudiedfromthestudiestheauthorsareabletodesignmanyefficientvarietiesofthecylindricalarrayandthetwo-layeredmesharrayformatrixmultiplicationcombinatorialcharacteristicsmatrixmultiplicationregulartwo-dimensionalarraysstudiedstudiesauthorsdesignefficientvarieties
cylindricalarraytwo-layeredmesharraymatrixmultiplicationcombinatorial_jjcharacteristics_nnsmatrix_nnmultiplication_nnregular_jjtwo-dimensional_jjarrays_nnsstudied_vbnstudies_nnsauthors_nnsdesign_vbefficient_jjvarieties_nnscylindrical_jjarray_nntwo-layered_jjmesh_nnarray_nnmatrix_nnmultiplication_nn前置處理(續(xù))19Somecombinatorialcharacter20主題關(guān)鍵字分群使用者模型計算語意相關(guān)度建立語意網(wǎng)路圖關(guān)鍵字分群關(guān)鍵字分群標(biāo)記20主題關(guān)鍵字分群使用者模型21使用者模型採用TF-IAF(TermFrequency-InverseAuthorFrequency)[30]來衡量使用者與關(guān)鍵字間的關(guān)聯(lián)計算完TF-IAF後,每個使用者皆可以向量的形式來呈現(xiàn)21使用者模型採用TF-IAF(TermFrequenc22計算語意相關(guān)度本研究以句子為範(fàn)圍,即兩個關(guān)鍵字在同一句子內(nèi)出現(xiàn)才表示其具有語意相關(guān)度。透過增加標(biāo)題(Title)及關(guān)鍵字(Keyword)權(quán)重來強化這些關(guān)鍵字關(guān)係之代表性22計算語意相關(guān)度本研究以句子為範(fàn)圍,即兩個關(guān)鍵字在同一句子23建立語意網(wǎng)路圖每個關(guān)鍵字都可表示為一個點,點權(quán)重為個別關(guān)鍵字在使用者間TF-IAF的加總,再加上該關(guān)鍵字所有語意相關(guān)度平均關(guān)鍵字間的關(guān)係表示成一個邊,邊權(quán)重即為關(guān)鍵字的語意相關(guān)度運用[9]的方法進行主題關(guān)鍵字分群23建立語意網(wǎng)路圖每個關(guān)鍵字都可表示為一個點,點權(quán)重為個別關(guān)24建立語意網(wǎng)路圖24建立語意網(wǎng)路圖25主題關(guān)鍵字分群示意圖[9]25主題關(guān)鍵字分群示意圖[9]26選取重要候選關(guān)鍵字Findingverticeswhoseweightsarelargerthantheaverageweight26選取重要候選關(guān)鍵字Findingverticeswh27主題關(guān)鍵字分群(Cont.)k-NearestNeighborApproach[19]考慮圖中的每個點,取與該點最相近的k個點為一組,每組都為一個連通圖,稱之為候選關(guān)鍵字組產(chǎn)生候選關(guān)鍵字子群以每個候選關(guān)鍵字組為中心,向外還原先前與候選關(guān)鍵字組內(nèi)的點有直接連線關(guān)係的邊,形成候選關(guān)鍵字子群,並計算每個子群的權(quán)重,如方程式(3-6)所示。(3-6)27主題關(guān)鍵字分群(Cont.)k-NearestNeig28關(guān)鍵字分群Usek-nearestneighborgraphapproach28關(guān)鍵字分群Usek-nearestneighbor29主題關(guān)鍵字分群(Cont.)合併候選關(guān)鍵字子群找出互連性(Inter-connectivity)最強的兩個子群將之合併,直到子群間的互連相關(guān)度(RelativeInter-connectivity)都小於門檻值後停止?;ミB相關(guān)度方程式(3-7)所示。(3-7)29主題關(guān)鍵字分群(Cont.)合併候選關(guān)鍵字子群(3-7)30合併候選關(guān)鍵字子群30合併候選關(guān)鍵字子群31主題關(guān)鍵字分群(Cont.)修正並產(chǎn)生主題關(guān)鍵字分群讓每個子群內(nèi)的關(guān)鍵字個數(shù)保持在一定的差距內(nèi)若子群內(nèi)包含的關(guān)鍵字比平均個數(shù)少,但子群權(quán)重卻大於平均權(quán)重時,將該群保留若子群經(jīng)修正後仍小於平均權(quán)重,將該群直接刪除子群權(quán)重如方程式(3-8)所示(3-8)31主題關(guān)鍵字分群(Cont.)修正並產(chǎn)生主題關(guān)鍵字分群(332修正並產(chǎn)生主題關(guān)鍵字分群32修正並產(chǎn)生主題關(guān)鍵字分群33關(guān)鍵字分群標(biāo)記利用人力過濾出有意義的關(guān)鍵字取權(quán)重最高的關(guān)鍵字做為最後群的標(biāo)記33關(guān)鍵字分群標(biāo)記利用人力過濾出有意義的關(guān)鍵字34建立主題社群使用者社會網(wǎng)路使用者分群34建立主題社群使用者社會網(wǎng)路35使用者社會網(wǎng)路35使用者社會網(wǎng)路36使用者社會網(wǎng)路(續(xù))36使用者社會網(wǎng)路(續(xù))37使用者分群將所有使用者向量模型以N×m的矩陣U表示,N代表使用者數(shù)目,m代表所有關(guān)鍵字?jǐn)?shù)目以矩陣R代表使用者間相關(guān)係數(shù),乘上以使用者向量模型構(gòu)成的矩陣U,形成一新的矩陣U’代表更新後的使用者向量模型(α參數(shù)調(diào)整R的影響程度)37使用者分群將所有使用者向量模型以N×m的矩陣U表示,N代38使用者分群(續(xù))以餘弦相似度(CosineSimilarity)計算使用者與個別主題的相似度,當(dāng)使用者與主題間的相似度大於門檻值時,則將其歸類到該主題38使用者分群(續(xù))以餘弦相似度(CosineSimila39推薦模式在社群中的成員都具有相似的主題興趣,但是由於多重主題[9]的屬性存在,使得使用者可能對多種主題都具有偏好,於是產(chǎn)生個人化推薦與社群推薦兩種推薦模式,茲分述如下:個人化推薦(CollaborativeFiltering)依據(jù)內(nèi)容導(dǎo)向方法,對使用者進行論文推薦,即計算社群內(nèi)成員所撰寫的論文與個別成員的相似度,選取相似度最高的n篇論文給予推薦社群推薦(擴展閱讀層面)透過分析社群成員對其他主題的興趣分佈,統(tǒng)計出具有較高偏好比重的主題,推薦項目以與該主題最相關(guān)的n篇論文39推薦模式在社群中的成員都具有相似的主題興趣,但是由於多重40系統(tǒng)發(fā)展與實證分析40系統(tǒng)發(fā)展與實證分析41系統(tǒng)發(fā)展—系統(tǒng)架構(gòu)41系統(tǒng)發(fā)展—系統(tǒng)架構(gòu)42系統(tǒng)發(fā)展—系統(tǒng)介面42系統(tǒng)發(fā)展—系統(tǒng)介面43系統(tǒng)發(fā)展—系統(tǒng)介面(續(xù))43系統(tǒng)發(fā)展—系統(tǒng)介面(續(xù))44系統(tǒng)發(fā)展—系統(tǒng)介面(續(xù))44系統(tǒng)發(fā)展—系統(tǒng)介面(續(xù))45系統(tǒng)發(fā)展—系統(tǒng)介面(Cont.)45系統(tǒng)發(fā)展—系統(tǒng)介面(Cont.)46系統(tǒng)發(fā)展—系統(tǒng)介面(續(xù))46系統(tǒng)發(fā)展—系統(tǒng)介面(續(xù))47實驗結(jié)果—分群結(jié)果評估首先將系統(tǒng)分群的結(jié)果分類,即將相近的群歸屬於同一類依序?qū)€別使用者進行分類之動作採用準(zhǔn)確率(Precision)與回現(xiàn)率(Recall)兩項指標(biāo)[15],來評估分群結(jié)果的好壞47實驗結(jié)果—分群結(jié)果評估首先將系統(tǒng)分群的結(jié)果分類,即將相近48實驗結(jié)果—分群結(jié)果評估(續(xù))48實驗結(jié)果—分群結(jié)果評估(續(xù))49實驗結(jié)果—分群結(jié)果評估(續(xù))49實驗結(jié)果—分群結(jié)果評估(續(xù))50實驗結(jié)果—分群結(jié)果評估(續(xù))50實驗結(jié)果—分群結(jié)果評估(續(xù))51實驗結(jié)果—推薦結(jié)果評估標(biāo)凖差為0.068,當(dāng)信賴水凖達95%時,信賴區(qū)間為(0.632,0.897);Kappa值為0.764,專家同意度為0.95針對專家具有相同意見之推薦結(jié)果,總共有208筆,認(rèn)為符合使用者需求之推薦有187筆,則推薦之準(zhǔn)確率為187/208=0.89951實驗結(jié)果—推薦結(jié)果評估標(biāo)凖差為0.068,當(dāng)信賴水凖達952作者收錄論文數(shù)量分析論文收錄的篇數(shù)介於1篇到41篇,只收錄1篇文章的作者有129位,佔全部作者的55%;收錄少於5篇的作者有93%52作者收錄論文數(shù)量分析論文收錄的篇數(shù)介於1篇到41篇,只收53作者收錄論文數(shù)量分析(續(xù))53作者收錄論文數(shù)量分析(續(xù))54共同作者分析共同作者數(shù)介於1到6位作者之間,只有單一作者的論文有6篇,佔全部論文數(shù)的3%;共同作者為2到6位間的論文篇數(shù)共有220篇,佔全部的97%54共同作者分析共同作者數(shù)介於1到6位作者之間,只有單一作者55社會網(wǎng)路Yu-CheeTseng55社會網(wǎng)路Yu-CheeTseng56社會網(wǎng)路量測指標(biāo)分析56社會網(wǎng)路量測指標(biāo)分析57結(jié)論與建議57結(jié)論與建議58結(jié)論本研究致力於改善資訊推薦的效能,主要的目在於提出結(jié)合主題概念萃取與社會網(wǎng)路分析之資訊推薦系統(tǒng),以提供符合使用者需求之推薦資訊。經(jīng)由實驗與統(tǒng)計分析的驗證,將本研究的結(jié)果整理如下:主題概念萃?。核?35位作者,226篇論文中,共產(chǎn)生22個主題概念形成主題社群:經(jīng)由實驗發(fā)現(xiàn),社會網(wǎng)路對提升使用者分群之回現(xiàn)率有較佳之效果,代表其能發(fā)掘出更多具有關(guān)聯(lián)性之使用者資訊推薦:資訊推薦之準(zhǔn)確率為0.899,顯見系統(tǒng)之推薦效果,頗能符合使用者需求58結(jié)論本研究致力於改善資訊推薦的效能,主要的目在於提出結(jié)合59後續(xù)建議建立主題本體論進行主題萃取的過程中,利用階層式分群法以樹狀結(jié)構(gòu)表示主題分群之結(jié)果,產(chǎn)生主題概念階層經(jīng)由使用者主題偏好之關(guān)聯(lián),建立主題概念之連結(jié),以形成主題本體論幫助使用者瞭解本身處於何種階層層級,未來可朝哪些研究方向前進使用者評分之應(yīng)用使用者評分可分為明顯性評分與隱含性評分。明顯性評分為使用者依對目標(biāo)物感興趣程度給予主觀評分;隱含性評分的估計通常以使用者的瀏覽行為做依據(jù)經(jīng)由使用者評分可以更精確瞭解使用者偏好所在,使資訊推薦更符合使用者需求59後續(xù)建議建立主題本體論60後續(xù)建議(續(xù))社會網(wǎng)路之階層擴展可經(jīng)由建立在共同社會網(wǎng)路中之使用者關(guān)係,進一步探討社會網(wǎng)路之資訊流動及影響。例如使用Floyd-Warshall演算法可找出位於同一社會網(wǎng)路中,兩兩使用者間的最短路徑,則可經(jīng)由節(jié)點的分析,研究其對使用者的影響。機構(gòu)典藏與資料庫系統(tǒng)之加值應(yīng)用以其他方式(如引用、共引)架構(gòu)社會網(wǎng)路60後續(xù)建議(續(xù))社會網(wǎng)路之階層擴展61參考文獻(續(xù))A.Iskold,(2007)“TheArt,ScienceandBusinessofRecommendationEngines.”/archives/recommendation_engines.phpA.K.Jain,M.N.Murty,&P.J.Flynn,“Dataclustering:Areview,”ACMComputingSurveys,vol.31,
pp.264-323,1999.B.Krulwich,&C.Burkey,“TheInfoFinderagent:Learninguserintereststhroughheuristicphraseextraction,”IEEEExpert:IntelligentSystemsandTheirApplications,vol.12,pp.22-27,1997.B.Sarwar,G.Karypis,J.Konstan,&J.Riedl,“Analysisofrecommendationalgorithmsfore-commerce,”Proceedingsofthe2ndACMconferenceonElectroniccommerce,pp.158-167,2000.D.Goldberg,D.Nichols,B.M.Oki,&D.Terry,“UsingCollaborativeFilteringtoWeaveAnInformationTapestry,”CommunicationsoftheACM,vol.35,pp.61-70,1992.D.Koller,&M.Sahami,“Hierarchicallyclassifyingdocumentsusingveryfewwords,”Proceedingsof14ththeInternationalConferenceonMachineLearning,pp.170–178,1997.F.Sebastiani,“Machinelearninginautomatedtextcategorization,”ACMComputingSurveys,vol.34,pp.1-47,2002.G..Karypis,E.H.Han,&V.Kumar,“Chameleon:Hierarchicalclusteringusingdynamicmodeling,”Computer,vol.32,pp.68-75,1999.H.C.Chang,&C.C.Hsu,“Usingtopickeywordclustersforautomaticdocumentclustering,”TransactionsonInformationandSystems,vol.88,pp.1852-1860,2005.H.Hotta,“Userprofilingsystemusingsocialnetworksforrecommendation”,InProceedingsof8thInternationalSymposiumonAdvancedIntelligentSystems,2007.H.Kautz,B.Selman,&F.Park,“ReferralWeb:Combiningsocialnetworksandcollaborativefiltering,”CommunicationsoftheACM,vol.40,pp.63-65,1997.61參考文獻(續(xù))A.Iskold,(2007)“Th62參考文獻(續(xù))H.Sakagami,&T.Kamba,“LearningPersonalPreferencesonOnlineNewspaperArticlesfromUserBehaviors,”ComputerNetworksandISDNSystems,vol.29,pp.1447-1455,1997.J.B.Schafer,J.Konstan,&J.Riedi,“Recommendersystemsine-commerce,”Proceedingsofthe1stACMconferenceonElectroniccommerce,pp.158-166,1999.J.MacQueen,“Somemethodsforclassificationandanalysisofmultivariateobservations,”Proceedingsof5thBerkeleySymposiumonMathematicalStatisticsandProbability,vol.1,pp.281-297,1967.J.Makhoul,F.Kubala,R.Schwartz,&R.Weischedel,“Performancemeasuresforinformationextraction,”ProceedingsofDARPABroadcastNewsWorkshop,pp.249-252,1999.J.Moreno,WhoShallSurvive?NewYork:NationalInstituteofMentalHealth,1934.J.R.Tyler,D.M.Wilkinson,&B.A.Huberman,“Emailasspectroscopy:Automateddiscoveryofcommunitystructurewithinorganizations,”Communitiesandtechnologies,pp.81-96,2003.J.Rucker,&M.J.Polanco,“Siteseer:Personalizednavigationfortheweb,”CommunicationsoftheACM,vol.40,pp.73-76,1997.K.C.Gowda,&G.Krishna,“Agglomerativeclusteringusingtheconceptofmutualnearestneighbourhood,”PatternRecognition,vol.10,pp.105-112,1978.K.Faust,“Comparisonofmethodsforpositionalanalysis:Structuralandgeneralequivalences,”SocialNetworks,vol.10,pp.313-341,1988.L.C.Freeman,“CentralityinSocialNetworks:Conceptualclarification,”SocialNetworks,vol.1,pp.215-239,1979.L.Page,&S.Brin,“Theanatomyofalarge-scalehypertextualWebsearchengine,”InProceedingsoftheseventhinternationalWorld-WideWebconference,1998.62參考文獻(續(xù))H.Sakagami,&T.Kam63參考文獻(續(xù))L.Garton,C.Haythornthwaite,&B.Wellman,(1997)“StudyingOnlineSocialNetworks,”http://jcmc.huji.ac.il/vol3/issue1/garton.htmlM.A.Shah,“ReferralWeb:Aresourcelocationsystemguidedbypersonalrelations,”Master'sthesis,M.I.T.,1997.M.Granovetter,“Thestrengthofweakties:Anetworktheoryrevisited,”SociologyTheory,vol.1,pp.201-233,1983.N.Zhong,J.Liu&Y.Yao,“Insearchofthewisdomweb,”Computer,vol.35,pp.27-31,2002.P.Athanasios,Probability,RandomVariablesandStochasticProcesses.,SecondEditioned.NewYork:McGraw-Hill,1984.P.Mika,“Flink:SemanticWebtechnologyfortheextractionandanalysisofsocialnetworks,”WebSemantics:Science,ServicesandAgentsontheWorldWideWeb,vol3,pp.211-223,2005.P.Pattison,Algebraicmodelsforsocialnetworks.,CambridgeUniversityPress,1993.S.E.Chan,R.K.Pon,&A.F.Cárdenas,“VisualizationandClusteringofAuthorSocialNetworks,”InternationalConferenceonDistributedMultimediaSystemsWorkshoponVisualLanguagesandComputing,pp.30-31,2006.S.P.Borgatti,(1998)“WhatIsSocialNetworkAnalysis?”/networks/whatis.htmS.Staab,P.Domingos,P.Mike,J.Golbeck,D.Li,T.Finin,A.Joshi,A.Nowak,&R.R.Vallacher,“Socialnetworksapplied,”IEEEIntelligentSystems,vol.20,pp.80-93,2005.V.Kotlyar,M.S.Viveros,S.S.Duri,R.D.Lawrence,&G.S.Almasi,“Acasestudyininformationdeliverytomassretailmarkets,”InProceedingsofthe10thInternationalConferenceonDatabaseandExpertSystems,1999.63參考文獻(續(xù))L.Garton,C.Haythor64參考文獻(續(xù))X.Liu,J.Bollen,M.L.Nelson,&H.V.deSompel,“Co-authorshipnetworksinthedigitallibraryresearchcommunity,”InformationProcessingandManagement,vol41,pp.1462-1480,2005.Y.Matsuo,J.Mori,&M.Hamasaki,“POLYPHONET:AnadvancedsocialnetworkextractionsystemfromtheWeb",WebSemantics:Science,ServicesandAgentsontheWorldWideWeb,vol.5,pp.262-278,2007.KappaStatistics-/homepages/chuangj/kappaLingPipeNLPToolkit-/lingpipe/NCTUIR-.tw/PorterStemmingAlgorithm-/~martin/PorterStemmerD.J.Watts著,傅士哲,謝良瑜譯,“6個人的小世界”大塊文化,2004.楊永芳,“語意擴充式文件推薦方法之研究”中山大學(xué)資訊管理研究所碩士論文,2001.張家寧,“以概念萃取為基礎(chǔ)之文件分群與視覺化”交通大學(xué)資訊科學(xué)與工程研究所碩士論文,2006.翁明正,翁頌舜,“應(yīng)用本體論與社會網(wǎng)路分析於個人化推薦”2007數(shù)位科技與創(chuàng)新管理研討會論文集,423-434,2007.64參考文獻(續(xù))X.Liu,J.Bollen,M.65大綱緒論相關(guān)文獻研究方法系統(tǒng)發(fā)展與實證分析結(jié)論與建議1大綱緒論66緒論2緒論67研究背景與動機資訊過載(InformationOverload)搜尋引擎與推薦系統(tǒng)的出現(xiàn),成為改善資訊過載問題的兩大利器使用者除了本身的主觀喜好之外,其行為容易受到人際關(guān)係的影響虛擬社群與社會網(wǎng)路,成為許多使用者獲得資訊情報的最佳來源本研究探討如何運用社會網(wǎng)路提升資訊推薦的品質(zhì)3研究背景與動機資訊過載(InformationOverl68研究目的本研究希望透過主題概念萃取與社會網(wǎng)路分析,建構(gòu)資訊推薦系統(tǒng),藉此達到以下的目標(biāo):主題概念萃?。狠腿〕鑫募械闹匾P(guān)鍵字利用關(guān)鍵字分群的方式,達到主題概念萃取的目的,藉以瞭解使用者所關(guān)注的興趣與議題形成主題社群以向量空間模型表示使用者的個別興趣,並結(jié)合使用者社會網(wǎng)路,將相似度高且具有相同主題興趣的使用者群聚在一起,以形成主題社群資訊推薦經(jīng)由主題社群的產(chǎn)生,針對使用者個人的主題偏好,進行個人化推薦4研究目的本研究希望透過主題概念萃取與社會網(wǎng)路分析,建構(gòu)資訊69相關(guān)研究5相關(guān)研究70社會網(wǎng)路分析社會網(wǎng)路分析(SocialNetworkAnalysis)是一種研究社會結(jié)構(gòu)、組織系統(tǒng)、人際關(guān)係、團體互動的概念與方法,是在社會計量學(xué)基礎(chǔ)上所發(fā)展出來的分析方法社會網(wǎng)路分析研究領(lǐng)域中,最著名的理論之一為「六度分隔」理論[40]最初利用信件傳遞實驗,發(fā)現(xiàn)從寄件者到收件者之間,平均轉(zhuǎn)寄了六次指互不相干的兩個人,最多可經(jīng)由五個中介者連結(jié)出某種關(guān)係6社會網(wǎng)路分析社會網(wǎng)路分析(SocialNetworkA71社會網(wǎng)路示意圖/wiki/Social_network
7社會網(wǎng)路示意圖http://en.wikipedia.or72社會網(wǎng)路分析(Cont.)在社會網(wǎng)路分析中,個別行動者的量測指標(biāo)主要有以下三項[21]:Degree—numberofdirectconnections
Betweenness—roleofbrokerorgatekeeperClosenessCentrality—whohastheshortestpathtoallothers8社會網(wǎng)路分析(Cont.)在社會網(wǎng)路分析中,個別行動者的量73ClusteringAlgorithmPartitioningmethodsk-MeansHierarchicalmethodsAgglomerativeDivisiveModel-basedmethodsSelf-OrganizingMap9ClusteringAlgorithmPartition74ClusteringAlgorithm(續(xù))Partitioningmethodsk-MeansHierarchicalmethodsAgglomerativeDivisiveModel-basedmethodsSelf-OrganizingMap10ClusteringAlgorithm(續(xù))Part75ClusteringAlgorithm(續(xù))Partitioningmethodsk-MeansHierarchicalmethodsAgglomerativeDivisiveModel-basedmethodsSelf-OrganizingMap11ClusteringAlgorithm(續(xù))Part76推薦系統(tǒng)推薦系統(tǒng)的目的是從大量資訊中找出使用者最可能感興趣的部份,減少使用者主動搜尋的機會成本目前常應(yīng)用在推薦系統(tǒng)的方法主要有兩種內(nèi)容導(dǎo)向(Content-based)式推薦協(xié)同過濾(CollaborativeFiltering)式推薦12推薦系統(tǒng)推薦系統(tǒng)的目的是從大量資訊中找出使用者最可能感興77資訊檢索—向量空間模型Thevectormodelranksthedocumentsaccordingtotheirdegreeofsimilaritytothequery,andretrievethedocumentswithadegreeofsimilarityaboveathresholdDefineWeightwi,j
associatedwithapair(ki,dj)ispositiveandnon-binary
(tisthetotalnumberofindexterms)Theindextermsinthequeryarealsoweightedwi,qistheweightassociatedwiththepair[ki,q],wherewi,q>=0(tisthetotalnumberofindexterms)Degreeofsimilarityofdjwithregardtoq:Thecosineoftheanglebetweenthetwocorrespondingvectors13資訊檢索—向量空間模型Thevectormodel78資訊檢索—向量空間模型圖示NormalizedTerm-documentmatrix14資訊檢索—向量空間模型圖示NormalizedTerm-79資訊檢索—向量空間模型圖示15資訊檢索—向量空間模型圖示80研究方法16研究方法81語料庫本研究以交通大學(xué)機構(gòu)典藏系統(tǒng)[38]所收集的期刊論文做為語料庫選取標(biāo)題(Title)、摘要(Abstract)、關(guān)鍵字(Keyword)及作者(Author)欄位做為資料來源.tw
系統(tǒng)雛型展示17語料庫本研究以交通大學(xué)機構(gòu)典藏系統(tǒng)[38]所收集的期刊82前置處理斷詞切字(Tokenization)與小寫化(Lowercasing)刪除停用字(StopwordRemoving)詞性標(biāo)記(Part-of-speech)片語化(Chunking)詞幹還原(Stemming)特徵選擇(FeatureSelection)18前置處理斷詞切字(Tokenization)與小寫化(L83Somecombinatorialcharacteristicsofmatrixmultiplicationonregulartwo-dimensionalarraysarestudied.Fromthestudies,theauthorsareabletodesignmanyefficientvarietiesofthecylindricalarrayandthetwo-layeredmesharrayformatrixmultiplication.somecombinatorialcharacteristicsofmatrixmultiplicationonregulartwo-dimensionalarraysarestudiedfromthestudiestheauthorsareabletodesignmanyefficientvarietiesofthecylindricalarrayandthetwo-layeredmesharrayformatrixmultiplicationsomecombinatorialcharacteristicsofmatrixmultiplicationonregulartwo-dimensionalarraysarestudiedfromthestudiestheauthorsareabletodesignmanyefficientvarietiesofthecylindricalarrayandthetwo-layeredmesharrayformatrixmultiplicationcombinatorialcharacteristicsmatrixmultiplicationregulartwo-dimensionalarraysstudiedstudiesauthorsdesignefficientvarieties
cylindricalarraytwo-layeredmesharraymatrixmultiplicationcombinatorial_jjcharacteristics_nnsmatrix_nnmultiplication_nnregular_jjtwo-dimensional_jjarrays_nnsstudied_vbnstudies_nnsauthors_nnsdesign_vbefficient_jjvarieties_nnscylindrical_jjarray_nntwo-layered_jjmesh_nnarray_nnmatrix_nnmultiplication_nn前置處理(續(xù))19Somecombinatorialcharacter84主題關(guān)鍵字分群使用者模型計算語意相關(guān)度建立語意網(wǎng)路圖關(guān)鍵字分群關(guān)鍵字分群標(biāo)記20主題關(guān)鍵字分群使用者模型85使用者模型採用TF-IAF(TermFrequency-InverseAuthorFrequency)[30]來衡量使用者與關(guān)鍵字間的關(guān)聯(lián)計算完TF-IAF後,每個使用者皆可以向量的形式來呈現(xiàn)21使用者模型採用TF-IAF(TermFrequenc86計算語意相關(guān)度本研究以句子為範(fàn)圍,即兩個關(guān)鍵字在同一句子內(nèi)出現(xiàn)才表示其具有語意相關(guān)度。透過增加標(biāo)題(Title)及關(guān)鍵字(Keyword)權(quán)重來強化這些關(guān)鍵字關(guān)係之代表性22計算語意相關(guān)度本研究以句子為範(fàn)圍,即兩個關(guān)鍵字在同一句子87建立語意網(wǎng)路圖每個關(guān)鍵字都可表示為一個點,點權(quán)重為個別關(guān)鍵字在使用者間TF-IAF的加總,再加上該關(guān)鍵字所有語意相關(guān)度平均關(guān)鍵字間的關(guān)係表示成一個邊,邊權(quán)重即為關(guān)鍵字的語意相關(guān)度運用[9]的方法進行主題關(guān)鍵字分群23建立語意網(wǎng)路圖每個關(guān)鍵字都可表示為一個點,點權(quán)重為個別關(guān)88建立語意網(wǎng)路圖24建立語意網(wǎng)路圖89主題關(guān)鍵字分群示意圖[9]25主題關(guān)鍵字分群示意圖[9]90選取重要候選關(guān)鍵字Findingverticeswhoseweightsarelargerthantheaverageweight26選取重要候選關(guān)鍵字Findingverticeswh91主題關(guān)鍵字分群(Cont.)k-NearestNeighborApproach[19]考慮圖中的每個點,取與該點最相近的k個點為一組,每組都為一個連通圖,稱之為候選關(guān)鍵字組產(chǎn)生候選關(guān)鍵字子群以每個候選關(guān)鍵字組為中心,向外還原先前與候選關(guān)鍵字組內(nèi)的點有直接連線關(guān)係的邊,形成候選關(guān)鍵字子群,並計算每個子群的權(quán)重,如方程式(3-6)所示。(3-6)27主題關(guān)鍵字分群(Cont.)k-NearestNeig92關(guān)鍵字分群Usek-nearestneighborgraphapproach28關(guān)鍵字分群Usek-nearestneighbor93主題關(guān)鍵字分群(Cont.)合併候選關(guān)鍵字子群找出互連性(Inter-connectivity)最強的兩個子群將之合併,直到子群間的互連相關(guān)度(RelativeInter-connectivity)都小於門檻值後停止?;ミB相關(guān)度方程式(3-7)所示。(3-7)29主題關(guān)鍵字分群(Cont.)合併候選關(guān)鍵字子群(3-7)94合併候選關(guān)鍵字子群30合併候選關(guān)鍵字子群95主題關(guān)鍵字分群(Cont.)修正並產(chǎn)生主題關(guān)鍵字分群讓每個子群內(nèi)的關(guān)鍵字個數(shù)保持在一定的差距內(nèi)若子群內(nèi)包含的關(guān)鍵字比平均個數(shù)少,但子群權(quán)重卻大於平均權(quán)重時,將該群保留若子群經(jīng)修正後仍小於平均權(quán)重,將該群直接刪除子群權(quán)重如方程式(3-8)所示(3-8)31主題關(guān)鍵字分群(Cont.)修正並產(chǎn)生主題關(guān)鍵字分群(396修正並產(chǎn)生主題關(guān)鍵字分群32修正並產(chǎn)生主題關(guān)鍵字分群97關(guān)鍵字分群標(biāo)記利用人力過濾出有意義的關(guān)鍵字取權(quán)重最高的關(guān)鍵字做為最後群的標(biāo)記33關(guān)鍵字分群標(biāo)記利用人力過濾出有意義的關(guān)鍵字98建立主題社群使用者社會網(wǎng)路使用者分群34建立主題社群使用者社會網(wǎng)路99使用者社會網(wǎng)路35使用者社會網(wǎng)路100使用者社會網(wǎng)路(續(xù))36使用者社會網(wǎng)路(續(xù))101使用者分群將所有使用者向量模型以N×m的矩陣U表示,N代表使用者數(shù)目,m代表所有關(guān)鍵字?jǐn)?shù)目以矩陣R代表使用者間相關(guān)係數(shù),乘上以使用者向量模型構(gòu)成的矩陣U,形成一新的矩陣U’代表更新後的使用者向量模型(α參數(shù)調(diào)整R的影響程度)37使用者分群將所有使用者向量模型以N×m的矩陣U表示,N代102使用者分群(續(xù))以餘弦相似度(CosineSimilarity)計算使用者與個別主題的相似度,當(dāng)使用者與主題間的相似度大於門檻值時,則將其歸類到該主題38使用者分群(續(xù))以餘弦相似度(CosineSimila103推薦模式在社群中的成員都具有相似的主題興趣,但是由於多重主題[9]的屬性存在,使得使用者可能對多種主題都具有偏好,於是產(chǎn)生個人化推薦與社群推薦兩種推薦模式,茲分述如下:個人化推薦(CollaborativeFiltering)依據(jù)內(nèi)容導(dǎo)向方法,對使用者進行論文推薦,即計算社群內(nèi)成員所撰寫的論文與個別成員的相似度,選取相似度最高的n篇論文給予推薦社群推薦(擴展閱讀層面)透過分析社群成員對其他主題的興趣分佈,統(tǒng)計出具有較高偏好比重的主題,推薦項目以與該主題最相關(guān)的n篇論文39推薦模式在社群中的成員都具有相似的主題興趣,但是由於多重104系統(tǒng)發(fā)展與實證分析40系統(tǒng)發(fā)展與實證分析105系統(tǒng)發(fā)展—系統(tǒng)架構(gòu)41系統(tǒng)發(fā)展—系統(tǒng)架構(gòu)106系統(tǒng)發(fā)展—系統(tǒng)介面42系統(tǒng)發(fā)展—系統(tǒng)介面107系統(tǒng)發(fā)展—系統(tǒng)介面(續(xù))43系統(tǒng)發(fā)展—系統(tǒng)介面(續(xù))108系統(tǒng)發(fā)展—系統(tǒng)介面(續(xù))44系統(tǒng)發(fā)展—系統(tǒng)介面(續(xù))109系統(tǒng)發(fā)展—系統(tǒng)介面(Cont.)45系統(tǒng)發(fā)展—系統(tǒng)介面(Cont.)110系統(tǒng)發(fā)展—系統(tǒng)介面(續(xù))46系統(tǒng)發(fā)展—系統(tǒng)介面(續(xù))111實驗結(jié)果—分群結(jié)果評估首先將系統(tǒng)分群的結(jié)果分類,即將相近的群歸屬於同一類依序?qū)€別使用者進行分類之動作採用準(zhǔn)確率(Precision)與回現(xiàn)率(Recall)兩項指標(biāo)[15],來評估分群結(jié)果的好壞47實驗結(jié)果—分群結(jié)果評估首先將系統(tǒng)分群的結(jié)果分類,即將相近112實驗結(jié)果—分群結(jié)果評估(續(xù))48實驗結(jié)果—分群結(jié)果評估(續(xù))113實驗結(jié)果—分群結(jié)果評估(續(xù))49實驗結(jié)果—分群結(jié)果評估(續(xù))114實驗結(jié)果—分群結(jié)果評估(續(xù))50實驗結(jié)果—分群結(jié)果評估(續(xù))115實驗結(jié)果—推薦結(jié)果評估標(biāo)凖差為0.068,當(dāng)信賴水凖達95%時,信賴區(qū)間為(0.632,0.897);Kappa值為0.764,專家同意度為0.95針對專家具有相同意見之推薦結(jié)果,總共有208筆,認(rèn)為符合使用者需求之推薦有187筆,則推薦之準(zhǔn)確率為187/208=0.89951實驗結(jié)果—推薦結(jié)果評估標(biāo)凖差為0.068,當(dāng)信賴水凖達9116作者收錄論文數(shù)量分析論文收錄的篇數(shù)介於1篇到41篇,只收錄1篇文章的作者有129位,佔全部作者的55%;收錄少於5篇的作者有93%52作者收錄論文數(shù)量分析論文收錄的篇數(shù)介於1篇到41篇,只收117作者收錄論文數(shù)量分析(續(xù))53作者收錄論文數(shù)量分析(續(xù))118共同作者分析共同作者數(shù)介於1到6位作者之間,只有單一作者的論文有6篇,佔全部論文數(shù)的3%;共同作者為2到6位間的論文篇數(shù)共有220篇,佔全部的97%54共同作者分析共同作者數(shù)介於1到6位作者之間,只有單一作者119社會網(wǎng)路Yu-CheeTseng55社會網(wǎng)路Yu-CheeTseng120社會網(wǎng)路量測指標(biāo)分析56社會網(wǎng)路量測指標(biāo)分析121結(jié)論與建議57結(jié)論與建議122結(jié)論本研究致力於改善資訊推薦的效能,主要的目在於提出結(jié)合主題概念萃取與社會網(wǎng)路分析之資訊推薦系統(tǒng),以提供符合使用者需求之推薦資訊。經(jīng)由實驗與統(tǒng)計分析的驗證,將本研究的結(jié)果整理如下:主題概念萃?。核?35位作者,226篇論文中,共產(chǎn)生22個主題概念形成主題社群:經(jīng)由實驗發(fā)現(xiàn),社會網(wǎng)路對提升使用者分群之回現(xiàn)率有較佳之效果,代表其能發(fā)掘出更多具有關(guān)聯(lián)性之使用者資訊推薦:資訊推薦之準(zhǔn)確率為0.899,顯見系統(tǒng)之推薦效果,頗能符合使用者需求58結(jié)論本研究致力於改善資訊推薦的效能,主要的目在於提出結(jié)合123後續(xù)建議建立主題本體論進行主題萃取的過程中,利用階層式分群法以樹狀結(jié)構(gòu)表示主題分群之結(jié)果,產(chǎn)生主題概念階層經(jīng)由使用者主題偏好之關(guān)聯(lián),建立主題概念之連結(jié),以形成主題本體論幫助使用者瞭解本身處於何種階層層級,未來可朝哪些研究方向前進使用者評分之應(yīng)用使用者評分可分為明顯性評分與隱含性評分。明顯性評分為使用者依對目標(biāo)物感興趣程度給予主觀評分;隱含性評分的估計通常以使用者的瀏覽行為做依據(jù)經(jīng)由使用者評分可以更精確瞭解使用者偏好所在,使資訊推薦更符合使用者需求59後續(xù)建議建立主題本體論124後續(xù)建議(續(xù))社會網(wǎng)路之階層擴展可經(jīng)由建立在共同社會網(wǎng)路中之使用者關(guān)係,進一步探討社會網(wǎng)路之資訊流動及影響。例如使用Floyd-Warshall演算法可找出位於同一社會網(wǎng)路中,兩兩使用者間的最短路徑,則可經(jīng)由節(jié)點的分析,研究其對使用者的影響。機構(gòu)典藏與資料庫系統(tǒng)之加值應(yīng)用以其他方式(如引用、共引)架構(gòu)社會網(wǎng)路60後續(xù)建議(續(xù))社會網(wǎng)路之階層擴展125參考文獻(續(xù))A.Iskold,(2007)“TheArt,ScienceandBusinessofRecommendationEngines.”/archives/recommendation_engines.phpA.K.Jain,M.N.Murty,&P.J.Flynn,“Dataclustering:Areview,”ACMComputingSurveys,vol.31,
pp.264-323,1999.B.Krulwich,&C.Burkey,“TheInfoFinderagent:Learninguserintereststhroughheuristicphraseextraction,”IEEEExpert:IntelligentSystemsandTheirApplications,vol.12,pp.22-27,1997.B.Sarwar,G.Karypis,J.Konstan,&J.Riedl,“Analysisofrecommendationalgorithmsfore-commerce,”Proceedingsofthe2ndACMconferenceonElectroniccommerce,pp.158-167,2000.D.Goldberg,D.Nichols,B.M.Oki,&D.Terry,“UsingCollaborativeFilteringtoWeaveAnInformationTapestry,”CommunicationsoftheACM,vol.35,pp.61-70,1992.D.Koller,&M.Sahami,“Hierarchicallyclassifyingdocumentsusingveryfewwords,”Proceedingsof14ththeInternationalConferenceonMachineLearning,pp.170–178,1997.F.Sebastiani,“Machinelearninginautomatedtextcategorization,”ACMComputingSurveys,vol.34,pp.1-47,2002.G..Karypis,E.H.Han,&V.Kumar,“Chameleon:Hierarchicalclusteringusingdynamicmodeling,”Computer,vol.32,pp.68-75,1999.H.C.Chang,&C.C.Hsu,“Usingtopickeywordclustersforautomaticdocumentclustering,”TransactionsonInformationandSystems,vol.88,pp.1852-1860,2005.H.Hotta,“Userprofilingsystemusingsocialnetworksforrecommendation”,InProceedingsof8thInternationalSymposiumonAdvancedIntelligentSystems,2007.H.Kautz,B.Selman,&F.Park,“ReferralWeb:Combiningsocialnetworksandcollaborativefiltering,”CommunicationsoftheACM,vol.40,pp.63-65,1997.61參考文獻(續(xù))A.Iskold,(2007)“Th126參考文獻(續(xù))H.Sakagami,&T.Kamba,“LearningPersonalPreferencesonOnlineNewspaperArticlesfromUserBehaviors,”ComputerNetworksandISDNSystems,vol.29,pp.1447-1455,1997.J.B.Schafer,J.Konstan,&J.Riedi,“Recommendersystemsine-commerce,”Proceedingsofthe1stACMconferenceonElectroniccommerce,pp.158-166,1999.J.MacQueen,“Somemethodsforclassificationandanalysisofmultivariateobservations,”Proceedingsof5thBerkeleySymposiumonMathematicalStatisticsandProbability,vol.1,pp.281-297,1967.J.Makhoul,F.Kubala,R.Schwartz,&R.Weischedel,“Performancemeasuresforinformationextraction,”ProceedingsofDARPABroadcastNewsWorkshop,pp.249-252,1999.J.Moreno,WhoShallSurvive?NewYork:NationalInstituteofMentalHealth,1934.J.R.Tyler,D.M.Wilkinson,&B.A.Huberman,“Emailasspectroscopy:Automateddiscoveryofcommunitystructurewithinorganizations,”Communitiesandtechnologies,pp.81-96,2003.J.Rucker,&M.J.Polanco,“Siteseer:Personalizednavigationfortheweb,”CommunicationsoftheACM,vol.40,pp.73-76,1997.K.C.Gowda,&G.Krishna,“Agglomerativeclusteringusingtheconceptofmutualnearestneighbourhood,”PatternRecognition,vol.10,pp.105-112,1978.K.Faust,“Comparisonofmethodsforpositionalanalysis:Structuralandgenera
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 出兌攤位合同范本
- 別墅設(shè)計合同范例
- 個人門窗施工合同范本
- 鄉(xiāng)村空房轉(zhuǎn)讓合同范本
- 第7課《敬業(yè)與樂業(yè)》教學(xué)設(shè)計 2024-2025學(xué)年統(tǒng)編版語文九年級上冊
- 加盟金額寫入合同范例
- 保本合同范本
- 切割加工項目合同范本
- 企業(yè)贊助活動合同范本
- 交技術(shù)合同范本
- 養(yǎng)牛購料購銷合同范本
- 衛(wèi)生健康大數(shù)據(jù)底座建設(shè)需求
- 勞動合同范本1997
- MSA五性分析全套樣板(千分尺)
- 北師大版四年級下冊書法9《日字底》教案
- 《網(wǎng)絡(luò)安全防護項目教程》課件第3篇 管理篇
- 風(fēng)山川湖泊年中工作總結(jié)年中總結(jié)述職報告工作計劃
- 廣東省2024年普通高中學(xué)業(yè)水平合格性考試語文仿真模擬卷01(原卷版)
- 老年糖尿病的皮膚護理
- 《管理會計學(xué)》(孫茂竹主編)教案 第1-12章
- 農(nóng)民數(shù)字素養(yǎng)賦能鄉(xiāng)村振興的理論機制與路徑研究
評論
0/150
提交評論