跨領(lǐng)域中文評論情感分類研究_第1頁
跨領(lǐng)域中文評論情感分類研究_第2頁
跨領(lǐng)域中文評論情感分類研究_第3頁
跨領(lǐng)域中文評論情感分類研究_第4頁
跨領(lǐng)域中文評論情感分類研究_第5頁
已閱讀5頁,還剩6頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

跨領(lǐng)域中文評論情感分類研究

0基于深度學習的情感傾向分析隨著互聯(lián)網(wǎng)技術(shù)的快速發(fā)展,人們逐漸從網(wǎng)絡(luò)獲取必要的信息。此外,用戶在互聯(lián)網(wǎng)上發(fā)布自己的觀點也是一種趨勢。例如,對于特定事件的看法或?qū)μ囟娮由虅?wù)的評估。網(wǎng)絡(luò)上大量的信息能夠給人們的學習和生活帶來很多的便利和娛樂,但有些虛假的信息和言論也會引起大眾的恐慌,造成惡劣的社會影響。因此,快速、準確和全面地從大量的網(wǎng)絡(luò)評論中自動獲取有用的信息十分必要和迫切,它對社會的發(fā)展和穩(wěn)定都起著重要的作用。但是要通過瀏覽或搜索引擎的方式從網(wǎng)絡(luò)上海量的信息中獲知對某一對象的全面評價則十分困難,而情感分析(也稱為情感分類)正是利用計算機自動識別主觀文本中的情感傾向(polarity,也稱為極性或傾向性,如褒義和貶義)的一項技術(shù)。例如,從評論文本中自動抽取出“對于某一酒店推薦的人數(shù)和不推薦的人數(shù)各占的比例”,這種技術(shù)可以讓用戶從繁重的搜索和總結(jié)工作中解放出來。從1997年Hatzivassiloglou等人利用連詞來確定所連接的形容詞的傾向性后,情感分析就成為了一個研究熱點,隨后出現(xiàn)了大量相關(guān)的研究方法和研究成果。目前常用的情感傾向判斷方法有基于確定極性的種子詞/詞典資源、基于模板和規(guī)則以及基于有監(jiān)督機器學習這幾種。Turney在2001年提出了PMI-IR算法,該算法基于對象間的共現(xiàn)現(xiàn)象,隨后Turney又將PMI-IR算法用于網(wǎng)絡(luò)評論是推薦或不推薦的分類研究中,選擇excellent和poor分別作為褒義和貶義的種子詞,假定與excellent經(jīng)常共現(xiàn)的詞具有褒義極性,與poor經(jīng)常共現(xiàn)的詞具有貶義極性。Hu等人利用WordNet中的同義詞和反義詞預測詞的極性。朱嫣嵐等人在2006年首次提出了基于知網(wǎng)計算詞匯的語義傾向的基于語義相似度和基于語義相關(guān)場兩種方法,前者主要利用了劉群等人提出的語義相似度公式,實驗表明此方法在漢語常用詞中的計算效果較好。孟凡博等人設(shè)計了一個基于關(guān)鍵詞模板的文本褒貶傾向判定系統(tǒng),該系統(tǒng)定義了關(guān)鍵詞類別,建立了關(guān)鍵詞庫和模板庫,設(shè)計了模板匹配算法及文本褒貶傾向值計算算法。Pang等人在2002年首次使用標準的有監(jiān)督機器學習方法進行文本的情感分類,比較了樸素貝葉斯(na?veBayes,NB)、最大熵模型(maximumentropymodel,MEM)和支持向量機(SVM)這三種方法在文本語義傾向分類上的效果。唐慧豐等人在2007年也利用有監(jiān)督機器學習方法對中文文本的情感分類進行了對比研究。近年來也出現(xiàn)了其他特殊但效果佳的方法,如Hassan等人借助WordNet構(gòu)建了一個詞/詞性對的同義連接圖,利用馬爾可夫隨機游走模型在連接圖上確定詞的極性??偟膩碚f,利用種子詞或詞典的無監(jiān)督方法實驗簡單,對種子詞和詞典的要求較高,在豐富的語料庫和精確度高的詞典資源基礎(chǔ)上能取得較好的效果;基于詞典或其他語料庫的統(tǒng)計學模型一般能獲得更為理想的實驗效果;基于模板的方法人工干預較多,移植性不夠好;而利用機器學習算法進行訓練學習從而獲得新對象的傾向性是目前常用的方法。有研究表明,這類算法的情感分類效果要優(yōu)于手工分類方式。目前對于文檔的情感傾向分析已經(jīng)能獲得令人滿意的效果,而對于單一領(lǐng)域特別是產(chǎn)品領(lǐng)域?qū)ο蟮那楦袃A向也常常能獲得較好的實驗結(jié)果。而對于跨領(lǐng)域數(shù)據(jù),與產(chǎn)品領(lǐng)域的觀點表達常常是一個詞或一個短語不同,其觀點表達往往較為復雜,常常為一個或多個句子,所以目前的分類結(jié)果尚不令人滿意。例如對于以下產(chǎn)品領(lǐng)域和非產(chǎn)品領(lǐng)域的兩條例句:例句1尼康D7000性能很強大,高感很適用,手感較差,套頭配置令人失望。例句2Linux主要由學術(shù)界和愛好者們發(fā)展起來,并一貫遵循開放、共享的原則,因此非常適合于教育。例句1中產(chǎn)品屬性的觀點表達(opinionexpressions)為“很適用”“較差”和“令人失望”,這種詞或短語常常用于產(chǎn)品領(lǐng)域中對象屬性的評價,而例句2的觀點表達為“一貫遵循開放、共享的原則”和“非常適合于教育”,這種以句子形式對對象進行評價的方式常常出現(xiàn)在非產(chǎn)品領(lǐng)域如新聞和博客等領(lǐng)域。因此,必須要尋找適合于跨領(lǐng)域中文評論特征的情感分類方法。本文考慮用兩種方法對跨領(lǐng)域中文評論進行情感分類:a)直接利用情感詞典并結(jié)合同義詞詞林,同時考慮轉(zhuǎn)折詞和否定詞等指引詞對于極性的影響;b)利用有監(jiān)督機器學習方法進行情感分類,探討跨領(lǐng)域中文評論在文本表示、文本特征壓縮和分類模型等方面與單一領(lǐng)域特別是產(chǎn)品領(lǐng)域的異同。1基于單一領(lǐng)域的情感傾向判斷利用如WordNet和HowNet等詞典資源中的已知語義傾向情感詞對評價對象的情感傾向進行判斷實現(xiàn)方法簡單,在單一領(lǐng)域(特別是產(chǎn)品領(lǐng)域)能獲得較好的效果,而利用如SVM等機器學習模型在單一領(lǐng)域進行情感傾向判斷也能獲得相當?shù)男ЧT谶@兩種方法的基礎(chǔ)上針對跨領(lǐng)域評價對象即觀點表達的特殊性進行算法改進,并將分類結(jié)果與單一領(lǐng)域的分類效果進行比較,同時對這兩種方法的實驗效果進行分析比較。1.1算法的基本執(zhí)行情況基于詞典資源判斷評價對象的情感傾向較為簡單方便,可以直接利用褒貶義詞典,也可以利用褒貶種子詞基于通用詞典進行進一步學習,從而確定詞的情感傾向。本文以原始句子為基礎(chǔ)(觀點表達部分已標出),基于情感詞典,結(jié)合《同義詞詞林》擴展版,同時考慮轉(zhuǎn)折詞和否定詞對于情感傾向的影響。具體流程如圖1、2所示。其中圖1為主要算法流程及否定值的計算算法,圖2為備選部分SP計算極性P和類型t的情感傾向算法。以幾個不同形式的例句為例說明算法的執(zhí)行情況:a)對例句“8月16日,藍天白云下的奧運村顯得格外美麗”,人工標注的觀點表達為“格外美麗”。句子中不包含轉(zhuǎn)折詞,根據(jù)算法尋找觀點表達,句子中只有一個觀點表達“格外美麗”,根據(jù)情感詞典確定“美麗”的情感傾向為褒義(值為1);另外句子中不包含否定詞,所以最后確定句子的情感傾向為褒義。b)對于例句“[陳春曉],本禹是個很實在的小伙子,我們有過幾次通電話,感覺很自然,很真誠”,人工標注的觀點表達為“是個很實在的小伙子”和“感覺很自然,很真誠”。句子中不包含轉(zhuǎn)折詞,根據(jù)算法尋找觀點表達,句子中有兩個觀點表達,分別按照兩種計算方式即計算所有的觀點表達的極性和只計算第一個觀點表達的極性。根據(jù)情感詞典,第一個觀點表達中“實在”的情感傾向為褒義,第二個觀點表達中“自然”和“真誠”的情感傾向都為褒義,將值相加得到2,所以第一種方法的初步計算結(jié)果為2,第二種方法的初步計算結(jié)果為1。另外句子中不包含否定詞,所以最后兩種方法均確定句子的情感傾向為褒義。c)對于例句“老師講得很好,課程也設(shè)計得很周密,但他覺得這堂課很失敗”,人工標注的觀點表達為“很失敗”。由于句子中包含轉(zhuǎn)折詞“但”,且其后包含觀點表達“很失敗”,根據(jù)算法,基于情感詞典判斷此觀點表達的極性為貶義。另外句子中不包含否定詞,所以最后確定句子的情感傾向為貶義。d)對于例句“小王這個人平時的性格比較狗熊”,人工標注的觀點表達為“狗熊”,根據(jù)算法需要確定觀點表達“狗熊”的極性,情感詞典中未包含此詞,此時尋找《同義詞詞林》擴展版可發(fā)現(xiàn)與“狗熊”同義的詞有“懦夫”和“膽小鬼”等。將這些詞在情感詞典中進行搜索確定極性,如果這些同義詞仍然未出現(xiàn)在情感詞典中,則將此觀點表達的極性預設(shè)為貶義(根據(jù)評論文本中褒貶義觀點表達的比例確定,可調(diào)整)。因為此句子中不包含否定詞,所以最后確定句子的情感傾向為貶義。e)對于例句“綠巨人是全片最不成功之處”,人工標注的觀點表達為“是全片最不成功之處”。根據(jù)算法由情感詞典確定“成功”的極性為褒義,再由于句子中包含否定詞“不”,因此極性要相反,所以最后確定句子的情感傾向為貶義。以上以五個簡單的例句說明了算法的基本執(zhí)行情況。實際處理中,由于一個評價對象往往包含多個觀點表達,所以句子的褒貶義值的絕對值常常大于1,將句子的褒貶義值大于等于1的標為褒義,否則標為貶義。1.2實驗結(jié)果與分析Pang等人使用標準的有監(jiān)督機器學習模型NB、MEM和SVM進行英文文本的情感分類并進行比較,實驗取得了較好的分類效果,表明機器學習模型是情感分類的一種較為理想的方法;唐慧豐等人也基于不同的特征表示、特征選擇和分類方法對中文文本的情感分類進行了對比實驗。1文本特征組合在向量空間模型中,字、詞或字的N-Gram等都可以作為文本特征,對于自動形成單詞的英文文本來說常常利用單詞或基于單詞的N-Gram文本特征,而對于中文文本來說,用字作為文本特征在一定程度上忽略了字與字之間的聯(lián)系,用字的N-Gram作為文本特征則較為粗糙,對于目前分詞精度已能達到可接受程度的條件來說,直接用詞作為文本特征要相對優(yōu)于用字的N-Gram。本文采用詞作為向量空間模型的文本特征,考慮到數(shù)據(jù)稀疏問題,可選擇部分詞性的詞作為文本特征。唐慧豐等人選取了名詞、動詞、形容詞和副詞這四種詞性進行了實驗,實驗結(jié)果表明這四種詞性的合集已經(jīng)能夠近似地反映整個文檔的情感特征,不過在不同的領(lǐng)域其穩(wěn)定性還稍差。考慮到中文文本和跨領(lǐng)域文本的特征,將這四種詞性進行擴充,基于“863”詞性標注集增加名詞修飾詞、習語和縮略語這三種詞性。本文將采用所有詞、四種詞性、補充詞性這三種特征表示方式進行對比。TFI-DF是常用的權(quán)重計算函數(shù),其主要思想是如果每個特征在一文本中出現(xiàn)的頻率TF高且在其他文本中很少出現(xiàn)的話,則認為此特征具有很好的類別區(qū)分能力,而因為本文研究的是跨領(lǐng)域中文評論的觀點表達的情感傾向,觀點表達中的詞頻大多數(shù)為0或1,因此從理論上來說,布爾函數(shù)也會是較合適的權(quán)重計算函數(shù)。所以本文將采用布爾函數(shù)和TFI-DF函數(shù)作為權(quán)重函數(shù)進行比較。2df閾值選取在文本特征選擇方法中,由于觀點表達大多長度較短,且為多個領(lǐng)域,所以大多數(shù)詞的詞頻較低,利用DF進行特征選擇要想獲得較好的效果則需要設(shè)定較低的閾值從而起不到降維的作用。CHI與互信息類似,但是相比互信息來說功能強,因為它同時考慮了特征存在與不存在時的情況,而IG常常能獲得最佳的效果。因此本文選擇IG和CHI這兩種文本特征選擇方法進行對比實驗。3分類模型本文將利用NB和SVM這兩種典型的機器學習分類模型對跨領(lǐng)域中文評論的情感傾向分類進行比較研究。2實驗與分析2.1基于目的的傾向基于詞典資源和基于有監(jiān)督機器學習方法這兩個實驗雖然都主要考察觀點表達的情感傾向,但因為算法的不同,所以數(shù)據(jù)形式有所不同,其中前者利用了句子的WPCDEKSO形式,即利用句子中的詞、詞性、主張詞、程度詞、情感詞、候選評價對象、原始句法和觀點表達標注這七個語言特征的形式,后者則直接使用句子的觀點表達。12基于詞典資源算法的數(shù)據(jù)集和詞典(1)跨領(lǐng)域的標注實驗采用COAE2009(第二屆中文傾向性分析評測)任務(wù)4的標注數(shù)據(jù)集,它共包含四千多條句子,涉及體育、電影和手機等多個領(lǐng)域,標注的答案格式為“觀點句評論對象傾向性”,由三名標注者對數(shù)據(jù)集進行觀點表達的標注,取其共同部分,并由其中一人進行檢查得到最終答案,最后獲得共同標注部分1965條評論句,標注方法仍然使用IOB2形式,在標注時借助于最初標注的評價對象,并且在標注時采用相同的原則。第4章中的1965條跨領(lǐng)域句子的WPCDEKSO形式,例如例句“8月16日,藍天白云下的奧運村顯得格外美麗”的WPCDEKSO形式如圖3所示,其中最后一列為觀點表達標注列,觀點表達為“格外美麗”。數(shù)據(jù)集共包含1990個觀點表達,其中為褒義的有1299個,貶義的有691個。數(shù)據(jù)集除評論句外,還有一個對應(yīng)每個句子中不同評論對象極性的文本文件,極性分為褒義和貶義兩類,褒義用“+1”表示,貶義用“-1”表示。(2)罰罰情感詞典文本本實驗采用知網(wǎng)情感詞典,它包含了多個詞典文本,本文所使用的褒貶義情感詞典文本為中文正面評價詞語和中文負面評價詞語文本,前者包含3730個詞語,如“安樂”和“百折不回”等,后者包含3116個詞語,如“骯臟”和“抱殘守缺”等。(3)《隋書》卷7《大眾大伙兒和各戶自相矛盾狀》:“國字”以“國字”第表,內(nèi)容為包含同義詞詞條17817條,詞語77343個,其形式如下:Aa01C01=眾人人人人們Aa01C02=人叢人群人海人流人潮Aa01C03=大家大伙兒大家伙兒大伙一班人眾家各戶“=”后的詞語即為同義詞2評價對象的觀點表達將觀點表達已進行人工標注的1965條跨領(lǐng)域句子中的多個評價對象的觀點表達進行拆分,保證每一條只含一個評價對象的觀點表達,并將同一評價對象的多個觀點表達合并為一個觀點表達處理。每個評價對象的觀點表達的情感傾向分為褒義和貶義兩類,褒義用“pos”表示,貶義用“neg”表示。例如觀點表達“非常的理想化,非常的童話,特別的感動”,其情感傾向為“pos”,觀點表達“仁而不明,昧于識人,不辨忠奸、優(yōu)劣”,其情感傾向為“neg”。2.2基于詞典資源的實驗結(jié)果與分析實驗利用知網(wǎng)中文褒貶義評價詞語詞典、哈爾濱工業(yè)大學《同義詞詞林》擴展版以及轉(zhuǎn)折詞和否定詞等對觀點表達進行情感分類。1算法執(zhí)行情況表1所示為所有觀點表達以及褒貶義分開的觀點表達的分類精度,其中數(shù)據(jù)第一行為按照所有的觀點表達進行情感計算的實驗結(jié)果,數(shù)據(jù)第二行為選取第一個觀點表達進行情感計算的實驗結(jié)果。實驗結(jié)果發(fā)現(xiàn)有1/3的句子利用了《同義詞詞林》,分析發(fā)現(xiàn),由于本文的數(shù)據(jù)為跨領(lǐng)域網(wǎng)絡(luò)評論文本,所以句子的領(lǐng)域集中度較低,且句子中觀點表達所用的詞說法和形式變化大,導致有較多的觀點表達中的詞并未在情感詞典中直接出現(xiàn),而其同義詞出現(xiàn)在了情感詞典中,說明利用《同義詞詞林》結(jié)合情感詞典判斷句子的情感傾向是有效的。從表1可以看到,褒義觀點表達的分類精度很高,而貶義觀點表達的分類精度很低,導致所有觀點表達的情感分類效果不是很好,除貶義詞詞典中詞條不甚完備的原因以外,經(jīng)分析有如下幾個主要原因:a)情感詞典中有部分詞的極性確定有問題。例如對于句子“(拉巴特訊)摩洛哥電子環(huán)保專家穆罕默德·布達哈姆在《多媒體》雜志撰文指出,電子垃圾正在成為現(xiàn)代社會的災(zāi)禍,而美國則是電子垃圾的‘最大制造國’”,其人工標注的觀點表達為“則是電子垃圾的‘最大制造國’”,情感傾向為貶義。按所有觀點表達計算的算法執(zhí)行情況如下所示:■處理第42行==將檢查的區(qū)塊:[[30,40]]==處理區(qū)塊[30,40]--[+]是==區(qū)塊[30,40]發(fā)現(xiàn)褒義詞或者貶義詞,結(jié)果為1==統(tǒng)計結(jié)果為1算法處理時,尋找觀點表達中第一個出現(xiàn)在情感詞典中的詞,此處“是”出現(xiàn)在褒義詞典中,并且句子中不包含否定詞,所以最后該句子中評價對象“美國”的情感傾向為褒義。但事實上“是”這個詞一般不能作為情感詞,否則將出現(xiàn)判斷錯誤。b)部分否定詞未被檢出。例如對于句子“T60的后殼設(shè)計不夠合理”,其人工標注的觀點表達為“不夠合理”,情感傾向為貶義。按所有觀點表達計算的算法執(zhí)行情況如下所示:■處理第909行==將檢查的區(qū)塊:[[1,6]]==處理區(qū)塊[1,6]--[+]合理==區(qū)塊[1,6]發(fā)現(xiàn)褒義詞或者貶義詞,結(jié)果為1==統(tǒng)計結(jié)果為1算法處理時在褒義情感詞典中找到詞語“合理”是褒義詞,但未找到否定詞“不夠”,所以最后判斷句子的極性為褒義。由于本文算法中選取的均為常見的否定詞,如“不”“沒有”和“非”等,所以導致若干否定句沒有被判斷出來;另外實際上人們在日常會話中更習慣于否定詞搭配褒義詞的說話方式,這樣就導致了否定句的分類精度偏低。c)褒義優(yōu)先原則問題。例如對于句子“西門子在阿根廷涉嫌行賄近億美元遭調(diào)查”,其人工標注的觀點表達為“涉嫌行賄”,情感傾向為貶義。按所有觀點表達計算的算法執(zhí)行情況如下所示:■處理第494行==將檢查的區(qū)塊:[[4,5]]==處理區(qū)塊[4,5]--★字符串[涉嫌]在同義詞表中,但任一同義詞均不能命中褒義詞表或者貶義詞表--★字符串[行賄]在同義詞表中,但任一同義詞均不能命中褒義詞表或者貶義詞表==所有區(qū)塊都不含有褒義或者貶義詞==結(jié)果強制為1==統(tǒng)計結(jié)果為1觀點表達中的“涉嫌”和“行賄”在情感詞典中均未找到,另外這兩個詞在《同義詞詞林》擴展版中的同義詞也未出現(xiàn)在情感詞典中,所以最后結(jié)果強制為1(褒義),這樣同樣會導致貶義傾向句子的分類精度較低。而對于句子“為了節(jié)省計算機資源,有的用戶根本沒有打開殺毒軟件的郵件監(jiān)控,這些不好的使用習慣對用戶的安全造成了很大威脅”,其人工標注的觀點表達為“不好的”和“對用戶的安全造成了很大威脅”,情感傾向為貶義。按所有觀點表達計算的算法執(zhí)行情況如下所示:■處理第6130行==將檢查的區(qū)塊:[[17,18],[21,29]]==處理區(qū)塊[17,18]----詞林命中貶義詞表,[不好]匹配到同義詞[壞]==區(qū)塊[17,18]發(fā)現(xiàn)褒義詞或者貶義詞,結(jié)果為-1==處理區(qū)塊[21,29]--[+]對==區(qū)塊[21,29]發(fā)現(xiàn)褒義詞或者貶義詞,結(jié)果為1==統(tǒng)計結(jié)果為0“不好的”中的“不好”在情感詞典中未找到,利用《同義詞詞林》擴展找到“不好”的同義詞“壞”,“壞”在貶義詞情感詞典中找到,所以“不好的”的情感傾向被標為-1;觀點表達“對用戶的安全造成了很大威脅”,詞“對”首先在褒義情感詞詞典中被找到,同時此觀點表達本身和窗口5之內(nèi)無否定詞,所以其標注結(jié)果為1。綜合的統(tǒng)計結(jié)果為0,根據(jù)算法將0標為1(褒義)。第二個觀點表達在情感詞典中匹配了詞“對”,可以看到“對”在此處并非為評價詞,且因為沒有對觀點表達中各詞的情感強弱作判斷,所以沒法確定每個詞的重要程度,這樣導致了第二個觀點表達被誤判為褒義,最終導致整個句子的情感統(tǒng)計結(jié)果為0,最后被錯誤標注為褒義,同樣導致了貶義傾向句子的低情感分類精度。而只利用第一個出現(xiàn)的觀點表達計算整個句子的情感傾向與利用所有觀點表達進行句子情感傾向的計算實驗結(jié)果相差無幾,說明了轉(zhuǎn)折詞后或不含轉(zhuǎn)折詞的句子通常只包含一種情感。從實驗結(jié)果分析可以看到,利用情感詞典資源和同義詞計算情感傾向時,情感詞典的準確度非常重要。為了說明問題,本文對知網(wǎng)的情感詞典進行簡單的修正。2情感傾向的詞類篩選為了驗證情感詞典對于情感分類的作用,本文對知網(wǎng)詞典作了簡單的修改,根據(jù)實驗結(jié)果看到,由于知網(wǎng)情感詞典中若干常用詞含有多個含義,并不能被明確歸類為褒義或貶義。例如單個字的詞“是”“長”“高”和“苦”等,非單個字的詞如“根本”“經(jīng)常性”“物理”和“名義上”等,簡單起見,本文將如上所述類似的明顯不能確定情感傾向的詞進行刪除,刪除后的實驗結(jié)果如表2所示。從表2看到,僅僅對知網(wǎng)情感詞典進行簡單刪除,不管是利用所有觀點表達還是第一個出現(xiàn)的觀點表達,判斷句子中評價對象的情感傾向的分類精度均有所提高,表明情感詞典對于情感分類有重要的作用。2.3在對機學方法的監(jiān)測下,試驗結(jié)果和分析實驗主要對跨領(lǐng)域評論文本的觀點表達的特征表示、權(quán)重函數(shù)、特征選擇和分類方法這幾個方面進行比較研究。1補充定義權(quán)重首先將觀點表達利用LTP2.0進行分詞。三種不同的文本特征為:a)所有詞。所有詞作為文本特征,不需要考慮詞性。b)四種詞性。按照“863”詞性標注集,四種詞性(名詞、動詞、形容詞和副詞)中名詞的標注形式包括n、nd、nh、ni、nl、ns、nt、nz和r,動詞的標注形式為v,形容詞的標注形式為a,副詞的標注形式為d。c)補充詞性。名詞修飾詞的標注形式為b,習語的標注形式為i,縮略語的標注形式為j。權(quán)重利用布爾函數(shù)和TFI-DF函數(shù)分別計算,分類算法為SVM,使用臺灣大學林智仁教授開發(fā)的LIBSVM,核函數(shù)使用線性核函數(shù)(Linear),相應(yīng)參數(shù)均使用默認形式。與Pang等人一樣,本文也采用3折交叉驗證的方式,分類精度如表3所示。由表3可以看到:a)與單一產(chǎn)品領(lǐng)域一樣,選擇部分詞性作為特征表示進行訓練和學習的效果與選擇所有詞的效果相當,所以跨領(lǐng)域數(shù)據(jù)可以與單一領(lǐng)域一樣只選擇部分能表示文本情感特征的詞作為文本特征,起到降維的作用。b)對四種詞性進行擴充后分類精度均有所提高,且其能獲得與所有詞作為文本特征相當?shù)男Ч?表明新擴充的三種詞性能夠幫助表示文本的情感特征。為了進一步實驗部分詞性詞與所有詞的效果,以下實驗的特征表示使用所有詞和擴充詞性這兩種形式。c)從實驗結(jié)果來看,兩種權(quán)重計算函數(shù)TFI-DF和布爾函數(shù)效果相差不大,表明在跨領(lǐng)域數(shù)據(jù)的情感分類中利用布爾函數(shù)計算文本特征的權(quán)重是可行的。而TFI-DF函數(shù)的效果略好于布爾函數(shù),所以以下實驗中的權(quán)重計算均使用TFI-DF函數(shù)。2實驗結(jié)果分析利用CHI和IG進行特征選擇,其中IG選擇500和2000兩種不同的特征數(shù)目,實驗結(jié)果如表4所示。從表4可以看到,CHI和IG的效果非常接近,且擴充詞性數(shù)據(jù)利用CHI選擇特征數(shù)目是2000時效果略好于IG,這與以往大多實驗表明的IG的效果最佳有所不同。產(chǎn)生這種現(xiàn)象的主要原因是因為本文的實驗數(shù)據(jù)為跨領(lǐng)域觀點表達,特征詞的頻率很低,所有CHI這種對低頻詞偏袒(一個特征詞條在文檔中出現(xiàn)一次和多次同樣對待)的特征選擇方法反而更為合適,而IG也考慮了低頻詞對于分類的影響,因而也能取得相當?shù)男Ч谋?顯示的所有詞和擴充詞性的實驗效果來看,可以進一步證明部分典型的詞性在情感上的確能代表整個文本集。另外本文發(fā)現(xiàn)如唐慧豐等人提出的單一領(lǐng)域的分類精度隨特征的增加而增大,但特征數(shù)達到一定值時分類精度達到最佳這樣的現(xiàn)象同樣出現(xiàn)在跨領(lǐng)域數(shù)據(jù)中,如圖4所示即為所有詞利用CHI特征選擇方法在選擇某幾個不同的特征數(shù)目時分類精度的變化情況。如圖4所示,所有詞利用CHI選擇特征數(shù)目越多其分類精度在總的趨勢上越高,但在特征數(shù)目到達某一個值附近(圖中特征數(shù)目為4150個)時分類精度到達最高,說明跨領(lǐng)域數(shù)據(jù)與單一領(lǐng)域一樣,并非特征數(shù)量越多越好,當其達到一定值時分類精度將趨于平穩(wěn),而如果特征數(shù)目大于該值時分類精度反而會有所下降。3svm與nb的情感分類利用擴充詞性詞作為特征表示方法,CHI(選擇50%的特征數(shù)目)作為特征選擇方法,分別使用SVM和NB這兩種機器學習模型進行情感分類,其中SVM仍然使用LIBSVM,核函數(shù)選用線性核,NB使用Weka中的NaiveBayes分類器,兩者均使用默認參數(shù)并采用3折交叉驗證方式。SVM和NB兩種算法的分類精度結(jié)果分別為74.07%和51.31%,SVM的分類精度比NB高出22.76%??梢?不管是在混合領(lǐng)域還是在單一領(lǐng)域,SVM算法均具有較大的分類優(yōu)勢。4確定基本參數(shù)SVM常用的核函數(shù)有四類,包括線性核函數(shù)、多項式核函數(shù)、徑向基核函數(shù)和S形核函數(shù),不同的情況下核函數(shù)的性能不一。在核函數(shù)類型確定后則需要確定其參數(shù),參數(shù)的選擇非常重要,如果選擇得過大或過小有可能出現(xiàn)“過擬合”或只能分出一類等問題。各類核函數(shù)具有的參數(shù)個數(shù)不一,懲罰系數(shù)C是各類核函數(shù)都有的參數(shù),C越高表示越重視離群點。尋找最優(yōu)參數(shù)可采用網(wǎng)格驗證和交叉搜索等方法。本文旨在比較各類核函數(shù)對于跨領(lǐng)域數(shù)據(jù)的影響,所以只在其他參數(shù)合理的前提下考察各類核函數(shù)在不同的懲罰系數(shù)C下的分類精度并進行比較。比較結(jié)果如表5所示,用10折交叉驗證方式。從表5的分類結(jié)果來看,線性核函數(shù)在懲罰系數(shù)較小的情況下表現(xiàn)較好,而徑向基核函數(shù)在懲罰系數(shù)較高時表現(xiàn)

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論