中文信息處理與挖掘知到智慧樹章節(jié)測試課后答案2024年秋山東交通學院_第1頁
中文信息處理與挖掘知到智慧樹章節(jié)測試課后答案2024年秋山東交通學院_第2頁
中文信息處理與挖掘知到智慧樹章節(jié)測試課后答案2024年秋山東交通學院_第3頁
中文信息處理與挖掘知到智慧樹章節(jié)測試課后答案2024年秋山東交通學院_第4頁
中文信息處理與挖掘知到智慧樹章節(jié)測試課后答案2024年秋山東交通學院_第5頁
已閱讀5頁,還剩16頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

中文信息處理與挖掘知到智慧樹章節(jié)測試課后答案2024年秋山東交通學院第一章單元測試

本課程將詳細介紹的自然語言處理應(yīng)用有哪些()。

A:自動問答

B:自動摘要

C:機器翻譯

D:情感分析

答案:自動問答

;自動摘要

;機器翻譯

;情感分析

下列那個概念與自然語言處理無關(guān)。()

A:NaturalLanguageProcessing

B:ComputerVision

C:ComputationalLinguistics

D:NaturalLanguageUnderstanding

答案:ComputerVision

黏著型語言比較有代表性的語言是日語。()

A:對B:錯

答案:對自然語言中最小的有意義的構(gòu)成單位是()。

A:句子

B:篇章

C:字

D:詞

答案:詞

中文信息處理的第一步是()。

A:確定上下文關(guān)系

B:構(gòu)建句法樹

C:詞性標注

D:分詞

答案:分詞

如果打開校正功能,對于一些典型的語法錯誤、拼寫錯誤以及用詞錯誤就可以自動檢測出來。()

A:對B:錯

答案:對就分詞來講,主要有三類分詞方法()。

A:基于語法的分詞方法

B:基于規(guī)則的分詞方法

C:基于統(tǒng)計的分詞方法

D:基于詞典的分詞方法

答案:基于規(guī)則的分詞方法

;基于統(tǒng)計的分詞方法

;基于詞典的分詞方法

基于詞典的分詞方法從匹配的方法來講,一般使用最大匹配法,而最匹配法又包括()。

A:雙向最大匹配算法

B:三向最大匹配算法

C:正向最大匹配算法

D:逆向最大匹配算法

答案:雙向最大匹配算法

;正向最大匹配算法

;逆向最大匹配算法

詞性標注的主要方法主要有()。

A:統(tǒng)計與規(guī)則相結(jié)合的詞性標注方法

B:基于規(guī)則的詞性標注方法

C:基于字典的詞性標注方法

D:基于統(tǒng)計的詞性標注方法

答案:統(tǒng)計與規(guī)則相結(jié)合的詞性標注方法

;基于規(guī)則的詞性標注方法

;基于統(tǒng)計的詞性標注方法

命名實體識別事實上就是識別出以下三類命名實體。()

A:地名

B:別名

C:人名

D:組織機構(gòu)名

答案:地名

;人名

;組織機構(gòu)名

第二章單元測試

概率論作為統(tǒng)計語言模型的數(shù)學基礎(chǔ),應(yīng)用到自然語言處理領(lǐng)域,是由于:統(tǒng)計語言處理技術(shù)已經(jīng)成為自然語言處理的主流,而在統(tǒng)計語言處理的步驟中,收集自然語言詞匯(或者其他語言單位)的分布情況、根據(jù)這些分布情況進行統(tǒng)計推導都需要用到概率論。()

A:錯B:對

答案:對設(shè)E為隨機試驗,Ω是它的樣本空間,對于E的每一個事件A賦予一個實數(shù),記為P(A),如果集合函數(shù)P(?)滿足下列哪些條件,則實數(shù)P(A)為事件A的概率。()

A:規(guī)范性

B:唯一性

C:可列可加性

D:非負性

答案:規(guī)范性

;可列可加性

;非負性

設(shè)A、B是兩個事件,且P(B)>0,則稱P(A|B)為在已知事件B發(fā)生的條件下,事件A發(fā)生的()。

A:條件頻率

B:似然估計

C:條件概率

D:概率

答案:條件概率

某一事件B的發(fā)生有各種可能的原因n個,B發(fā)生的概率是各原因引起B(yǎng)發(fā)生概率的總和,也就是()。

A:條件概率

B:先驗概率

C:后驗概率

D:全概率公式

答案:全概率公式

貝葉斯公式于1763年由貝葉斯(Bayes)給出,它是在觀察到事件B已發(fā)生的條件下,尋找導致B發(fā)生的每個原因的概率。()

A:對B:錯

答案:對在自然語言處理中,以句子為處理單位時一般假設(shè)句子獨立于它前面的其它語句,句子的概率分布近似地符合以下哪項()。

A:貝葉斯法則

B:二項式分布

C:最大似然估計

D:期望

答案:二項式分布

在概率論和統(tǒng)計學中,一個離散性隨機變量的期望值,是試驗中每次可能結(jié)果的概率乘以其結(jié)果的總和,也被稱為()。

A:期望

B:數(shù)學期望

C:均值

D:方差

答案:期望

;數(shù)學期望

;均值

在概率論和統(tǒng)計學中,一個隨機變量的方差,描述的是它的離散程度,也就是該變量離其期望值的距離.()

A:對B:錯

答案:對以下哪項表示信源X每發(fā)一個符號且不論發(fā)什么符號所提供的平均信息量。()

A:熵

B:聯(lián)合熵

C:條件熵

D:信息

答案:熵

哪一項常被用以衡量兩個隨機分布的差距。()

A:聯(lián)合熵

B:相對熵

C:熵率

D:條件熵

答案:相對熵

第三章單元測試

以下哪一個屬于序列標注問題()。

A:英文詞的形態(tài)還原

B:指代消解

C:詞頻統(tǒng)計

D:命名實體識別

答案:命名實體識別

在詞法分析里,需要處理的最小單位是()。

A:詞

B:句子

C:短語

D:字

答案:詞

下列(

)形式是最主要的信息載體()。

A:文字

B:圖像

C:音頻

D:視頻

答案:文字

詞性標注的主要方法包括()。

A:基于規(guī)則的方法

B:基于統(tǒng)計的和基于規(guī)則的相結(jié)合的方法

C:基于統(tǒng)計的方法

D:基于語義的標注方法

答案:基于規(guī)則的方法

;基于統(tǒng)計的和基于規(guī)則的相結(jié)合的方法

;基于統(tǒng)計的方法

設(shè)輸入句子“我愛人工智能”,經(jīng)過詞性標注等得到“我/PN愛/VV人工智能/NR”,其中,PN、VV和NR的含義分別是代詞、動詞、專有名詞;()是命名實體。

A:“愛”

B:“我”

C:“我”、“人工智能”

D:“人工智能”

答案:“人工智能”

自然語言處理(NLP)通過詞、句子、篇章的分析,理解內(nèi)容。處理一個中文句子(漢字序列)時,在其NLP基本任務(wù)中,()負責將輸入的句子轉(zhuǎn)換為單詞序列。

A:分詞

B:詞性標注

C:句法分析

D:詞法分析

答案:分詞

自然語言處理過程可以有多個層次,包括()。

A:語法分析

B:詞法分析

C:句法分析

D:語義分析

答案:詞法分析

;句法分析

;語義分析

語言是人類交流思想、表達情感最自然的工具,是思維的載體,也是人類區(qū)別其他動物的本質(zhì)特性。()

A:對B:錯

答案:對孤立語就是被孤立的語言。()

A:錯B:對

答案:錯用“信息熵”來衡量自由度,用“點間互信息”衡量一個詞匯內(nèi)部的凝聚程度。()

A:錯B:對

答案:對

第四章單元測試

句法分析主要包括兩類,分別是短語結(jié)構(gòu)分析和依存關(guān)系分析。()

A:對B:錯

答案:對重寫規(guī)則表示取代或擴展的規(guī)則,箭頭左邊代表一個或幾個成分構(gòu)成的序列,右邊符號代表單一的結(jié)構(gòu)成分。()

A:對B:錯

答案:錯一個完整的語法表示,應(yīng)該包括以下哪些元素()。

A:重寫規(guī)則

B:終結(jié)符號集合

C:一個特殊的非終結(jié)符句子

D:非終結(jié)符號集合

答案:重寫規(guī)則

;終結(jié)符號集合

;一個特殊的非終結(jié)符句子

;非終結(jié)符號集合

形式語法是指面向機器處理的語法,它規(guī)定語言中允許出現(xiàn)的結(jié)構(gòu)的形式化說明。()

A:錯B:對

答案:對依存樹和句法樹都屬于語法表示方法,二者最大的不同在于句法樹上都是終結(jié)符結(jié)點,依存樹上還有非終結(jié)符結(jié)點。()

A:錯B:對

答案:錯在引入點規(guī)則后,以下屬于非活性邊的是()。

A:NP->ran

B:NP->ran。

C:NP->ra。n

D:NP->r。an

答案:NP->ran。

線圖分析算法解決了從輸入詞串開始,一步步形成線圖,使得在一條邊可以覆蓋全部結(jié)點。()

A:錯B:對

答案:對在線圖句法分析中需要用到的數(shù)據(jù)結(jié)構(gòu)是()。

A:活動邊集(ActiveArc)

B:線圖(Chart)

C:進程表(Agenda)

D:鏈表(LinkedList)

答案:活動邊集(ActiveArc)

;線圖(Chart)

;進程表(Agenda)

上下文無關(guān)文法(PCFG)在滿足以下什么條件下,計算分析樹的概率可以使用所有規(guī)則概率的乘積()。

A:兄弟無關(guān)

B:位置不變性

C:上下文無關(guān)性

D:祖先無關(guān)

答案:位置不變性

;上下文無關(guān)性

;祖先無關(guān)

下列屬于依存句法分析算法的是()。

A:非確定性分析方法

B:判別式分析方法

C:生成式分析方法

D:決策式分析方法

答案:判別式分析方法

;生成式分析方法

;決策式分析方法

第五章單元測試

篇章(discourse)又稱為語篇或文本.()

A:錯B:對

答案:對篇章結(jié)構(gòu)可以是篇章內(nèi)部關(guān)系的不同結(jié)構(gòu)化表達形式,主要包括下列哪些結(jié)構(gòu)。()

A:指代結(jié)構(gòu)

B:話題結(jié)構(gòu)

C:功能結(jié)構(gòu)

D:修辭結(jié)構(gòu)

答案:指代結(jié)構(gòu)

;話題結(jié)構(gòu)

;功能結(jié)構(gòu)

;修辭結(jié)構(gòu)

話題的完整性從形式和內(nèi)容兩方面分別體現(xiàn)為篇章的兩大基本特性,即篇章連貫性和篇章銜接性.()

A:對B:錯

答案:對篇章的哪幾個基本特征更是有力地促進了自然語言處理研究的發(fā)展。()

A:銜接性

B:信息性

C:連貫性

D:意圖性

答案:銜接性

;信息性

;連貫性

;意圖性

篇章的()基本特征已被自然語言處理領(lǐng)域的研究者廣為接受。

A:7個

B:6個

C:5個

D:4個

答案:7個

而通過分析篇章的信息性和意圖性,則可以挖掘篇章的語義特征。()

A:對B:錯

答案:對下列屬于Hobbs定義的12類關(guān)系的有()。

A:背景

B:詳述

C:并列

D:結(jié)果

答案:背景

;詳述

;并列

;結(jié)果

1898年馬建忠的《馬氏文通》出版為標志創(chuàng)建了漢語復句理論。()

A:錯B:對

答案:對()是最早研究篇章銜接關(guān)系的理論體系。

A:話題鏈

B:淺層銜接理論

C:修辭結(jié)構(gòu)理論

D:漢語復句理論

答案:淺層銜接理論

下圖哪個例子能構(gòu)成一個篇章

A:例1B:兩者都不能C:兩者都能D:例2

答案:例2

第六章單元測試

下列不屬于基于情感詞典的情感分析方法優(yōu)點的是()。

A:預測準確率高

B:有效反應(yīng)文本結(jié)構(gòu)特點,易于理解

C:通用性強

D:簡單易行

答案:預測準確率高

詞語級情感分析又稱為方面級情感分析,是一種細粒度的情感分析,它包括方面的提取和方面的情感分析。()

A:對B:錯

答案:對以下屬于文本情感分析過程的是()。

A:特征表示

B:特征選擇

C:使用分類器進行情感分析

D:情感類別的輸出

答案:特征表示

;特征選擇

;使用分類器進行情感分析

;情感類別的輸出

特征表示是指將文字表示的內(nèi)容轉(zhuǎn)換成計算機可以處理的數(shù)字化特征向量,常見的特征表示方法有one-hot、word2vec。()

A:錯B:對

答案:對常見的特征選擇方法包括{詞頻計數(shù)模型(N-gram)、詞袋模型(TF-IDF)和深度學習方法等。()

A:錯B:對

答案:對根據(jù)樣本數(shù)據(jù)標簽的有無或者多少,可以將機器學習算法主要分為()

A:聚類方法

B:無監(jiān)督方法

C:有監(jiān)督方法

D:半監(jiān)督方法

答案:聚類方法

;有監(jiān)督方法

;半監(jiān)督方法

樸素貝葉斯是一種分類方法,可以在任何情況下使用此方法進行文本情感分析。()

A:錯B:對

答案:錯K近鄰(KNN)算法是依據(jù)最鄰近的幾個樣本的類別來決定待分類樣本所屬的類別,其中常用的距離公式包括()

A:切比雪夫距離

B:曼哈頓距離

C:余弦距離

D:歐式距離

答案:切比雪夫距離

;曼哈頓距離

;余弦距離

;歐式距離

BERT使用的是Transformer編碼器,由于Self-attention機制,所以模型上下層直接全部互相連接。()

A:錯B:對

答案:對LSTM模型和RNN模型都是屬于深度學習模型,都可用于情感分析任務(wù)中,但是LSTM模型克服了梯度消失問題。()

A:錯B:對

答案:對

第七章單元測試

不管是賢二機器僧,還是同學們所熟知的QQ小弟、微軟小冰,在我們自然語言處理領(lǐng)域,都有一個共同的名字,那就是()。

A:問答

B:自動問答系統(tǒng)

C:情感分析

D:機器翻譯

答案:自動問答系統(tǒng)

以直接而準確的方式回答用戶自然語言提問的自動問答系統(tǒng)將構(gòu)成下一代搜索引擎的基本形態(tài)。()

A:錯B:對

答案:對問答系統(tǒng)的起源,可以追溯到1950年,A.M.Turning提出的"圖靈測試"。()

A:對B:錯

答案:對根據(jù)問答系統(tǒng)處理的數(shù)據(jù)格式,將問答系統(tǒng)分為哪幾個歷史階段()。

A:基于自由文本的問答系統(tǒng)

B:基于知識圖譜的問答系統(tǒng)

C:基于機構(gòu)化數(shù)據(jù)的問答系統(tǒng)

D:基于問題答案對的問答系統(tǒng)

答案:基于自由文本的問答系統(tǒng)

;基于知識圖譜的問答系統(tǒng)

;基于機構(gòu)化數(shù)據(jù)的問答系統(tǒng)

;基于問題答案對的問答系統(tǒng)

對應(yīng)問答系統(tǒng)的處理流程,一般問答系統(tǒng)包括哪三個主要部分?()。

A:答案抽取

B:問題分析

C:信息核對

D:信息檢索

答案:答案抽取

;問題分析

;信息檢索

根據(jù)問答系統(tǒng)的發(fā)展、數(shù)據(jù)源、提問類型等,將問答系統(tǒng)分為哪幾種?()。

A:面向知識圖譜的問答系統(tǒng)

B:社區(qū)問答系統(tǒng)

C:檢索式問答系統(tǒng)

D:自然問答系統(tǒng)

答案:面向知識圖譜的問答系統(tǒng)

;社區(qū)問答系統(tǒng)

;檢索式問答系統(tǒng)

衡量和分析問答系統(tǒng)得復雜性,可以從問題、數(shù)據(jù)、答案3個維度來評價,同時問答系統(tǒng)根據(jù)問題、數(shù)據(jù)、答案3個維度的不同而屬于不同類別。()

A:對B:錯

答案:對信息抽取的任務(wù)主要包括()。

A:實體識別與抽取

B:事件抽取

C:關(guān)系抽取

D:實體消岐

答案:實體識別與抽取

;事件抽取

;關(guān)系抽取

;實體消岐

區(qū)別于傳統(tǒng)問答式檢索系統(tǒng)僅能回答有限類型的問題,社區(qū)問答系統(tǒng)的特點是()。

A:問題類型不限定

B:問題的類型和答案的類型不限定

C:答案類型不限定

D:回答者不限定

答案:問題的類型和答案的類型不限定

哪一個概念由谷歌2012年正式提出,旨在實現(xiàn)更智能的搜索引擎,并且于2013年以后開始在學術(shù)界和業(yè)界普及。()。

A:知識圖譜應(yīng)用

B:大數(shù)據(jù)

C:知識圖譜

D:社區(qū)問答

答案:知識圖譜

第八章單元測試

關(guān)于文本摘要說法正確的是()

A:文本摘要必須保留原文中的重要信息。

B:文本摘要需盡可能簡短精煉。

C:可以對多文檔進行抽取文本摘要。

D:可以對單文檔進行抽取文本摘要。

答案:文本摘要必須保留原文中的重要信息。

;文本摘要需盡可能簡短精煉。

;可以對多文檔進行抽取文本摘要。

;可以對單文檔進行抽取文本摘要。

按照輸出類型劃分文本摘要主要分為哪幾類()

A:跨語言摘要

B:抽取式摘要

C:多文檔摘要

D:生成式摘要

答案:抽取式摘要

;生成式摘要

下面哪些是文本自動摘要經(jīng)歷的發(fā)展階段()

A:啟發(fā)式自動摘要

B:基于語言學的自動摘要

C:基于神經(jīng)網(wǎng)絡(luò)的自動摘要

D:基于統(tǒng)計的自動摘要

答案:啟發(fā)式自動摘要

;基于語言學的自動摘要

;基于神經(jīng)網(wǎng)絡(luò)的自動摘要

;基于統(tǒng)計的自動摘要

與單文檔摘要相比,多文檔摘要有哪些特點()

A:多文檔摘要比單文檔面臨更多挑戰(zhàn)。

B:多文檔摘要需注意減小句子之間的冗余度。

C:多文檔摘要要確定壓縮比率,即從每個文檔中抽取句子的比例。

D:從多個文檔抽取出的句子要確定它們的順序。

答案:多文檔摘要比單文檔面臨更多挑戰(zhàn)。

;多文檔摘要需注意減小句子之間的冗余度。

;多文檔摘要要確定壓縮比率,即從每個文檔中抽取句子的比例。

;從多個文檔抽取出的句子要確定它們的順序。

下面哪些項是影響句子重要性的因素()

A:句子中詞語的重要性

B:句子的長度

C:句子位置

D:句子是否包括線索詞

答案:句子中詞語的重要性

;句子的長度

;句子位置

;句子是否包括線索詞

關(guān)于生成式摘要常用的一個方法:基于深度學習之序列轉(zhuǎn)換模型的方法說法錯誤的是()

A:輸入序列較長時,語義向量中先提取的信息并不會被后提取的信息稀釋。

B:解碼器通過語義向量和前面已經(jīng)生成的摘要序列來預測當前時刻的單詞。

C:編碼器會輸出特征提取后的語義向量。

D:該方法使用的是編碼器-解碼器模型。

答案:輸入序列較長時,語義向量中先提取的信息并不會被后提取的信息稀釋。

下面關(guān)于ROUGE說法正確的是()

A:ROUGE要求由多個專家分別生成人工摘要,構(gòu)成標準摘要集。

B:ROUGE是一種外部評價標準。

C:ROUGE既是評估自動文摘也是及機器翻譯的一組指標。

D:ROUGE是一種基于召回率的相似性度量方法。

答案:ROUGE要求由多個專家分別生成人工摘要,構(gòu)成標準摘要集。

;ROUGE既是評估自動文摘也是及機器翻譯的一組指標。

;ROUGE是一種基于召回率的相似性度量方法。

按照輸入類型劃分,文本摘要分為抽取式摘要和生成式摘要。()

A:對B:錯

答案:錯多文檔摘要不必關(guān)心多個文檔中抽取處的句子之間的順序。()

A:對B:錯

答案:錯5、

抽取式摘要典型模型一共有以下步驟,請按照先后順序?qū)⒉襟E進行排序(

)①摘要語句排序②語句重要性計算與排名③文檔理解④語句選擇

A:③②

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論