




版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領
文檔簡介
2021.5.252021.5.252021.5.252021.5.252021.5.25昇騰AI應用
第五章基于MindSpore建模實踐
——BERT模型實現自動問答機器人
案例應用場景
案例規(guī)劃部署
案例演示操作
案例相關知識案例應用場景案例演示操作案例規(guī)劃部署案例相關知識
在NLP(自然語言處理)領域,與我們生活息息相關的就是問答系統(tǒng)(QA),它是機器與人交互最常見的方式,探索問答系統(tǒng)背后的技術。問答系統(tǒng)是人與機器交互最常見的形式,隨著知識圖譜技術的不斷完善,基于知識庫的問答系統(tǒng)越來越多的開始應用在各種問答場景中?;谥R庫的問答(knowledgebasequestionanswering,KBQA)即給定自然語言問題,通過對問題進行語義理解和解析,進而利用知識庫進行查詢、推理得出答案。具體的,從應用領域的角度劃分,知識庫問答可以分為:開放域的知識問答,如百科知識問答;特定域的知識問答,如金融領域,醫(yī)療領域,宗教領域等,以客服機器人,教育/考試機器人或搜索引擎等形式服務于我們的日常生活。問答系統(tǒng)應用場景案例應用場景案例演示操作案例規(guī)劃部署
案例相關知識演示操作流程——下載數據數據準備:演示操作流程——安裝依賴演示操作流程——實體識別加載數據演示操作流程——實體識別構建處理器加載數據構建預處理器演示操作流程——實體識別測試輸出測試輸出演示操作流程——實體識別模型構建演示操作流程——實體識別模型訓練演示操作流程——實體識別模型評估與模型保存演示操作流程——實體識別模型加載與預測演示操作流程——屬性映射加載數據演示操作流程——屬性映射測試輸出演示操作流程——屬性映射定義配置參數演示操作流程——屬性映射構建預處理器演示操作流程——屬性映射模型構建演示操作流程——屬性映射模型訓練演示操作流程——屬性映射模型評估、保存與預測演示操作流程——問答系統(tǒng)構建整合以上兩個步驟,就可以完成一個簡單的基于知識庫的問答系統(tǒng)。下面為具體說明:1.命名實體識別:輸入問題,使用BERT模型得到問題中的實體,在知識庫中檢索出包含該實體的所有知識組合。2.屬性映射:在包含實體的知識組合中,進行屬性映射尋找答案,又可分為非語義匹配和語義匹配。非語義匹配:如果一個知識三元組的關系屬性是輸入問題的子集(相當于字符串匹配),則該三元組對應的答案匹配為正確答案。非語義匹配步驟可以大大加速匹配。<詳見技術文檔>案例應用場景案例演示操作案例規(guī)劃部署
案例相關知識案例規(guī)劃部署案例應用場景案例演示操作案例規(guī)劃部署
案例相關知識相關知識概述本節(jié)主要任務:了解自然語言處理基本知識掌握循環(huán)神經網絡算法掌握自然語言處理關鍵技術了解自然語言處理的應用以及應用系統(tǒng)第一節(jié):自然語言處理介紹第二節(jié):預備知識2.1語言模型2.2文本向量化2.3常用算法第三節(jié):鍵技術3.1分詞3.2詞性標注3.3命名實體識別3.4關鍵詞提取3.5句法分析3.6語義分析第四節(jié):應用系統(tǒng)第一節(jié):自然語言處理介紹第二節(jié):預備知識語言模型文本向量化常用算法第三節(jié):鍵技術分詞詞性標注命名實體識別關鍵詞提取句法分析語義分析第四節(jié):應用系統(tǒng)什么是自然語言?什么是自然語言?以語音為物質外殼,由詞匯和語法兩部分組成的符號系統(tǒng)。文字和聲音是語言的兩種屬性。語言是人類交際的工具,是人類思維的載體;人類歷史上以語言文字形式記載和流傳的知識占人類知識總量的80%以上。是約定俗成的,有別于人工語言,比如Java、C++等程序設計語言。什么是自然語言處理?什么是自然語言處理(NaturalLanguageProcessing,NLP)?自然語言處理就是,利用計算機為工具對人類特有的書面形式和口頭形式的自然語言的信息,進行各種類型處理和加工的技術。馮志偉自然語言處理可以定義為研究在人與人交際中以及在人與計算機交際中的語言問題的一門學科。自然語言處理要研制表示語言能力和語言應用的模型,建立計算框架來實現這樣的語言模型,提出相應的方法來不斷完善這樣的語言模型,根據這樣的語言模型設計各種實用系統(tǒng),并探討這些實用系統(tǒng)的評測技術。BillManaris自然語言處理的基本方法(1)能力模型通常是基于語言學規(guī)則的模型,建立在人腦中先天存在語法通則這一假設的基礎上,認為語言是人腦的語言能力推導出來的,建立語言模型就是通過建立人工編輯的語言規(guī)則集來模擬這種先天的語言能力。又稱“理性主義的”語言模型,代表人物有Chomsky、Minsky。建模步驟:
語言學知識形式化形式化規(guī)則算法化算法實現自然語言處理的基本方法(2)應用模型根據不同的語言處理應用而建立的特定語言模型,通常是通過建立特定的數學模型來學習復雜的、廣泛的語言結構,然后利用統(tǒng)計學、模式識別和機器學習等方法來訓練模型的參數,以擴大語言使用的規(guī)模。又稱“經驗主義的”語言模型,代表人物有Shannon、Skinner。建模步驟大規(guī)模真實語料庫中獲得不同層級語言單位上的統(tǒng)計信息。依據較低級語言單位上的統(tǒng)計信息運用相關的統(tǒng)計推理技術,來計算較高級語言單位上的統(tǒng)計信息。自然語言處理的基本方法(3)在NLP的發(fā)展過程中,其方法大致分為以下幾類:基于規(guī)則的方法基于統(tǒng)計的方法自然語言處理研究方向自然語言處理是計算機科學領域以及人工智能領域的一個重要的研究方向,是一門交叉性學科,包括了語言學、計算機科學、數學、心理學、信息論、聲學……NLP自然語言理解音位學形態(tài)學詞匯學句法學語義學語用學自然語言生成自然語言文本自然語言處理研究方向自然語言處理是計算機科學領域以及人工智能領域的一個重要的研究方向,是一門交叉性學科,包括了語言學、計算機科學、數學、心理學、信息論、聲學……NLP自然語言理解音位學形態(tài)學詞匯學句法學語義學語用學自然語言生成自然語言文本自然語言處理的三個層面詞法分析:包括分詞、詞性標注、命名實體識別等。句法分析:包括句法結構分析和依存關系分析等。語義分析:最終目的是理解句子表達的真實語義。源語言句子目標語言句子第1步分析源語言句子的含義第2步生成目標語言語義分析(SemanticAnalysis)句法分析(SyntaxAnalysis)詞法分析(LexicalAnalysis)[Intheroom],hebrokeawindow<withahammer>.介詞冠詞名詞代詞動詞冠詞名詞介詞冠詞名詞狀語主語謂語賓語補語自然語言處理的難點(1)詞法歧義:分詞:詞語的切分邊界比較難確定。嚴守一/把/手機/關/了嚴守/一把手/機關/了詞性標注:同一個詞語在不同的上下文中詞性不同。我/計劃/v考/研/我/完成/了/計劃/n命名實體識別:人名、專有名稱、縮略詞等未登錄詞的識別困難。高超/nr/a華明/nr/nt移動/nt/v自然語言處理的難點(2)句法歧義:句法層面上的依存關系受上下文的影響。咬死了獵人的狗那只狼咬死了獵人的狗咬死了獵人的狗失蹤了那
只狼咬死了獵人的狗rq
nvvununRootHEDVOBATTATTSBVCMPRADRADATT咬死了獵人的狗失蹤了vv
ununvuRootHEDCMPRADRADATTSBVRADCOO自然語言處理的難點(3)語義歧義Atlast,acomputerunderstandsyoulikeyourmother.含義1:計算機會像你的母親那樣很好的理解你。含義2:計算機理解你喜歡你的母親。含義3:計算機會像理解你母親那樣去理解你。自然語言處理的難點(4)語用歧義“你真壞”當對干了壞事的成年人說時,是一種嚴厲的苛責。當媽媽對淘氣的兒子說時,實際表達的是對兒子的一種疼愛。當戀愛中的女孩對男友說時,則是女孩在男友面前撒嬌的一種表現。自然語言處理的發(fā)展現狀已開發(fā)完成一批頗具影響的語言資料庫,部分技術已達到或基本達到實用化程度,并在實際應用中發(fā)揮巨大作用。北大語料庫、HowNet。許多新研究方向不斷出現閱讀理解、圖像(視頻)理解、語音同聲傳譯。許多理論問題尚未得到根本性的解決未登錄詞的識別、歧義消解的問題、語義理解的難題。缺失一套完整、系統(tǒng)的理論框架體系。知識小考1.什么是自然語言處理?2.自然語言處理的基本方法有哪些?
本節(jié)介紹了自然語言處理的概念,自然語言處理的方法,自然語言處理的難點以及自然語言處理的發(fā)展現狀。第一節(jié):自然語言處理介紹第二節(jié):基礎知識2.1語言模型2.2文本向量化2.3常用算法第三節(jié):關鍵技術3.1分詞3.2詞性標注3.3命名實體識別3.4關鍵詞提取3.5句法分析3.6語義分析第四節(jié):應用系統(tǒng)什么是語言模型神經網絡語言模型(1)
…………softmaxMostcomputationheretanh
…
…
……
Tablelook-upinC
MatrixC神經網絡語言模型(2)Softmax層RNN層Embedding層大海藍色顏色的是的:0.3是:0.2…深度:0.3顏色:0.15溫度:0.05…是:0.4很:0.2…的:0.5…藍色:0.7綠色:0.15透明:0.1…N-gram語言模型
<s>IamLily</s><s>LilyIam</s><s>Idonotlikegreeneggsandham</s>p(I|<s>)=2/3=0.667p(am|I)=2/3=0.667p(</s>|Lily)=1/2=0.5NN語言模型與統(tǒng)計語言模型的關系
第一節(jié):自然語言處理介紹第二節(jié):基礎知識2.1語言模型2.2文本向量化2.3常用算法第三節(jié):關鍵技術3.1分詞3.2詞性標注3.3命名實體識別3.4關鍵詞提取3.5句法分析3.6語義分析第四節(jié):應用系統(tǒng)文本向量化(1)文本向量化:將文本表示成一系列能夠表達文本語義的向量。常用的向量化算法有:one-hotTF-IDFword2vecCBOW模型Skip-gram模型doc2vec/str2vecDM(DistributedMemory)DBOW(DistributedBagofWords)文本向量化(2)manwomankingqueenthreefouronetwodogcatfishapplegrapeorangeword2vec-CBOW模型
InputlayerHiddenlayerOutputlayer
word2vec-Skip-gram模型
InputlayerHiddenlayerOutputlayer
doc2vec-DM模型onDWWWParagraphidthecatsatClassifierAverage/ConcatenateParagraphMatrixdoc2vec-DBOW模型thecatsatonDParagraphidClassifierParagraphMatrix第一節(jié):自然語言處理介紹第二節(jié):基礎知識2.1語言模型2.2文本向量化2.3常用算法第三節(jié):關鍵技術3.1分詞3.2詞性標注3.3命名實體識別3.4關鍵詞提取3.5句法分析3.6語義分析第四節(jié):應用系統(tǒng)HMM模型(1)HMM模型(2)D61D86D83D65D42D87D63D65D42D84
隱馬爾可夫模型示意圖圖例說明:D61一個隱含狀態(tài)一個可見狀態(tài)從一個隱含狀態(tài)到下一個隱含狀態(tài)的轉換從一個隱含狀態(tài)到下一個可見狀態(tài)的輸出HMM模型(3)
HMM模型(4)
貝葉斯公式
觀測獨立性假設,鏈式法則齊次馬爾科夫假設
條件隨機場
線性鏈條件隨機場
條件隨機場(2)
RNN不同于傳統(tǒng)的機器翻譯模型僅僅考慮有限的前綴詞匯信息作為語義模型的條件項,遞歸神經網絡(RNN)有能力將語料集中的全部前序詞匯納入模型的考慮范圍。Colah,2015,UnderstandingLSTMsNetworksosVUWxWWUV
WUV
WUV
LSTM長短期記憶網絡(LongShortTermMemory,LSTM):一種特殊的RNN類型,可以學習長期依賴信息。Colah,2015,UnderstandingLSTMsNetworks
A
AGRUColah,2015,UnderstandingLSTMsNetworks
l-+雙向RNN在經典的循環(huán)神經網絡中,狀態(tài)的傳輸是從前往后單向的。然而,在有些問題中,當前時刻的輸出不僅和之前的狀態(tài)有關系,也和之后的狀態(tài)相關。這時就需要雙向RNN(BiRNN)來解決這類問題。例如預測一個語句中缺失的單詞不僅需要根據前文來判斷,也需要根據后面的內容,這時雙向RNN就可以發(fā)揮它的作用。雙向RNN是由兩個RNN上下疊加在一起組成的。輸出由這兩個RNN的狀態(tài)共同決定。hanbingtao,2017,卷積神經網絡osx知識小考1.詞袋模型的缺點有哪些?2.常見的網絡模型有哪些?
本節(jié)介紹了自然語言處理的語言模型,文本向量化以及常用算法。第一節(jié):自然語言處理介紹第二節(jié):基礎知識2.1語言模型2.2文本向量化2.3常用算法第三節(jié):關鍵技術3.1分詞3.2詞性標注3.3命名實體識別3.4關鍵詞提取3.5句法分析3.6語義分析第四節(jié):應用系統(tǒng)中文分詞的定義中文分詞(ChineseWordSegmentation):指的是將一個漢字序列切分成一個個單獨的詞。分詞就是將連續(xù)的字序列按照一定的規(guī)范重新組合成詞序列的過程。例如:一九九八年/中國/實現/進出口/總值/達/一千零九十八點二億/美元規(guī)則分詞(1)規(guī)則分詞:是一種機械分詞方法,主要是通過維護詞典,在切分語句時,將語句中的每個字符串與詞表中的詞進行逐一匹配,找到則切分,否則不予切分。按照匹配切分的方式,主要有:正向最大匹配法(MaximumMatchMethod,MM法)逆向最大匹配法(ReverseMaximumMatchMethod,RMM法)雙向最大匹配法(Bi-directctionMatchMethod,MM法)特點:簡單高效,詞典維護困難。網絡新詞層出不窮,詞典很難覆蓋到所有詞。規(guī)則分詞(2)正向最大匹配法:待切分字串S1;輸出詞串S2=“最大詞長MaxLen初始化S1是否為空輸出結果S2從S1左邊開始,取出候選字串W,W的長度不大于ManLen將W最右邊一個字去掉W是否為單字查詞典,看W是否在詞典中S2=S2+W+”/”S1=S1-W規(guī)則分詞(2)正向最大匹配法:待切分字串S1;輸出詞串S2=“最大詞長MaxLen初始化S1是否為空輸出結果S2從S1左邊開始,取出候選字串W,W的長度不大于ManLen將W最右邊一個字去掉W是否為單字查詞典,看W是否在詞典中S2=S2+W+”/”S1=S1-W統(tǒng)計分詞主要思想:將分詞作為字在字串中的序列標注任務來實現的。每個字在構造一個特定的詞語時都占據著一個確定的構詞位置,如果相連的字在不同的文本中出現的次數越多,就證明這相連的字很可能就是一個詞。步驟:建立統(tǒng)計語言模型。對句子進行單詞劃分,然后對結果進行概率計算,獲得概率最大的分詞方式。如隱馬爾科夫(HMM)、條件隨機場(CRF)等。四個標記:B=詞首M=詞中E=詞尾S=單獨成詞兩個標記:B=詞首I=非詞首輸入:中華民族是不可戰(zhàn)勝的中華民族是不可戰(zhàn)勝的標記:BMMESBEBESBIIIBBIBIB輸出:中華民族/是/不可/戰(zhàn)勝/的
深度學習分詞使用word2vec對語料的詞進行嵌入,得到詞嵌入后,用詞嵌入特征輸入給雙向LSTM,對輸出的隱層加一個線性層,然后加一個CRF得到最終實現的模型。B-PER
E-PER
o
S-LOC
Wordembeddings混合分詞在實際工程應用中,多是基于一種分詞算法,然后用其他分詞算法加以輔助。最常用的是先基于詞典的方式分詞,然后再用統(tǒng)計分詞方式進行輔助。第一節(jié):自然語言處理介紹第二節(jié):基礎知識2.1語言模型2.2文本向量化2.3常用算法第三節(jié):關鍵技術3.1分詞3.2詞性標注3.3命名實體識別3.4關鍵詞提取3.5句法分析3.6語義分析第四節(jié):應用系統(tǒng)詞性標注的定義詞性標注:是指為句子是指為分詞結果中的每個單詞標注一個正確的詞性的程序,也即確定每個詞是名詞、動詞、形容詞或者其他詞性的過程。例如:邁向/v充滿/v希望/n的/uj新/a世紀/n。詞性:是詞匯基本的語法屬性。目的:是很多NLP任務的預處理步驟,如句法分析、信息抽取,經過詞性標注后的文本會帶來很大的便利性,但也不是不可或缺的步驟。方法:基于規(guī)則的方法、基于統(tǒng)計的方法、基于深度學習的方法。第一節(jié):自然語言處理介紹第二節(jié):基礎知識2.1語言模型2.2文本向量化2.3常用算法第三節(jié):關鍵技術3.1分詞3.2詞性標注3.3命名實體識別3.4關鍵詞提取3.5句法分析3.6語義分析第四節(jié):應用系統(tǒng)命名實體識別(1)命名實體識別(NamedEntitiesRecognition,NER):又稱作“專名識別”,是指識別文本中具有特定意義的實體,主要包括人名、地名、機構名、專有名詞等。例如:冶金/n工業(yè)部/n洛陽/ns耐火材料/l研究院/n。分類:NER研究的命名實體一般分為3大類(實體類、時間類和數字類)和7小類(人名、地名、組織機構名、時間、日期、貨幣和百分比)。作用:與自動分詞、詞性標注一樣,命名實體識別也是自然語言中的一個基礎任務,是信息抽取、信息檢索、機器翻譯、問答系統(tǒng)等技術必不可少的組成部分。步驟:實體邊界識別確定實體類別(人名、地名、機構名等)命名實體識別(2)難點:各類命名實體的數量眾多。命名實體的構成規(guī)律復雜。嵌套情況復雜。長度不確定。深度學習NER字/詞向量Bi-LSTMCRF小強去培訓中心學習WordembeddingsLSTMLSTMLSTMLSTMLSTMLSTMLSTMLSTMLSTMLSTMLSTMLSTMLSTMLSTMLSTMLSTMLSTMLSTMB-PERE-PEROB-ORGI-ORGI-ORGE-ORGOO第一節(jié):自然語言處理介紹第二節(jié):基礎知識2.1語言模型2.2文本向量化2.3常用算法第三節(jié):關鍵技術3.1分詞3.2詞性標注3.3命名實體識別3.4關鍵詞提取3.5句法分析3.6語義分析第四節(jié):應用系統(tǒng)關鍵詞提取關鍵詞是代表文章重要內容的一組詞,現實中大量文本不包含關鍵詞,因此自動提取關鍵詞技術能使人們便捷地瀏覽和獲取信息,對文本聚類、分類、自動摘要等起重要的作用。關鍵詞提取算法一般也可以分為有監(jiān)督和無監(jiān)督兩類。有監(jiān)督:主要是通過分類的方式進行,通過構建一個較為豐富和完善的詞表,然后通過判斷每個文檔與詞表中每個詞的匹配程度,以類似打標簽的方式,達到提取關鍵詞的效果。無監(jiān)督:不需要人工生成、維護的詞表,也不需要人工標準語料輔助進行訓練。例如,TF-IDF算法、TextRank算法、主題模型算法(LSA、LSI、LDA)。TF-IDF算法(1)詞頻-逆文檔頻率算法(TermFrequency-InverseDocumentFrequency,TF-IDF):是一種基于統(tǒng)計的計算方法,常用于評估在一個文檔集中一個詞對某份文檔的重要程度。例如:
世界獻血日,學校團體、獻血服務志愿者等可到血液中心參觀檢驗加工過程,我們會對檢驗結果進行公示,同時血液的價格也將進行公示。其中,“獻血”、“血液”、“進行”、“公示”等詞出現的頻次均為2,如果從TF算法的角度,他們對于這篇文檔的重要性是一樣的。但是實際上明顯“血液”、“獻血”對這篇文檔來說更關鍵。TF-IDF算法(2)TextRank算法(1)TextRank算法的基本思想來源于Google的PageRank算法。PageRank算法是Google創(chuàng)始人拉里.佩奇和謝爾蓋.布林于1997年構建早期的的搜索系統(tǒng)原型時提出的鏈接分析算法,該算法是用來評價搜索系統(tǒng)覆蓋網頁重要性的一種方法。其基本思想有兩條:鏈接數量。一個網頁被越多的其他網頁鏈接,說明這個網頁越重要。鏈接質量。一個網頁被一個越高權值的網頁鏈接,也能表明這個網頁越重要。TextRank算法(2)TextRank算法(3)當TextRank算法應用到關鍵詞抽取任務時,與在自動摘要任務中應用相比,主要有兩點不同:詞與詞之間的關聯沒有權重。每個詞不是與文檔中所有詞都有鏈接。由于第一點不同,此時TextRank中的分數就退化為與PageRank一致;對于第二點不同,鏈接關系可以通過窗口來界定。LSA/LSI/LDA算法主題模型認為在詞與文檔之間沒有直接的聯系,它們應當還有一個維度將它們串聯起來,這個維度稱為主題。每個文檔都應該對應著一個或者多個主題,而每個主題都會有對應的詞分布,通過主題就可以得到每個文檔的詞分布。LSA\LSI算法
LDA算法(1)LDA算法假設文檔中主題的先驗分布和主題中詞的先驗分布都服從狄利克雷分布。然后通過對已有數據集的統(tǒng)計,就可以得到每篇文檔中主題的多項式分布和每個主題對應詞的多項式分布。訓練過程一般如下:隨機初始化,對語料中每篇文檔中的每個詞w,隨機地賦予一個topic編號z。重新掃描語料庫,對每個詞w按照吉布斯采樣公式重新采樣它的topic,在語料中進行更新。重復以上語料庫的重新采樣過程直到吉布斯采樣收斂。統(tǒng)計語料庫topic-word共現頻率矩陣,該矩陣就是LDA的模型。LDA算法(2)經過以上的步驟,就得到一個訓練好的LDA模型,接下來就可以按照一定的方式針對新文檔的topic進行預估,具體步驟如下:隨機初始化,對當前文檔中的每個詞w,隨機地賦予一個topic編號z。重新掃描當前文檔,按照吉布斯采樣公式,重新采樣它的topic。重復以上過程直到吉布斯采樣收斂。統(tǒng)計文檔中的topic分布即為預估結果。TopicdistributionofwordsTopicprobabilityTopicassignmentToken
第一節(jié):自然語言處理介紹第二節(jié):基礎知識2.1語言模型2.2文本向量化2.3常用算法第三節(jié):關鍵技術3.1分詞3.2詞性標注3.3命名實體識別3.4關鍵詞提取3.5句法分析3.6語義分析第四節(jié):應用系統(tǒng)句法分析句法分析的主要任務是識別出句子所包含的句法成分以及這些成分之間的依存關系,分為句法結構分析和依存關系分析。一般以句法樹來表示句法分析的結果。你有個優(yōu)惠券快要過期了rvqndvuRootHEDSBVCOOVOBATTADVRADROOTIPNPVPNPNPNPNPNPNPNPNPNPNP你有個優(yōu)惠券快要過期了句法分析的重要性機器翻譯是NLP的一個主要領域,而句法分析是機器翻譯的核心數據結構,是對語言進行深層次理解的基石。對于復雜語句,標注樣本較少的情況下,僅僅通過詞性分析,不能得到正確的語句成分關系。第一節(jié):自然語言處理介紹第二節(jié):基礎知識2.1語言模型2.2文本向量化2.3常用算法第三節(jié):關鍵技術3.1分詞3.2詞性標注3.3命名實體識別3.4關鍵詞提取3.5句法分析3.6語義分析第四節(jié):應用系統(tǒng)語義分析語義分析是編譯過程的一個邏輯階段。語義計算的任務:解釋自然語言句子或篇章各部分(詞、詞組、句子、段落、篇章)的意義。語法處理句子主干提取修飾詞語義提取部分語法過濾句型識別生成語義信息自然語句語義信息語義分析過程語義分析的重要性僅僅知道句子的結構,是否就可以了?
例如:三段論:所有人都得死,蘇格拉底是人,所以蘇格拉底也要死。推論:不可能一天讀完魯迅的作品,《藥》是魯迅的作品,所以一天不能讀完《藥》。通過上述案例可知,結構上是合乎語法的,但語義上不合實際。因此,僅僅分析出句子的結構,并不能妥善的解決機
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
- 4. 未經權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
- 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
- 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
評論
0/150
提交評論