人工智能自然語(yǔ)言技術(shù)練習(xí)(習(xí)題卷27)_第1頁(yè)
人工智能自然語(yǔ)言技術(shù)練習(xí)(習(xí)題卷27)_第2頁(yè)
人工智能自然語(yǔ)言技術(shù)練習(xí)(習(xí)題卷27)_第3頁(yè)
人工智能自然語(yǔ)言技術(shù)練習(xí)(習(xí)題卷27)_第4頁(yè)
人工智能自然語(yǔ)言技術(shù)練習(xí)(習(xí)題卷27)_第5頁(yè)
已閱讀5頁(yè),還剩16頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

試卷科目:人工智能自然語(yǔ)言技術(shù)練習(xí)人工智能自然語(yǔ)言技術(shù)練習(xí)(習(xí)題卷27)PAGE"pagenumber"pagenumber/SECTIONPAGES"numberofpages"numberofpages人工智能自然語(yǔ)言技術(shù)練習(xí)第1部分:?jiǎn)雾?xiàng)選擇題,共43題,每題只有一個(gè)正確答案,多選或少選均不得分。[單選題]1.以下哪個(gè)激活函數(shù)常用于解決類似文本分類的多分類任務(wù)A)tanhB)sigmoidC)reluD)softmax答案:D解析:[單選題]2.下列不屬于一般的有指導(dǎo)的機(jī)器學(xué)習(xí)的步驟是()A)預(yù)處理B)人工標(biāo)注C)訓(xùn)練和預(yù)測(cè)D)數(shù)據(jù)導(dǎo)出答案:D解析:[單選題]3.什么是自然語(yǔ)言,我們應(yīng)該如何去理解自然語(yǔ)言A)機(jī)器理解B)讓計(jì)算機(jī)/機(jī)器在理解語(yǔ)言上像人類一樣智能C)彌補(bǔ)人類交流和計(jì)算機(jī)理解之間的差距D)一門計(jì)算機(jī)科學(xué)、人工智能以及語(yǔ)言學(xué)的交叉學(xué)科答案:D解析:[單選題]4.機(jī)器翻譯的應(yīng)用層面很廣泛,具體屬于下列哪個(gè)領(lǐng)域?A)自然語(yǔ)言系統(tǒng)B)機(jī)器學(xué)習(xí)C)專家系統(tǒng)D)人類感官模擬答案:A解析:[單選題]5.transformer和seq2seq的差異在哪A)都屬于編解碼模型B)都可以做機(jī)器翻譯C)transformer使用了全Attention的形式D)都可以做文本摘要答案:C解析:[單選題]6.以下屬于異質(zhì)集成的是哪個(gè)A)BaggingB)BoostingC)StackingD)以上都正確答案:C解析:[單選題]7.()是一種基于圖的文本排序算法,它可以用于自動(dòng)摘要和提取關(guān)鍵詞。A)TF-IDF算法B)TextRank算法C)LDA算法D)主題模型答案:B解析:[單選題]8.不屬于文本挖掘的基本技術(shù)分類的是()A)文本信息抽取B)文本分類C)文本聚類D)文本數(shù)據(jù)挖掘答案:D解析:[單選題]9.馬爾科夫假設(shè)當(dāng)前詞(n)出現(xiàn)的概率依賴于哪些詞A)n-3B)n-2C)nD)n-1答案:D解析:[單選題]10.trainset和testset描述正確的是A)可以直接使用訓(xùn)練集來(lái)驗(yàn)證算子的準(zhǔn)確率B)訓(xùn)練集用于算子的擬合C)驗(yàn)證集和測(cè)試集用來(lái)評(píng)判算子的準(zhǔn)確度D)可以不配置驗(yàn)證集答案:A解析:[單選題]11.常用的softmax函數(shù),下列選項(xiàng)中描述正確得是哪個(gè)?A)主要用于二分類B)算出來(lái)為概率值C)將最小的概率值所對(duì)應(yīng)的類別作為輸入樣本的輸出類別D)所有的概率相加大于1答案:B解析:[單選題]12.編譯程序前三個(gè)階段完成的工作就是A)詞法分析、語(yǔ)法分析與代碼優(yōu)化B)代碼生成、代碼優(yōu)化與詞法分析C)詞法分析、語(yǔ)法分析、語(yǔ)義分析與中間代碼生成D)詞法分析、語(yǔ)法分析與代碼優(yōu)化答案:C解析:[單選題]13.貝葉斯是常用的理論基礎(chǔ),在貝葉斯可以是用的什么圖進(jìn)行表示的A)無(wú)向圖B)有無(wú)向圖C)有向圖D)不確定答案:C解析:[單選題]14.以下哪個(gè)算法不能直接用于文本分類?A)KmeansB)決策樹C)支持向量機(jī)D)KNN答案:A解析:[單選題]15.()是能夠獨(dú)立運(yùn)行的最小語(yǔ)言單位A)字B)詞C)句D)段答案:B解析:[單選題]16.在文本分類應(yīng)用中,關(guān)于詞袋模型的描述正確的是()A)任何一個(gè)單詞只能存在于某一個(gè)詞袋中B)一個(gè)單詞可能存在于多個(gè)詞袋中但頻率不同C)所有詞袋中單詞的并集就等同于詞匯表D)詞袋模型描述的是單詞在所有文本中出現(xiàn)的頻率答案:B解析:[單選題]17.在語(yǔ)義網(wǎng)絡(luò)中,用()來(lái)標(biāo)明類與子類之間的關(guān)系。A)實(shí)例聯(lián)系B)泛化聯(lián)系C)聚集聯(lián)系D)屬性聯(lián)系答案:B解析:[單選題]18.哪個(gè)算法可以做機(jī)器翻譯A)LSAB)seq2seqC)TextFastD)LSTM答案:B解析:[單選題]19.如說(shuō)使用到了N-gram模型,如果N越大,會(huì)造成什么后果A)效果越差B)訓(xùn)練時(shí)間越短C)復(fù)雜度越低D)效果越好但是訓(xùn)練時(shí)間更長(zhǎng)答案:D解析:[單選題]20.CNN的全稱是什么A)全連接網(wǎng)絡(luò)B)循環(huán)神經(jīng)網(wǎng)絡(luò)C)卷積神經(jīng)網(wǎng)絡(luò)D)以上都不對(duì)答案:C解析:[單選題]21.文本分類模型組成部分的正確順序是:1.文本清理(Textcleaning)2.文本標(biāo)注(Textannotation)3.梯度下降(Gradientdescent)4.模型調(diào)優(yōu)(Modeltuning)5.文本到預(yù)測(cè)器(Texttopredictors)A)12345B)13425C)12534D)13452答案:C解析:[單選題]22.確定語(yǔ)料庫(kù)類型的主要依據(jù)是A)它的研究目的和用途B)語(yǔ)料庫(kù)的大小C)它所包含的語(yǔ)言種類的數(shù)目D)語(yǔ)料庫(kù)的加工方式答案:A解析:[單選題]23.以下四個(gè)選項(xiàng)中,和K-means一樣都屬于無(wú)監(jiān)督算法的是?A)KNNB)SVMC)邏輯回歸D)PCA答案:D解析:[單選題]24.數(shù)據(jù)平滑的主要方法不包括A)平均值法B)邊界值法C)剔除法D)中值法答案:C解析:[單選題]25.通常的語(yǔ)義角色標(biāo)注分為()個(gè)步驟:①識(shí)別、②分類、③剪枝、④后處理A)①②③④B)①③④C)①②④D)①④答案:A解析:[單選題]26.怎樣解決梯度爆炸A)對(duì)于RNN,可以通過(guò)梯度截?cái)?,避免梯度消失B)可以通過(guò)添加正則項(xiàng),避免梯度爆炸C)使用LSTM等自循環(huán)和門控制機(jī)制,避免梯度爆炸D)優(yōu)化激活函數(shù),譬如將sigmold改為relu,避免梯度消失答案:B解析:[單選題]27.Relu和Tanh相比有什么不同的地方A)輸出的值域不同B)Relu可以做非線性變換而Tanh不可以C)Relu是激活函數(shù)但是Tanh不是激活函數(shù)D)都不可以做線性變換答案:A解析:[單選題]28.BERT是一個(gè)什么樣的模型A)預(yù)訓(xùn)練模型B)語(yǔ)言模型C)概率圖模型D)不確定答案:A解析:[單選題]29.帶深度限制的Leaf-wise的葉子生長(zhǎng)策略是以下哪個(gè)算法的優(yōu)化A)XGBoostB)隨機(jī)森林C)GBDTD)LightGBM答案:D解析:[單選題]30.在文檔中,刪除?啊??的?這樣的詞稱為什么A)詞干提?。⊿temming)B)詞形還原(Lemmatization)C)停用詞(StopWords)D)以上所有答案:C解析:[單選題]31.tf.cast函數(shù)的返回值數(shù)據(jù)類型是什么A)整數(shù)型B)布爾型C)浮點(diǎn)型D)字符串答案:C解析:[單選題]32.在動(dòng)量梯度下降中,其中的參數(shù)β一般的默認(rèn)值是多少,下列哪個(gè)選項(xiàng)是正確的A)0.7B)0.8C)0.9D)1答案:C解析:[單選題]33.現(xiàn)實(shí)世界中,各處都體現(xiàn)出信息傳遞的過(guò)程,那么信息傳播的速度,是以()數(shù)量級(jí)進(jìn)行A)線性B)冪函數(shù)C)指數(shù)D)常數(shù)答案:C解析:[單選題]34.在HMM中,我們可以怎么樣去進(jìn)行參數(shù)估計(jì)呢?A)EM算法B)維特比算法C)前向后向算法D)極大似然估計(jì)答案:D解析:[單選題]35.()衡量給定的特征區(qū)分訓(xùn)練樣本的能力A)信息增益B)語(yǔ)義分析C)詞法分析D)語(yǔ)義抽取答案:A解析:[單選題]36.在使用EM算法的時(shí)候可能會(huì)出現(xiàn)以下什么問(wèn)題(弊端)A)算法快速收斂B)可能達(dá)到局部最優(yōu)C)不確定D)使梯度的計(jì)算更便捷答案:B解析:[單選題]37.如何對(duì)比矩陣是否相等A)c=tf.greater(a,b)B)a=tf.subtract(a,b)C)b=tf.equal(a,b)D)d=tf.matmul(a,b)答案:C解析:[單選題]38.以下四個(gè)模型中哪個(gè)不屬于判別式式模型A)MEMMB)CRFC)HMMD)SVM答案:C解析:[單選題]39.以下四種說(shuō)法當(dāng)中,關(guān)于GBDT的描述說(shuō)法正確的有哪些A)GBDT是并行生成B)GBDT則是多棵樹累加之和C)GBDT對(duì)異常值比較敏感D)GBDT是減少模型的偏差答案:A解析:[單選題]40.語(yǔ)料庫(kù)以語(yǔ)料庫(kù)結(jié)構(gòu)進(jìn)行劃分可分為()A)通用語(yǔ)料庫(kù)與專用語(yǔ)料庫(kù)B)平衡結(jié)構(gòu)語(yǔ)料庫(kù)與自然隨機(jī)結(jié)構(gòu)語(yǔ)料庫(kù)C)共時(shí)語(yǔ)料庫(kù)與歷時(shí)語(yǔ)料庫(kù)D)單媒體語(yǔ)料庫(kù)與多媒體語(yǔ)料庫(kù)答案:B解析:[單選題]41.國(guó)際碼每一橫行叫一個(gè)區(qū),每個(gè)區(qū)有()位。A)94B)96C)97D)99答案:A解析:[單選題]42.L1正則化表示為A)A:各個(gè)參數(shù)的平方和B)B:是模型參數(shù)中非零參數(shù)的個(gè)數(shù)C)C:各個(gè)參數(shù)絕對(duì)值之和D)D:以上都不對(duì)答案:C解析:[單選題]43.我們?cè)谧鲆粋€(gè)線性回歸時(shí)候,如果(x,y)的值為(5,6),(6,7),(7,8),(8,9),則y與x之間的回歸直線方程為A)y=x+1B)y=x+2C)y=x-1D)y=2x+1答案:A解析:第2部分:多項(xiàng)選擇題,共21題,每題至少兩個(gè)正確答案,多選或少選均不得分。[多選題]44.以下四個(gè)描述中,對(duì)于馬爾科夫模型的描述正確的是?A)馬爾科夫模型的基本假設(shè)是人事變動(dòng)概率B)用以估計(jì)歷年年平均調(diào)動(dòng)概率的周期越長(zhǎng),根據(jù)過(guò)去所推測(cè)未來(lái)人員變動(dòng)就越準(zhǔn)確C)采用馬爾科夫模型可以預(yù)測(cè)組織任何時(shí)刻點(diǎn)上的各類人員分布狀況D)模型中的轉(zhuǎn)移率是指組織中人員進(jìn)行水平調(diào)動(dòng)的比率,不包含被提升或降級(jí)的人數(shù)答案:AB解析:[多選題]45.目前情感分類的研究主要有()兩種方法A)基于情感詞典的情感分析B)基于機(jī)器學(xué)習(xí)的情感分類C)基于規(guī)則的情感分析D)基于統(tǒng)計(jì)的情感分析答案:AB解析:[多選題]46.無(wú)監(jiān)督學(xué)習(xí)的特點(diǎn)有()A)目標(biāo)明確B)不需要帶標(biāo)簽的數(shù)據(jù)C)效果容易評(píng)估D)無(wú)法量化效果答案:BD解析:[多選題]47.Seq2Seq模型應(yīng)用的范圍包括以下()A)機(jī)器翻譯B)文本摘要C)閱讀理解D)語(yǔ)音識(shí)別答案:ABCD解析:[多選題]48.LDA模型是應(yīng)用比較廣泛的一種主題模型,包含()3層結(jié)構(gòu)。A)詞B)主題C)語(yǔ)料庫(kù)D)文檔答案:ABD解析:[多選題]49.生成式Generativemodel模型相比判別式Discriminativemodel模型的優(yōu)點(diǎn)有哪些?A)適用較多類別的識(shí)別B)能更充分利用先驗(yàn)知識(shí)C)分類邊界更靈活D)研究單類問(wèn)題靈活性強(qiáng)答案:BD解析:[多選題]50.關(guān)于邏輯回歸的應(yīng)用,以下幾個(gè)選項(xiàng)中描述正確的是?A)各種分類場(chǎng)景B)某搜索引擎廠的廣告CTR預(yù)估基線版是LR。C)某電商搜索排序/廣告CTR預(yù)估基線版是LR。D)某電商的購(gòu)物搭配推薦用了大量LR。答案:ABCD解析:[多選題]51.以下哪些是樸素貝葉斯算法的特點(diǎn)()A)低偏差B)高方差C)低方差D)高偏差答案:CD解析:[多選題]52.基于粒度的表示方式有A)長(zhǎng)文本表示B)離散表示C)詞表示D)基于聚類表示答案:AC解析:[多選題]53.GPT是NLP中常用的預(yù)訓(xùn)練模型,下邊關(guān)于GPT模型說(shuō)法正確的有哪些A)使用了雙向的TransformerB)使用了單向的TransformerC)使用了雙向LSTMD)解決了一詞多義的問(wèn)題答案:BD解析:[多選題]54.如何去構(gòu)建一顆決策樹A)構(gòu)建根節(jié)點(diǎn)B)構(gòu)建葉子節(jié)點(diǎn)C)選擇新特征繼續(xù)分割D)最終子集都被分到葉子節(jié)點(diǎn)上答案:ABCD解析:[多選題]55.信息增益是由什么求來(lái)的A)信息熵B)信息增益比C)條件熵D)基尼系數(shù)答案:AC解析:[多選題]56.ID3,C4.5,CART三個(gè)決策樹的區(qū)別有哪些A)ID3用信息增益作為選擇特征的準(zhǔn)則B)C4.5通過(guò)信息增益比作為選取特征的準(zhǔn)則C)CART通過(guò)使用基尼系數(shù)作為選取特征的準(zhǔn)則D)以上都正確答案:ABCD解析:[多選題]57.如果我們想做一個(gè)非線性的變換,可以使用以下哪種方式A)L1B)ReluC)SigmoidD)L2答案:BC解析:[多選題]58.ID3算法的實(shí)現(xiàn)步驟有哪些A)從根結(jié)點(diǎn)(rootnode)開始,對(duì)結(jié)點(diǎn)計(jì)算所有可能的特征的信息增益,選擇信息增益最大的特征作為結(jié)點(diǎn)的特征。B)由該特征的不同取值建立子節(jié)點(diǎn),再對(duì)子結(jié)點(diǎn)遞歸地調(diào)用以上方法,構(gòu)建決策樹;直到所有特征的信息增益均很小或沒有特征可以選擇為止;C)最后得到一個(gè)決策樹。D)不確定答案:ABC解析:[多選題]59.人工智能機(jī)器人AlphaGo戰(zhàn)勝了圍棋大師,它程序中使用到的技術(shù)有哪些?A)決策神經(jīng)網(wǎng)絡(luò)B)評(píng)估神經(jīng)網(wǎng)絡(luò)C)歷史經(jīng)驗(yàn)D)線性代數(shù)答案:AB解析:[多選題]60.對(duì)情感分析的研究到目前為止主要集中在以下哪些方面?()A)識(shí)別給定的文本實(shí)體是主觀的還是客觀的B)識(shí)別文本的前后聯(lián)系C)識(shí)別文本的含義D)識(shí)別主觀的文本的極性答案:AD解析:[多選題]61.語(yǔ)料庫(kù)的規(guī)范化是指()A)文本描述語(yǔ)言規(guī)范B)標(biāo)注語(yǔ)言規(guī)范C)文本格式規(guī)范D)便于實(shí)現(xiàn)不同語(yǔ)料庫(kù)的集成答案:ABCD解析:[多選題]62.在NLP中詞袋子模型可以編碼文本,那么它有什么優(yōu)缺點(diǎn)A)A簡(jiǎn)單方便快速B)B在語(yǔ)料充足的前提下,對(duì)于簡(jiǎn)單自然語(yǔ)言處理任務(wù)效果不錯(cuò)C)C準(zhǔn)確率較低D)D無(wú)法關(guān)注詞語(yǔ)間的順序答案:ABCD解析:[多選題]63.深度學(xué)習(xí)應(yīng)用面非常的廣泛,在自然語(yǔ)言中它有哪些應(yīng)用A)推薦系統(tǒng)B)文本分類C)機(jī)器創(chuàng)作D)機(jī)器翻譯答案:ABCD解析:[多選題]64.LightGBM分別在哪些方面做了提升A)速度快B)支持分布式C)占用內(nèi)存小D)代碼清晰易懂答案:ABCD解析:第3部分:判斷題,共26題,請(qǐng)判斷題目是否正確。[判斷題]65.最基礎(chǔ)的Seq2Seq模型包含了3個(gè)部分,即編碼器、解碼器和連接兩者的中間狀態(tài)向量。對(duì)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]66.EM是一種迭代算法,用于含有隱變量的概率模型參數(shù)的極大似然估計(jì)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]67.自然語(yǔ)言處理可以定義為研究在人與人交際以及與計(jì)算交際中的語(yǔ)言問(wèn)題的一門學(xué)科,自然語(yǔ)言處理要言之表型,建議計(jì)算框架來(lái)實(shí)現(xiàn)這樣的語(yǔ)言模型,根據(jù)這樣的語(yǔ)言模型設(shè)計(jì)各種系統(tǒng)的評(píng)測(cè)技術(shù)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]68.KNN是一種基于劃分的聚類A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]69.AlBert在參數(shù)量上進(jìn)行了調(diào)整,共享了參數(shù),因此速度會(huì)比BERT更快A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]70.弱分類器一般會(huì)選擇為CARTTREE(也就是分類回歸樹)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]71.平行語(yǔ)料庫(kù)的目的側(cè)重于特定語(yǔ)言現(xiàn)象的對(duì)比A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]72.人工智能的三大學(xué)派包括連接主義,符號(hào)主義和行為主義A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]73.神經(jīng)網(wǎng)絡(luò)的訓(xùn)練并不需要大量的數(shù)據(jù)A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]74.語(yǔ)義分析技術(shù)主要來(lái)自數(shù)理邏輯和語(yǔ)義學(xué)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]75.文本離散表示會(huì)導(dǎo)致無(wú)法理解諸如?我為你鼓掌?和?你為我鼓掌?兩個(gè)語(yǔ)句之間的區(qū)別。對(duì)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]76.最大熵模型又被稱作Logistic模型、Exponential模型、Log-linear模型等()A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]77.機(jī)器學(xué)習(xí)可以自動(dòng)完成推理預(yù)測(cè)和模型訓(xùn)練階段A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]78.為了進(jìn)行中文的分詞或者詞性標(biāo)注等處理,可以使用的導(dǎo)入模塊語(yǔ)句為importjieba。對(duì)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]79.CNN可以做文字上的特征提取A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]80.Skip-Gram模型與CBOW模型相反,是根據(jù)目標(biāo)詞預(yù)測(cè)其上下文。對(duì)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]81.隨著深度學(xué)習(xí)技術(shù)的廣泛應(yīng)用,基于神經(jīng)網(wǎng)絡(luò)的文本向量化已經(jīng)成為NLP領(lǐng)域的研究熱點(diǎn),尤其是以詞為單位的向量化。對(duì)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]82.與Skip-gram模型只給定一個(gè)詞語(yǔ)預(yù)測(cè)上下文概率分布類似,DBOW模型輸入只有段落向量。對(duì)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]83.程序語(yǔ)言設(shè)計(jì)中不存在歧義,而自然語(yǔ)言處理中存在復(fù)雜的歧義。()A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]84.隨著批量數(shù)目增大,處理相同數(shù)據(jù)量的速度越快。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]85.可以把訓(xùn)練集分割為小一點(diǎn)的子集訓(xùn)練,這些子集被取名為mini-batchA)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]86.樸素貝葉斯基于概率論的分類算法A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]87.詞頻TF注重詞在文檔中的出現(xiàn)頻次,沒有考慮到詞在其他文檔下的出現(xiàn)頻次,缺乏對(duì)文檔的區(qū)分能力。對(duì)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]88.基本式是必用格組成的框架機(jī)器所變換的句式A)正確B)

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論