深度學(xué)習(xí)智慧樹(shù)知到期末考試答案2024年_第1頁(yè)
深度學(xué)習(xí)智慧樹(shù)知到期末考試答案2024年_第2頁(yè)
深度學(xué)習(xí)智慧樹(shù)知到期末考試答案2024年_第3頁(yè)
深度學(xué)習(xí)智慧樹(shù)知到期末考試答案2024年_第4頁(yè)
深度學(xué)習(xí)智慧樹(shù)知到期末考試答案2024年_第5頁(yè)
已閱讀5頁(yè),還剩2頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

深度學(xué)習(xí)智慧樹(shù)知到期末考試答案2024年深度學(xué)習(xí)目前深度學(xué)習(xí)采用的技術(shù)和下列()項(xiàng)智能技術(shù)的關(guān)系最緊密。

A:符號(hào)智能B:神經(jīng)網(wǎng)絡(luò)C:不確定智能D:知識(shí)表示答案:神經(jīng)網(wǎng)絡(luò)下面屬于BP的缺點(diǎn)的是()

A:BP神經(jīng)網(wǎng)絡(luò)結(jié)果選擇不一B:BP網(wǎng)絡(luò)不會(huì)受到訓(xùn)練能力影響C:BP神經(jīng)網(wǎng)絡(luò)算法的收斂速度慢D:適應(yīng)大部分?jǐn)?shù)據(jù)訓(xùn)練模式答案:BP神經(jīng)網(wǎng)絡(luò)算法的收斂速度慢###BP神經(jīng)網(wǎng)絡(luò)結(jié)果選擇不一計(jì)算圖從創(chuàng)建到真正執(zhí)行的過(guò)程中經(jīng)歷了多次處理,具體包括以下哪些步驟()

A:計(jì)算圖分配B:計(jì)算圖剪枝C:計(jì)算圖切分D:計(jì)算圖優(yōu)化答案:計(jì)算圖剪枝###計(jì)算圖分配###計(jì)算圖優(yōu)化###計(jì)算圖切分BP算法的兩個(gè)階段()

A:反向輸出傳播B:輸入模式正向計(jì)算傳播C:循環(huán)記憶訓(xùn)練D:誤差反向傳播E:學(xué)習(xí)結(jié)果判別答案:輸入模式正向計(jì)算傳播###誤差反向傳播人工神經(jīng)網(wǎng)絡(luò)的基本特征有()

A:非局限性B:非線性C:非凸性D:非常定性答案:非凸性###非局限性###非常定性###非線性VGG網(wǎng)絡(luò)架構(gòu)中,采用的卷積核的大小為()

A:5x5B:3x3C:11x11D:1x1答案:3x3###1x1VGG網(wǎng)絡(luò)架構(gòu)中,常用的架構(gòu)為()

A:VGG17B:VGG16C:VGG18D:VGG19答案:VGG16###VGG19CycleGAN的生成器網(wǎng)絡(luò)結(jié)構(gòu)由編碼層(Encoding)和轉(zhuǎn)換層(Transformation)構(gòu)成。()

A:錯(cuò)B:對(duì)答案:錯(cuò)TensorFlow中引入了執(zhí)行流概念。對(duì)計(jì)算圖中的每個(gè)節(jié)點(diǎn),執(zhí)行器將進(jìn)行流分配,無(wú)數(shù)據(jù)依賴(lài)的節(jié)點(diǎn)分配到同一流中,有數(shù)據(jù)依賴(lài)的節(jié)點(diǎn)分配到不同流中。()

A:對(duì)B:錯(cuò)答案:錯(cuò)TensorFlow中使用計(jì)算圖來(lái)描述機(jī)器學(xué)習(xí)算法的計(jì)算過(guò)程,展示機(jī)器學(xué)習(xí)算法中所有的計(jì)算和狀態(tài)。()

A:對(duì)B:錯(cuò)答案:對(duì)TensorFlow提供了本地分布式執(zhí)行和分布式本地執(zhí)行兩種執(zhí)行方式。()

A:對(duì)B:錯(cuò)答案:對(duì)數(shù)據(jù)預(yù)處理對(duì)數(shù)據(jù)進(jìn)行整合,分訓(xùn)練營(yíng)、測(cè)試集以及驗(yàn)證集等。()

A:對(duì)B:錯(cuò)答案:對(duì)TensorFlow中不同設(shè)備和機(jī)器間的通信都由Send和Recv節(jié)點(diǎn)進(jìn)行,而Send和Recv使用Rendezvous機(jī)制完成數(shù)據(jù)交互Rendezvous是一個(gè)基于生產(chǎn)消費(fèi)者—消費(fèi)生產(chǎn)者模型設(shè)計(jì)的抽象類(lèi)。()

A:對(duì)B:錯(cuò)答案:對(duì)占位符是TensorFlow特有的數(shù)據(jù)結(jié)構(gòu),它本身沒(méi)有初值和內(nèi)存分配。()

A:錯(cuò)B:對(duì)答案:錯(cuò)在DCGAN中,判別器中使用的激活函數(shù)為L(zhǎng)eakyReLu。()

A:錯(cuò)B:對(duì)答案:對(duì)ResNet網(wǎng)絡(luò)結(jié)構(gòu)中,包括兩種類(lèi)型的殘差塊,實(shí)線殘差結(jié)構(gòu)和虛線殘差結(jié)構(gòu)。()

A:對(duì)B:錯(cuò)答案:對(duì)自動(dòng)求導(dǎo)是一種介于數(shù)值符號(hào)求導(dǎo)和符號(hào)數(shù)值求導(dǎo)之間的方法(類(lèi)似于兩種方法的融合)。()

A:錯(cuò)B:對(duì)答案:對(duì)算子是TensorFlow的基本單元。()

A:錯(cuò)B:對(duì)答案:對(duì)設(shè)備是TensorFlow運(yùn)行時(shí)的實(shí)體,每個(gè)設(shè)備都負(fù)責(zé)一個(gè)子圖的運(yùn)算。()

A:錯(cuò)B:對(duì)答案:對(duì)神經(jīng)網(wǎng)絡(luò)中各個(gè)隱藏層能提取出和人類(lèi)看到的一樣的特征。()

A:錯(cuò)B:對(duì)答案:錯(cuò)AlexNet有兩個(gè)較大的創(chuàng)新點(diǎn),一個(gè)是使用了Relu激活函數(shù),加快了模型的學(xué)習(xí)過(guò)程,另一個(gè)就是加入了dropout,可以防止模型的過(guò)擬合。()

A:錯(cuò)B:對(duì)答案:對(duì)程序開(kāi)發(fā)過(guò)程中,常見(jiàn)的編程方式有兩種:命令聲明式編程和聲明命令式編程。()

A:對(duì)B:錯(cuò)答案:對(duì)VGG模型的常用架構(gòu)是VGG16(數(shù)字“16”代表網(wǎng)絡(luò)有16個(gè)權(quán)重層()

A:錯(cuò)B:對(duì)答案:對(duì)人工神經(jīng)網(wǎng)絡(luò)層數(shù)增多后通常會(huì)遇到梯度爆炸、梯度出現(xiàn)等問(wèn)題。()

A:錯(cuò)B:對(duì)答案:錯(cuò)目標(biāo)檢測(cè)是一類(lèi)重要的計(jì)算機(jī)視覺(jué)算法,這類(lèi)算法可以同時(shí)完成目標(biāo)提取和目標(biāo)提煉。()

A:錯(cuò)B:對(duì)答案:錯(cuò)DenseNets有幾個(gè)引入注目的優(yōu)勢(shì):緩解了梯度消失、加強(qiáng)了特征傳播、增強(qiáng)了特征復(fù)用和通過(guò)較少的通道數(shù)減少參數(shù)量。()

A:錯(cuò)B:對(duì)答案:對(duì)不同框架的區(qū)別為網(wǎng)絡(luò)結(jié)構(gòu)優(yōu)化器和函數(shù)等等都是大同小異()

A:對(duì)B:錯(cuò)答案:對(duì)一個(gè)完整的人工神經(jīng)網(wǎng)絡(luò)包括多層分析層和多層隱藏層。()

A:錯(cuò)B:對(duì)答案:錯(cuò)單個(gè)人工神經(jīng)元的動(dòng)作特征是空間相加性。()

A:對(duì)B:錯(cuò)答案:錯(cuò)人工神經(jīng)網(wǎng)絡(luò)發(fā)展大致經(jīng)歷過(guò)(3)個(gè)階段()

A:錯(cuò)B:對(duì)答案:錯(cuò)人工神經(jīng)網(wǎng)絡(luò)訓(xùn)練的目的就是使得損失函數(shù)最小化。()

A:對(duì)B:錯(cuò)答案:對(duì)一個(gè)5x5卷積核需要25個(gè)參數(shù),兩個(gè)3x3的卷積核需要18個(gè)參數(shù)。()

A:錯(cuò)B:對(duì)答案:對(duì)人工神經(jīng)網(wǎng)絡(luò)(ANN)可以處理冗余特征。()

A:錯(cuò)B:對(duì)答案:對(duì)計(jì)算圖優(yōu)化的哪種典型優(yōu)化方法是主要針對(duì)GPU運(yùn)算的?()

A:ArithmeticB:LayoutC:ConstFoldD:Remapper答案:AI參考:正確選項(xiàng)是【D:Remapper】。\n\nRemapper是一種典型的計(jì)算圖優(yōu)化方法,主要用于針對(duì)GPU運(yùn)算進(jìn)行優(yōu)化。它通過(guò)對(duì)計(jì)算圖中的節(jié)點(diǎn)進(jìn)行重新映射,優(yōu)化計(jì)算圖的布局和拓?fù)浣Y(jié)構(gòu),以提高GPU的并行運(yùn)算效率。其他選項(xiàng)如Arithmetic、Layout和ConstFold雖然也是計(jì)算圖優(yōu)化方法,但它們并不是主要針對(duì)GPU運(yùn)算的優(yōu)化方法。'深度學(xué)習(xí)是在人工智能領(lǐng)域的哪一個(gè)研究流派基礎(chǔ)上發(fā)展起來(lái)的()

A:功能模擬B:行為模擬C:結(jié)構(gòu)模擬D:機(jī)制模擬答案:AI參考:正確選項(xiàng)是【C:結(jié)構(gòu)模擬】\n\n深度學(xué)習(xí)是在人工智能領(lǐng)域基于結(jié)構(gòu)模擬研究流派基礎(chǔ)上發(fā)展起來(lái)的。深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個(gè)分支,其目的在于模仿人腦神經(jīng)系統(tǒng),使用層級(jí)結(jié)構(gòu)來(lái)處理和表征數(shù)據(jù),以實(shí)現(xiàn)對(duì)復(fù)雜特征的建模。通過(guò)結(jié)構(gòu)模擬,深度學(xué)習(xí)算法可以在輸入和輸出之間建立更加復(fù)雜和精細(xì)的映射關(guān)系,從而實(shí)現(xiàn)對(duì)傳統(tǒng)機(jī)器學(xué)習(xí)方法無(wú)法處理的任務(wù)的優(yōu)化和提升。'TensorFlow的主要設(shè)計(jì)原則不包括:()

A:高性能B:易開(kāi)發(fā)C:可移植D:健壯性答案:AI參考:正確選項(xiàng)是B:易開(kāi)發(fā)。\n\nTensorFlow的主要設(shè)計(jì)原則包括高性能、可移植性和健壯性,這三個(gè)原則都是為了方便用戶(hù)使用和推廣TensorFlow,而不是為了簡(jiǎn)化開(kāi)發(fā)過(guò)程。雖然TensorFlow也提供了一些簡(jiǎn)化的API,但總體上來(lái)說(shuō),它更注重功能和靈活性,而不是易開(kāi)發(fā)。因此,B選項(xiàng)是不正確的。'機(jī)器學(xué)習(xí)方法如果按照使用訓(xùn)練數(shù)據(jù)的標(biāo)簽信息的情況,可以分為無(wú)監(jiān)督學(xué)習(xí)、監(jiān)督學(xué)習(xí)和()。

A:啟發(fā)式學(xué)習(xí)B:半監(jiān)督學(xué)習(xí)C:有教師學(xué)習(xí)D:無(wú)教師學(xué)習(xí)答案:AI參考:正確選項(xiàng)是B:半監(jiān)督學(xué)習(xí)。\n\n機(jī)器學(xué)習(xí)方法按照使用訓(xùn)練數(shù)據(jù)的標(biāo)簽信息的情況,可以分為無(wú)監(jiān)督學(xué)習(xí)、監(jiān)督學(xué)習(xí)和半監(jiān)督學(xué)習(xí)。其中,無(wú)監(jiān)督學(xué)習(xí)是不使用標(biāo)簽信息,通過(guò)數(shù)據(jù)本身的結(jié)構(gòu)和關(guān)系進(jìn)行學(xué)習(xí);監(jiān)督學(xué)習(xí)是使用標(biāo)簽信息,通過(guò)輸入的數(shù)據(jù)和標(biāo)簽的匹配關(guān)系進(jìn)行學(xué)習(xí);而半監(jiān)督學(xué)習(xí)則是使用部分有標(biāo)簽的數(shù)據(jù)進(jìn)行學(xué)習(xí),利用了部分有標(biāo)簽數(shù)據(jù)和部分無(wú)標(biāo)簽數(shù)據(jù)的優(yōu)勢(shì),進(jìn)行更準(zhǔn)確的學(xué)習(xí)。因此,選項(xiàng)B是正確答案。其他選項(xiàng)A、C、D都不符合機(jī)器學(xué)習(xí)方法的分類(lèi)。'下列編程框架中,哪種出現(xiàn)最早:()

A:CaffeB:MXNetC:TensorFlowD:PyTorch答案:AI參考:出現(xiàn)最早的編程框架是:Caffe。\n\n選項(xiàng)A、B、D都屬于近年來(lái)比較流行的深度學(xué)習(xí)框架,而Caffe是最早出現(xiàn)的深度學(xué)習(xí)框架之一,被廣泛應(yīng)用于學(xué)術(shù)研究和工業(yè)生產(chǎn)中。相比之下,MXNet、TensorFlow和PyTorch都是在Caffe之后出現(xiàn)的。因此,答案為A:Caffe。'TensorFlow程序簡(jiǎn)單來(lái)說(shuō)包括兩部分:構(gòu)建計(jì)算圖和()

A:解析計(jì)算圖B:分配計(jì)算圖C:優(yōu)化計(jì)算圖D:執(zhí)行計(jì)算圖答案:AI參考:正確選項(xiàng)是【執(zhí)行計(jì)算圖】。TensorFlow程序主要由兩部分組成:構(gòu)建計(jì)算圖和執(zhí)行計(jì)算圖。構(gòu)建計(jì)算圖是指創(chuàng)建TensorFlow計(jì)算結(jié)構(gòu)的過(guò)程,包括定義變量、創(chuàng)建操作等;執(zhí)行計(jì)算圖則是將構(gòu)建的計(jì)算圖運(yùn)行起來(lái),實(shí)現(xiàn)相應(yīng)的計(jì)算。在執(zhí)行計(jì)算圖的過(guò)程中,TensorFlow會(huì)自動(dòng)優(yōu)化計(jì)算圖以達(dá)到高效運(yùn)行的目的。因此,選項(xiàng)C“優(yōu)化計(jì)算圖”雖然與TensorFlow優(yōu)化有關(guān),但不是TensorFlow程序的核心部分。其他選項(xiàng)都不完全符合題意。因此,正確答案是執(zhí)行計(jì)算圖(D)。'進(jìn)行語(yǔ)音識(shí)別時(shí),最適合的神經(jīng)網(wǎng)絡(luò)是()

A:反饋神經(jīng)網(wǎng)絡(luò)B:生成對(duì)抗網(wǎng)絡(luò)C:循環(huán)神經(jīng)網(wǎng)絡(luò)D:卷積神經(jīng)網(wǎng)絡(luò)答案:AI參考:進(jìn)行語(yǔ)音識(shí)別時(shí),最適合的神經(jīng)網(wǎng)絡(luò)是循環(huán)神經(jīng)網(wǎng)絡(luò)(C)。循環(huán)神經(jīng)網(wǎng)絡(luò)是一種專(zhuān)門(mén)用于處理序列數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò),特別適合于處理語(yǔ)音、文本等時(shí)間序列數(shù)據(jù)。它們能夠捕捉到輸入序列中的長(zhǎng)期依賴(lài)關(guān)系,因此在語(yǔ)音識(shí)別等任務(wù)中表現(xiàn)優(yōu)異。其他選項(xiàng)中,反饋神經(jīng)網(wǎng)絡(luò)(A)通常用于處理反饋控制系統(tǒng)中的信號(hào),生成對(duì)抗網(wǎng)絡(luò)(B)通常用于圖像識(shí)別等任務(wù),卷積神經(jīng)網(wǎng)絡(luò)(D)則是一種適用于圖像處理和計(jì)算機(jī)視覺(jué)任務(wù)的神經(jīng)網(wǎng)絡(luò)。'以下哪一項(xiàng)是指人工神經(jīng)網(wǎng)絡(luò)的兩種主要功能,也是學(xué)習(xí)算法與學(xué)習(xí)規(guī)則的目標(biāo)。()

A:搜索與存儲(chǔ)B:搜索與映射C:建模與存儲(chǔ)D:存儲(chǔ)與映射答案:AI參考:正確答案是D:存儲(chǔ)與映射。\n\n人工神經(jīng)網(wǎng)絡(luò)的主要功能是存儲(chǔ)和映射,其中存儲(chǔ)功能是指將數(shù)據(jù)和信息存儲(chǔ)在神經(jīng)網(wǎng)絡(luò)中,而映射功能則是將輸入數(shù)據(jù)映射到輸出數(shù)據(jù),通過(guò)學(xué)習(xí)算法與學(xué)習(xí)規(guī)則來(lái)調(diào)整神經(jīng)元之間的連接強(qiáng)度,從而實(shí)現(xiàn)更準(zhǔn)確的映射。因此,選項(xiàng)D是正確的答案。選項(xiàng)A和B提到的搜索與存儲(chǔ)通常是指人工神經(jīng)網(wǎng)絡(luò)的設(shè)計(jì)和實(shí)現(xiàn)過(guò)程中需要解決的問(wèn)題,而選項(xiàng)C提到的建模與存儲(chǔ)則是機(jī)器學(xué)習(xí)和人工智能領(lǐng)域中的通用術(shù)語(yǔ),并不特指人工神經(jīng)網(wǎng)絡(luò)的功能。'神經(jīng)網(wǎng)絡(luò)常用的激活函數(shù)之一,ReLU函數(shù)的公式定義為()。

A:B:C:D:答案:AI參考:正確答案是D:ReLU函數(shù)的公式定義為f(x)=max(0,x)。ReLU(RectifiedLinearUnit)是一種常用的神經(jīng)網(wǎng)絡(luò)激活函數(shù),其作用是將負(fù)輸入置零,將正輸入保持不變。因此,ReLU函數(shù)的公式定義為f(x)=max(0,x),表示當(dāng)x大于等于零時(shí),輸出x;當(dāng)x小于零時(shí),輸出零。'人工神經(jīng)網(wǎng)絡(luò)的英文()

A:DNNB:CNNC:ANND:BNN答案:AI參考:正確選項(xiàng)是【C:ANN】。\n\n人工神經(jīng)網(wǎng)絡(luò)(ArtificialNeuralNetwork)的英文縮寫(xiě)為ANN,因此選項(xiàng)C是正確答案。A選項(xiàng)DNN是深度神經(jīng)網(wǎng)絡(luò)(DeepNeuralNetwork)的簡(jiǎn)稱(chēng),B選項(xiàng)CNN是卷積神經(jīng)網(wǎng)絡(luò)(ConvolutionalNeuralNetwork)的簡(jiǎn)稱(chēng),D選項(xiàng)BNN是不正確的拼寫(xiě)方式。'深度學(xué)習(xí)目前遇到的最大問(wèn)題是()

A:學(xué)習(xí)能力弱B:解釋能力弱C:不能解決識(shí)別分類(lèi)問(wèn)題D:網(wǎng)絡(luò)結(jié)構(gòu)簡(jiǎn)單答案:AI參考:正確選項(xiàng)是【解釋能力弱】。\n\n深度學(xué)習(xí)目前遇到的最大問(wèn)題是解釋能力弱,因?yàn)樯疃葘W(xué)習(xí)模型是由大量參數(shù)和復(fù)雜的網(wǎng)絡(luò)結(jié)構(gòu)組成的,這些參數(shù)和結(jié)構(gòu)很難理解,導(dǎo)致模型的行為和決策難以解釋。因此,在某些情況下,深度學(xué)習(xí)模型的可解釋性是一個(gè)重要的問(wèn)題。'采用梯度下降法更新模型參數(shù)時(shí),求導(dǎo)是非常重要的計(jì)算步驟。求導(dǎo)方法之一的“符號(hào)求導(dǎo)”存在的主要缺點(diǎn)是()

A:代碼無(wú)法通用或復(fù)用B:計(jì)算量巨大C:會(huì)引入舍入誤差和截?cái)嗾`差D:出現(xiàn)“表達(dá)式膨脹”答案:AI參考:在采用梯度下降法更新模型參數(shù)時(shí),求導(dǎo)是非常重要的計(jì)算步驟。其中,“符號(hào)求導(dǎo)”是一種求導(dǎo)方法,但其存在的主要缺點(diǎn)是會(huì)導(dǎo)致“表達(dá)式膨脹”。這意味著在使用符號(hào)求導(dǎo)時(shí),如果涉及的表達(dá)式非常復(fù)雜或包含大量的變量,可能會(huì)導(dǎo)致求導(dǎo)后的表達(dá)式變得非常大,難以理解和處理。因此,選項(xiàng)D“出現(xiàn)“表達(dá)式膨脹””是正確答案。其他選項(xiàng)如代碼無(wú)法通用或復(fù)用、計(jì)算量巨大、會(huì)引入舍入誤差和截?cái)嗾`差,雖然也是求導(dǎo)方法的一些潛在問(wèn)題,但并不是“符號(hào)求導(dǎo)”所特有的缺點(diǎn)。'常規(guī)深度學(xué)習(xí)模型可以認(rèn)為是人工智能的智能模擬方法中的()

A:功能模擬B:機(jī)制模擬C:結(jié)構(gòu)模擬D:行為模擬答案:AI參考:正確選項(xiàng)是【C:結(jié)構(gòu)模擬】。\n\n常規(guī)深度學(xué)習(xí)模型是對(duì)人工智能的一種結(jié)構(gòu)模擬方法,通過(guò)構(gòu)建神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)來(lái)模擬人類(lèi)神經(jīng)系統(tǒng)的結(jié)構(gòu)和功能,從而實(shí)現(xiàn)智能行為。因此,常規(guī)深度學(xué)習(xí)模型屬于結(jié)構(gòu)模擬方法,而非功能、機(jī)制或行為模擬方法。'1.對(duì)分類(lèi)算法的效果進(jìn)行評(píng)估時(shí),若有則其中,召回率是指(

)。

A:a/(a+b)B:c/(a+c)C:a/(a+c)D:b/(a+b)

答案:AI參考:正確答案是C:a/(a+c)。\n\n根據(jù)題意,分類(lèi)算法的效果評(píng)估中,召回率是指被正確分類(lèi)的樣本數(shù)占總樣本數(shù)的比例,即a/(a+c)。因此,選項(xiàng)C是正確的。其他選項(xiàng)A、B、D都

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論