2023年Hadoop試題試題庫完整_第1頁
2023年Hadoop試題試題庫完整_第2頁
2023年Hadoop試題試題庫完整_第3頁
2023年Hadoop試題試題庫完整_第4頁
2023年Hadoop試題試題庫完整_第5頁
已閱讀5頁,還剩18頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

1.以下哪一項(xiàng)不屬于Hadoop可以運(yùn)營的模式__(dá)_C___。A.單機(jī)(本地)模式B.偽分布式模式C.互聯(lián)模式D.分布式模式2.Hadoop的作者是下面哪一位__B___(dá)_。A.MartinFowlerB.DougcuttingC.KentBeckD.GraceHopper3.下列哪個(gè)程序通常與NameNode在同一個(gè)節(jié)點(diǎn)啟動__D___。A.TaskTrackerB.DataNodeC.SecondaryNameNodeD.Jobtracker4.HDFS默認(rèn)BlockSize的大小是___B___。A.32MBB.64MBC.128MBD.256M5.下列哪項(xiàng)通常是集群的最重要瓶頸___(dá)_C__。A.CPUB.網(wǎng)絡(luò)C.磁盤IOD.內(nèi)存6.下列關(guān)于MapReduce說法不對的的是__(dá)___C_。A.MapReduce是一種計(jì)算框架B.MapReduce來源于google的學(xué)術(shù)論文C.MapReduce程序只能用java語言編寫D.MapReduce隱藏了并行計(jì)算的細(xì)節(jié),方便使用8.HDFS是基于流數(shù)據(jù)模式訪問和解決超大文獻(xiàn)的需求而開發(fā)的,具有高容錯(cuò)、高可靠性、高可擴(kuò)展性、高吞吐率等特性,適合的讀寫任務(wù)是__(dá)D____。A.一次寫入,少次讀B.多次寫入,少次讀C.多次寫入,多次讀D.一次寫入,多次讀9.HBase依靠__A____存儲底層數(shù)據(jù)。A.HDFSB.HadoopC.MemoryD.MapReduce10.HBase依賴___(dá)D___提供強(qiáng)大的計(jì)算能力。A.ZookeeperB.ChubbyC.RPCD.MapReduce11.HBase依賴__(dá)_A___提供消息通信機(jī)制A.ZookeeperB.ChubbyC.RPCD.Socket12.下面與HDFS類似的框架是___C____?A.NTFSB.FAT32C.GFSD.EXT313.關(guān)于SecondaryNameNode下面哪項(xiàng)是對的的___C___。A.它是NameNode的熱備B.它對內(nèi)存沒有規(guī)定C.它的目的是幫助NameNode合并編輯日記,減少NameNode啟動時(shí)間D.SecondaryNameNode應(yīng)與NameNode部署到一個(gè)節(jié)點(diǎn)14.大數(shù)據(jù)的特點(diǎn)不涉及下面哪一項(xiàng)___D___。A.巨大的數(shù)據(jù)量B.多結(jié)構(gòu)化數(shù)據(jù)C.增長速度快D.價(jià)值密度高HBase測試題1.HBase來源于哪一項(xiàng)?CATheGoogleFileSystemBMapReduceCBigTableDChubby2.下面對HBase的描述哪些是對的的?B、C、DA不是開源的B是面向列的C是分布式的D是一種NoSQL數(shù)據(jù)庫3.HBase依靠()存儲底層數(shù)據(jù)AAHDFSBHadoopCMemoryDMapReduce4.HBase依賴()提供消息通信機(jī)制AAZookee(cuò)perBChubbyCRPCDSocket5.HBase依賴()提供強(qiáng)大的計(jì)算能力DAZookee(cuò)perBChubbyCRPCDMapReduce6.MapReduce與HBase的關(guān)系,哪些描述是對的的?B、CA兩者不可或缺,MapReduce是HBase可以正常運(yùn)營的保證B兩者不是強(qiáng)關(guān)聯(lián)關(guān)系,沒有MapReduce,HBase可以正常運(yùn)營CMapReduce可以直接訪問HBaseD它們之間沒有任何關(guān)系7.下面哪些選項(xiàng)對的描述了HBase的特性?A、B、C、DA高可靠性B高性能C面向列D可伸縮8.下面與Zookeeper類似的框架是?DAProtobufBJavaCKafkaDChubby9.下面與HDFS類似的框架是?CANTFSBFAT32CGFSDEXT310.下面哪些概念是HBase框架中使用的?A、CAHDFSBGridFSCZookee(cuò)perDEXT3第二部分:HBase核心知識點(diǎn)11.LSM含義是?AA日記結(jié)構(gòu)合并樹B二叉樹C平衡二叉樹D基于日記結(jié)構(gòu)的合并樹12.下面對LSM結(jié)構(gòu)描述對的的是?A、CA順序存儲B直接寫硬盤C需要將數(shù)據(jù)Flush到磁盤D是一種搜索平衡樹13.LSM更能保證哪種操作的性能?BA讀B寫C隨機(jī)讀D合并14.LSM的讀操作和寫操作是獨(dú)立的?AA是。B否。CLSM并不區(qū)分讀和寫DLSM中讀寫是同一種操作15.LSM結(jié)構(gòu)的數(shù)據(jù)一方面存儲在()。BA硬盤上B內(nèi)存中C磁盤陣列中D閃存中16HFile數(shù)據(jù)格式中的Data字段用于()。AA存儲實(shí)際的KeyValue數(shù)據(jù)B存儲數(shù)據(jù)的起點(diǎn)C指定字段的長度D存儲數(shù)據(jù)塊的起點(diǎn)17HFile數(shù)據(jù)格式中的MetaIndex字段用于()。DAMeta塊的長度BMeta塊的結(jié)束點(diǎn)CMeta塊數(shù)據(jù)內(nèi)容DMeta塊的起始點(diǎn)18HFile數(shù)據(jù)格式中的Magic字段用于()。AA存儲隨機(jī)數(shù),防止數(shù)據(jù)損壞B存儲數(shù)據(jù)的起點(diǎn)C存儲數(shù)據(jù)塊的起點(diǎn)D指定字段的長度19HFile數(shù)據(jù)格式中的KeyValue數(shù)據(jù)格式,下列選項(xiàng)描述對的的是()。A、DA是byte[]數(shù)組B沒有固定的結(jié)構(gòu)C數(shù)據(jù)的大小是定長的D有固定的結(jié)構(gòu)20HFile數(shù)據(jù)格式中的KeyValue數(shù)據(jù)格式中Value部分是()。CA擁有復(fù)雜結(jié)構(gòu)的字符串B字符串C二進(jìn)制數(shù)據(jù)D壓縮數(shù)據(jù)第三部分:HBase高級應(yīng)用介紹31HBase中的批量加載底層使用()實(shí)現(xiàn)。AAMapReduceBHiveCCoprocessorDBloomFilter32.HBase性能優(yōu)化包含下面的哪些選項(xiàng)?A、B、C、DA讀優(yōu)化B寫優(yōu)化C配置優(yōu)化DJVM優(yōu)化33.Rowkey設(shè)計(jì)的原則,下列哪些選項(xiàng)的描述是對的的?A、B、CA盡量保證越短越好B可以使用漢字C可以使用字符串D自身是無序的34.HBase構(gòu)建二級索引的實(shí)現(xiàn)方式有哪些?A、BAMapReduceBCoprocessorCBloomFilterDFilter35.關(guān)于HBase二級索引的描述,哪些是對的的?A、BA核心是倒排表B二級索引概念是相應(yīng)Rowkey這個(gè)“一級”索引C二級索引使用平衡二叉樹D二級索引使用LSM結(jié)構(gòu)36.下列關(guān)于BloomFilter的描述對的的是?A、CA是一個(gè)很長的二進(jìn)制向量和一系列隨機(jī)映射函數(shù)B沒有誤算率C有一定的誤算率D可以在BloomFilter中刪除元素第四部分:HBase安裝、部署、啟動37.HBase官方版本可以安裝在什么操作系統(tǒng)上?A、B、CACentOSBUbuntuCRedHatDWindows38.HBase虛擬分布式模式需要()個(gè)節(jié)點(diǎn)?AA1B2C3D最少3個(gè)39.HBase分布式模式最佳需要()個(gè)節(jié)點(diǎn)?CA1B2C3D最少關(guān)于hadoop的選擇題1、DougCutting所創(chuàng)建的項(xiàng)目的名稱都受到其家人的啟發(fā),以下項(xiàng)目不是由他創(chuàng)建的項(xiàng)目是A.HadoopB.NutchC.LuceneD.Solr答案:D2、配置Hadoop時(shí),JAVA_HOME包含在哪一個(gè)配置文獻(xiàn)中A.hadoop-default.xmlB.hadoop-env.shC.hadoop-site.xmlD.configuration.xsl答案:B知識點(diǎn):hadoop配置3、Hadoop配置文獻(xiàn)中,hadoop-site.xml顯示覆蓋hadoop-default.xml里的內(nèi)容。在版本0.20中,hadoop-site.xml被分離成三個(gè)XML文獻(xiàn),不涉及A.conf-site.xmlB.mapred-site.xmlC.core-site.xmlD.hdfs-site.xml答案:A知識點(diǎn):hadoop配置4、HDFS默認(rèn)的當(dāng)前工作目錄是/user/$USER,fs.default.name的值需要在哪個(gè)配置文獻(xiàn)內(nèi)說明A.mapred-site.xmlB.core-site.xmlC.hdfs-site.xmlD.以上均不是答案:B知識點(diǎn):hadoop配置5、關(guān)于Hadoop單機(jī)模式和偽分布式模式的說法,對的的是A.兩者都起守護(hù)進(jìn)程,且守護(hù)進(jìn)程運(yùn)營在一臺機(jī)器上B.單機(jī)模式不使用HDFS,但加載守護(hù)進(jìn)程C.兩者都不與守護(hù)進(jìn)程交互,避免復(fù)雜性D.后者比前者增長了HDFS輸入輸出以及可檢查內(nèi)存使用情況答案:D知識點(diǎn):hadoop配置6、下列關(guān)于HadoopAPI的說法錯(cuò)誤的是A.Hadoop的文獻(xiàn)API不是通用的,只用于HDFS文獻(xiàn)系統(tǒng)B.Configuration類的默認(rèn)實(shí)例化方法是以HDFS系統(tǒng)的資源配置為基礎(chǔ)的C.FileStat(yī)us對象存儲文獻(xiàn)和目錄的元數(shù)據(jù)D.FSDataInputStream是java.io.DataInputStream的子類答案:A//HDFS7、HDFS的NameNode負(fù)責(zé)管理文獻(xiàn)系統(tǒng)的命名空間,將所有的文獻(xiàn)和文獻(xiàn)夾的元數(shù)據(jù)保存在一個(gè)文獻(xiàn)系統(tǒng)樹中,這些信息也會在硬盤上保存成以下文獻(xiàn):A.日記B.命名空間鏡像C.兩者都是答案:C知識點(diǎn):8、HDFS的namenode保存了一個(gè)文獻(xiàn)涉及哪些數(shù)據(jù)塊,分布在哪些數(shù)據(jù)節(jié)點(diǎn)上,這些信息也存儲在硬盤上。A.對的B.錯(cuò)誤答案:B知識點(diǎn):在系統(tǒng)啟動的時(shí)候從數(shù)據(jù)節(jié)點(diǎn)收集而成的9、Secondarynamenode就是namenode出現(xiàn)問題時(shí)的備用節(jié)點(diǎn)A.對的B.錯(cuò)誤答案:B知識點(diǎn):它和元數(shù)據(jù)節(jié)點(diǎn)負(fù)責(zé)不同的事情。其重要功能就是周期性將元數(shù)據(jù)節(jié)點(diǎn)的命名空間鏡像文獻(xiàn)和修改日記合并,以防日記文獻(xiàn)過大。合并過后的命名空間鏡像文獻(xiàn)也在Secondarynamenode保存了一份,以防namenode失敗的時(shí)候,可以恢復(fù)。10、出現(xiàn)在datanode的VERSION文獻(xiàn)格式中但不出現(xiàn)在namenode的VERSION文獻(xiàn)格式中的是A.namespaceIDB.storageIDC.storageTypeD.layoutVersion答案:B知識點(diǎn):其他三項(xiàng)是公有的。layoutVersion是一個(gè)負(fù)整數(shù),保存了HDFS的連續(xù)化在硬盤上的數(shù)據(jù)結(jié)構(gòu)的格式版本號;namespaceID是文獻(xiàn)系統(tǒng)的唯一標(biāo)記符,是在文獻(xiàn)系統(tǒng)初次格式化時(shí)生成的;storageType表達(dá)此文獻(xiàn)夾中保存的是數(shù)據(jù)節(jié)點(diǎn)的類型11、Client在HDFS上進(jìn)行文獻(xiàn)寫入時(shí),namenode根據(jù)文獻(xiàn)大小和配置情況,返回部分datanode信息,誰負(fù)責(zé)將文獻(xiàn)劃分為多個(gè)Block,根據(jù)DataNode的地址信息,按順序?qū)懭氲矫恳粋€(gè)DataNode塊A.ClientB.NamenodeC.DatanodeD.Secondarynamenode答案:A知識點(diǎn):HDFS文獻(xiàn)寫入12、HDFS的是基于流數(shù)據(jù)模式訪問和解決超大文獻(xiàn)的需求而開發(fā)的,默認(rèn)的最基本的存儲單位是64M,具有高容錯(cuò)、高可靠性、高可擴(kuò)展性、高吞吐率等特性,適合的讀寫任務(wù)是A.一次寫入,少次讀寫B.多次寫入,少次讀寫C.一次寫入,多次讀寫D.多次寫入,多次讀寫答案:C知識點(diǎn):HDFS特性13、HDFS無法高效存儲大量小文獻(xiàn),想讓它能解決好小文獻(xiàn),比較可行的改善策略不涉及A.運(yùn)用SequenceFile、MapFile、Har等方式歸檔小文獻(xiàn)B.多Master設(shè)計(jì)C.Block大小適當(dāng)調(diào)小D.調(diào)大namenode內(nèi)存或?qū)⑽墨I(xiàn)系統(tǒng)元數(shù)據(jù)存到硬盤里答案:D知識點(diǎn):HDFS特性14、關(guān)于HDFS的文獻(xiàn)寫入,對的的是A.支持多用戶對同一文獻(xiàn)的寫操作B.用戶可以在文獻(xiàn)任意位置進(jìn)行修改C.默認(rèn)將文獻(xiàn)塊復(fù)制成三份存放D.復(fù)制的文獻(xiàn)塊默認(rèn)都存在同一機(jī)架上答案:C知識點(diǎn):在HDFS的一個(gè)文獻(xiàn)中只有一個(gè)寫入者,并且寫操作只能在文獻(xiàn)末尾完畢,即只能執(zhí)行追加操作。默認(rèn)三份文獻(xiàn)塊兩塊在同一機(jī)架上,另一份存放在其他機(jī)架上。15、Hadoopfs中的-get和-put命令操作對象是A.文獻(xiàn)B.目錄C.兩者都是答案:C知識點(diǎn):HDFS命令16、Namenode在啟動時(shí)自動進(jìn)入安全模式,在安全模式階段,說法錯(cuò)誤的是A.安全模式目的是在系統(tǒng)啟動時(shí)檢查各個(gè)DataNode上數(shù)據(jù)塊的有效性B.根據(jù)策略對數(shù)據(jù)塊進(jìn)行必要的復(fù)制或刪除C.當(dāng)數(shù)據(jù)塊最小比例數(shù)滿足的最小副本數(shù)條件時(shí),會自動退出安全模式D.文獻(xiàn)系統(tǒng)允許有修改答案:D知識點(diǎn):HDFS安全模式//MapReduce17、MapReduce框架提供了一種序列化鍵/值對的方法,支持這種序列化的類可以在Map和Reduce過程中充當(dāng)鍵或值,以下說法錯(cuò)誤的是A.實(shí)現(xiàn)Writable接口的類是值B.實(shí)現(xiàn)WritableComparable<T>接口的類可以是值或鍵C.Hadoop的基本類型Text并不實(shí)現(xiàn)WritableComparable<T>接口D.鍵和值的數(shù)據(jù)類型可以超過Hadoop自身支持的基本類型答案:C18、以下四個(gè)Hadoop預(yù)定義的Mapper?qū)崿F(xiàn)類的描述錯(cuò)誤的是A.IdentityMapper<K,V>實(shí)現(xiàn)Mapper<K,V,K,V>,將輸入直接映射到輸出B.InverseMapper<K,V>實(shí)現(xiàn)Mapper<K,V,K,V>,反轉(zhuǎn)鍵/值對C.RegexMapper<K>實(shí)現(xiàn)Mapper<K,Text,Text,LongWritable>,為每個(gè)常規(guī)表達(dá)式的匹配項(xiàng)生成一個(gè)(match,1)對D.TokenCountMapper<K>實(shí)現(xiàn)Mapper<K,Text,Text,LongWritable>,當(dāng)輸入的值為分詞時(shí),生成(taken,1)對答案:B知識點(diǎn):InverseMapper<K,V>實(shí)現(xiàn)Mapper<K,V,V,K>19、下列關(guān)于HDFS為存儲MapReduce并行切分和解決的數(shù)據(jù)做的設(shè)計(jì),錯(cuò)誤的是A.FSDataInputStream擴(kuò)展了Dat(yī)aInputStream以支持隨機(jī)讀B.為實(shí)現(xiàn)細(xì)粒度并行,輸入分片(InputSplit)應(yīng)當(dāng)越小越好C.一臺機(jī)器也許被指派從輸入文獻(xiàn)的任意位置開始解決一個(gè)分片D.輸入分片是一種記錄的邏輯劃分,而HDFS數(shù)據(jù)塊是對輸入數(shù)據(jù)的物理分割答案:B知識點(diǎn):每個(gè)分片不能太小,否則啟動與停止各個(gè)分片解決所需的開銷將占很大一部分執(zhí)行時(shí)間20、針對每行數(shù)據(jù)內(nèi)容為”TimestampUrl”的數(shù)據(jù)文獻(xiàn),在用JobConf對象conf設(shè)立conf.setInputFormat(yī)(WhichInputFormat.class)來讀取這個(gè)文獻(xiàn)時(shí),WhichInputFormat應(yīng)當(dāng)為以下的A.TextInputFormat(yī)B.KeyValueTextInputFormatC.SequenceFileInputFormatD.NLineInputFormat答案:B知識點(diǎn):四項(xiàng)重要的InputFormat類。KeyValueTextInputFormat以每行第一個(gè)分隔符為界,分隔符前為key,之后為value,默認(rèn)制表符為\t21、有關(guān)MapReduce的輸入輸出,說法錯(cuò)誤的是A.鏈接多個(gè)MapReduce作業(yè)時(shí),序列文獻(xiàn)是首選格式B.FileInputFormat中實(shí)現(xiàn)的getSplits()可以把輸入數(shù)據(jù)劃分為分片,分片數(shù)目和大小任意定義C.想完全嚴(yán)禁輸出,可以使用NullOutputFormatD.每個(gè)reduce需將它的輸出寫入自己的文獻(xiàn)中,輸出無需分片答案:B知識點(diǎn):分片數(shù)目在numSplits中限定,分片大小必須大于mapred.min.size個(gè)字節(jié),但小于文獻(xiàn)系統(tǒng)的塊22、HadoopStreaming支持腳本語言編寫簡樸MapReduce程序,以下是一個(gè)例子:bin/hadoopjarcontrib/streaming/hadoop-0.20-streaming.jar—inputinput/filename—outputoutput—mapper‘dosth.py5’—filedosth.py—Dmapred.reduce.tasks=123、以下說法不對的的是A.HadoopStreaming使用Unix中的流與程序交互B.HadoopStreaming允許我們使用任何可執(zhí)行腳本語言解決數(shù)據(jù)流C.采用腳本語言時(shí)必須遵從UNIX的標(biāo)準(zhǔn)輸入STDIN,并輸出到STDOUTD.Reduce沒有設(shè)定,上述命令運(yùn)營會出現(xiàn)問題答案:D知識點(diǎn):沒有設(shè)定特殊的reducer,默認(rèn)使用IdentityReducer24、在高階數(shù)據(jù)解決中,往往無法把整個(gè)流程寫在單個(gè)MapReduce作業(yè)中,下列關(guān)于鏈接MapReduce作業(yè)的說法,不對的的是A.Job和JobControl類可以管理非線性作業(yè)之間的依賴B.ChainMapper和ChainReducer類可以用來簡化數(shù)據(jù)預(yù)解決和后解決的構(gòu)成C.使用ChainReducer時(shí),每個(gè)mapper和reducer?qū)ο蠖加幸粋€(gè)本地JobConf對象D.ChainReducer.addMapper()方法中,一般對鍵/值對發(fā)送設(shè)立成值傳遞,性能好且安全性高答案:D知識點(diǎn):ChainReducer.addMapper()方法中,值傳遞安全性高,引用傳遞性能高25、下面哪個(gè)程序負(fù)責(zé)HDFS數(shù)據(jù)存儲。答案Cdatanodea)NameNodeb)Jobtrackerc)Dat(yī)anoded)secondaryNameNodee)tasktracker26.HDfS中的block默認(rèn)保存幾份?答案A默認(rèn)3分a)3份b)2份c)1份d)不擬定27.下列哪個(gè)程序通常與NameNode在一個(gè)節(jié)點(diǎn)啟動?答案Da)SecondaryNameNodeb)Dat(yī)aNodec)TaskTrackerd)Jobtracker28.Hadoop作者答案CDougcuttinga)MartinFowlerb)KentBeckc)Dougcutting29.HDFS默認(rèn)BlockSize答案:Ba)32MBb)64MBc)128MB30、下列哪項(xiàng)通常是集群的最重要瓶頸:答案:C磁盤a)CPUb)網(wǎng)絡(luò)c)磁盤IOd)內(nèi)存31.關(guān)于SecondaryNameNode哪項(xiàng)是對的的?答案Ca)它是NameNode的熱備b)它對內(nèi)存沒有規(guī)定c)它的目的是幫助NameNode合并編輯日記,減少NameNode啟動時(shí)間d)SecondaryNameNode應(yīng)與NameNode部署到一個(gè)節(jié)點(diǎn)。多選題:1.下列哪項(xiàng)可以作為集群的管理?答案:ABDa)Puppetb)Pdshc)ClouderaManagerd)Zookeeper2.配置機(jī)架感知的下面哪項(xiàng)對的:答案ABCa)假如一個(gè)機(jī)架出問題,不會影響數(shù)據(jù)讀寫b)寫入數(shù)據(jù)的時(shí)候會寫到不同機(jī)架的DataNode中c)MapReduce會根據(jù)機(jī)架獲取離自己比較近的網(wǎng)絡(luò)數(shù)據(jù)3.Client端上傳文獻(xiàn)的時(shí)候下列哪項(xiàng)對的?答案Ba)數(shù)據(jù)通過NameNode傳遞給DataNodeb)Client端將文獻(xiàn)切分為Block,依次上傳c)Client只上傳數(shù)據(jù)到一臺DataNode,然后由NameNode負(fù)責(zé)Block復(fù)制工作4.下列哪個(gè)是Hadoop運(yùn)營的模式:答案ABCa)單機(jī)版b)偽分布式c)分布式5.Cloudera提供哪幾種安裝CDH

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論