Spark大數(shù)據(jù)技術(shù)與應(yīng)用 習(xí)題及答案匯 王小潔 第1-7章_第1頁
Spark大數(shù)據(jù)技術(shù)與應(yīng)用 習(xí)題及答案匯 王小潔 第1-7章_第2頁
Spark大數(shù)據(jù)技術(shù)與應(yīng)用 習(xí)題及答案匯 王小潔 第1-7章_第3頁
Spark大數(shù)據(jù)技術(shù)與應(yīng)用 習(xí)題及答案匯 王小潔 第1-7章_第4頁
Spark大數(shù)據(jù)技術(shù)與應(yīng)用 習(xí)題及答案匯 王小潔 第1-7章_第5頁
已閱讀5頁,還剩20頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

11、【實戰(zhàn)任務(wù)1】Spark的特點包括(ABD)A.快速B.通用C.可延伸D.兼容性2、【實戰(zhàn)任務(wù)2】Spark的組成不包括以下哪一個(D)A.SparkCoreB.SparkSQLC.SparkStreamingD.MapReduce3、【實戰(zhàn)任務(wù)1】與Hadoop相比,Spark主要有以下哪些優(yōu)點(ABCD)A.提供多種數(shù)據(jù)集操作類型而不僅限于MapReduceB.數(shù)據(jù)集中式計算而更加高效C.提供了內(nèi)存計算,帶來了更高的迭代運算效率D.基于DAG的任務(wù)調(diào)度執(zhí)行機(jī)制4、【實戰(zhàn)任務(wù)3】Spark的環(huán)境搭建包括以下哪些模式?(ABCD)A.單機(jī)模式B.單機(jī)偽分布模式C.完全分布模式D.Standalone模式5、【實戰(zhàn)任務(wù)3】SparkDriver的功能是什么(ABD)A.是作業(yè)的主進(jìn)程B.負(fù)責(zé)了作業(yè)的調(diào)度C.負(fù)責(zé)向HDFS申請資源D.負(fù)責(zé)作業(yè)的解析6、【實戰(zhàn)任務(wù)2】ClusterManager是(A)A.主節(jié)點B.從節(jié)點C.執(zhí)行器D.上下文7、【實戰(zhàn)任務(wù)2】以下哪個不是Spark的組件(B)A.DAGSchedulerB.MultiSchedulerC.TaskSchedulerD.SparkContext8、【實戰(zhàn)任務(wù)2】Spark的四?組件下?哪個不是(D)A.SparkStreamingB.MLlibCGraphxD.SparkR9、【實戰(zhàn)任務(wù)2】下?哪個操作是窄依賴(B)AjoinBfilterCgroupDsort10、【實戰(zhàn)任務(wù)2】下?哪個操作肯定是寬依賴(C)AmapBflatMapCreduceByKeyDsample11、【實戰(zhàn)任務(wù)1】Spark是什么(ACD)A.Spark是基于內(nèi)存計算的框架B.Spark是基于磁盤計算的框架C.Spark是一種基于RDD計算框架D.Spark是一種并行計算框架12、【實戰(zhàn)任務(wù)2】Spark的核心模塊是(B)A. SparkStreamingB. SparkCoreC. MapReduceD. SparkSQL13、【實戰(zhàn)任務(wù)1】Spark的優(yōu)勢有哪些(BCD)A.完全依賴HadoopMapReduce框架獲得海量大數(shù)據(jù)計算能力B.Spark對小數(shù)據(jù)集能達(dá)到亞秒級的延遲C.Spark提供了不同層面的靈活性數(shù)據(jù)并行的范式D.內(nèi)存緩存、流數(shù)據(jù)處理、圖數(shù)據(jù)處理等更為高級的數(shù)據(jù)處理能力14、【實戰(zhàn)任務(wù)2】Spark的部署模式有(ABCD)A.本地模式B.standalone模式C.SparkonYarn模式D.mesos模式15、【實戰(zhàn)任務(wù)1】Spark產(chǎn)生的原因(ABC)A.MapReduce具有很多的局限性B.Spark不適合做交互式處理C.現(xiàn)有的各種計算框架各自為戰(zhàn)D.Spark只能進(jìn)行交互式計算16、【實戰(zhàn)任務(wù)1】Spark圖計算的產(chǎn)品是(A)A.GraphXB.PregelC.FlumeD.PowerGraph17、【實戰(zhàn)任務(wù)1】Spark的劣勢是(D)A.允許速度快B.業(yè)務(wù)實現(xiàn)需要較少代碼C.提供很多函數(shù)D.需要更多機(jī)器運行21、 【實戰(zhàn)任務(wù)2】Scala關(guān)于變量定義、賦值,錯誤的是(B)A. vala=3B. vara:String=3C. varb:Int=3;b=6D. varb="HelloWorld";b="123"2、 【實戰(zhàn)任務(wù)2】下面輸出與其他不一致的是(D)A. println("HelloWorld")B. print("HelloWorld\n")C. printf("Hello%s","World\n")D. valw="World";println("Hello$w")3、 【實戰(zhàn)任務(wù)7】關(guān)于元組Tuple說法錯誤的是(D)A. 元組的可以包含不同類型的元素B. 訪問元組第?個元素的?式為pair._1C. 元組是不可改變的D. 元組最多只有2個元素4、 【實戰(zhàn)任務(wù)5】對于函數(shù)下列說法正確的是(A)defgetGoodsPrice(goods:String)={valprices=Map(“book”->5,“pen”->2,“sticker”->1)prices.getOrElse(goods,0)}A. getGoodsPrice("book")//等于5B. getGoodsPrice("pen")//等于2C. getGoodsPrice("sticker")//等于1D. getGoodsPrice("sock")//等于“sock”5、 【實戰(zhàn)任務(wù)4】表達(dá)式for(i<-1to3;for(j<-1to3;ifi!=j)print((10*i+j))+""輸出結(jié)果正確的是(C)A. 111213212223313233B. 111321233133C. 121321233132D. 1112212231326、 【實戰(zhàn)任務(wù)5】關(guān)于函數(shù)deffac(n:Int)={varr=1;for(i<-1ton)r=r*i;r}fac(5)輸出結(jié)果正確的是(B)A. 15B. 120C. 200D. 3007、 【實戰(zhàn)任務(wù)4】Scala中,下?的哪個類定義是不正確的(C)A. classCounter{defcounter=“counter”}B. classCounter{valcounter=“counter”}C. classCounter{varcounter:String}D. classCounter{defcounter(){}8、 【實戰(zhàn)任務(wù)5】有關(guān)柯?化描述錯誤的是(D)A. 柯?化是指將原來接受兩個參數(shù)的函數(shù)變成新的接受?個參數(shù)的函數(shù)的過程。新的函數(shù)返回?個以原有第?個參數(shù)作為參數(shù)的函數(shù)。B. 有時,使?柯?化將某個函數(shù)參數(shù)單拎出來,可以提供更多?于類型推斷的信息。C. 將函數(shù)defadd(x:Int,y:Int)=x+y,變形為defadd(x:Int)(y:Int)=x+y的過程是?個柯?化過程。D. 柯?化是多參數(shù)列表函數(shù)的特例。9、 【實戰(zhàn)任務(wù)8】對于在scala中?件相關(guān)操作描述正確的是(D)A. 可以直接使?scala的庫來讀取?進(jìn)制?件。B. 可以直接使?scala的庫來寫??件?件。C. 在讀取?件時,如果不指定?件編碼格式則scala會推斷出正確的格式進(jìn)?讀取。D. 以上描述均不正確。10、【實戰(zhàn)任務(wù)8】有關(guān)操作符優(yōu)先級的描述不正確的是(C)A. *=的優(yōu)先級低于+。B. >的優(yōu)先級?于&。C. 后置操作符的優(yōu)先級?于中置操作符。D. %的優(yōu)先級?于+。11、【實戰(zhàn)任務(wù)1】Scala有以下那些特點(ABCD)A.Scala是一門多范式的編程語言,設(shè)計初衷是要繼承面向?qū)ο缶幊毯秃瘮?shù)式編程的各種特性B.Scala運行在Java虛擬機(jī)上,并兼容現(xiàn)有的Java程序C.Scala源代碼被編譯成Java字節(jié)碼,可以運行在JVM上,也可以調(diào)用現(xiàn)有的Java類庫D.Scala語音簡潔優(yōu)雅大方,很多大數(shù)據(jù)底層框架采用Scala去實現(xiàn)與編程12、【實戰(zhàn)任務(wù)2】Scala通過(A)來定義變量。A.valB.defineC.def13、【實戰(zhàn)任務(wù)2】Scala使用那些修飾符(AC)A.publicB.ScalaC.privateD.bool14、【實戰(zhàn)任務(wù)2】在Scala中,數(shù)據(jù)分為兩類(AD)A.常量B.常數(shù)C.變數(shù)D.變量15、【實戰(zhàn)任務(wù)4】在Scala中屬于匿名函數(shù)的是(A)A.=>B.=》C.<-D.->16、【實戰(zhàn)任務(wù)1】有關(guān)Scala安裝說法錯誤的式(B)A.Scala語言可以運行在Windows系統(tǒng)上B.Scala語言是基于Java之上,大量使用Java的類庫和變量,使用Scala之前續(xù)安裝Java1.4版本C.Scala可以運行在Linux、Unix等系統(tǒng)上D.Scala語言可以運行在MacOSX系統(tǒng)上17、【實戰(zhàn)任務(wù)4】Scala函數(shù)支持(ABCD)A.遞歸函數(shù)B.高階函數(shù)C.柯里化D.匿名函數(shù)18、【實戰(zhàn)任務(wù)5】Scala中允許繼承多個父類。(A)A.正確B.錯誤31.【實戰(zhàn)任務(wù)1】Spark組件中的核心概念是(A)。A.RDDB.DataSetC.DataFrameD.Data2.【實戰(zhàn)任務(wù)2】下列方法中,不能創(chuàng)建RDD的方法是?(?D?)A.makeRDDB.parallelizeC.textFileD.testFile3.【實戰(zhàn)任務(wù)3】下列選項中,哪個不屬于轉(zhuǎn)換算子操作?(?C?)A.filter(func)B.map(func)C.reduce(func)D.reduceByKey(func)4.【實戰(zhàn)任務(wù)3】下列選項中,能使RDD產(chǎn)生寬依賴的是(D)A.map(func)B.filter(func)C.unionD.groupByKey()5.【實戰(zhàn)任務(wù)3】RDD的操作主要是哪2種操作(AD)。A.轉(zhuǎn)換算子操作B.分組操作C.讀寫操作D.行動算子操作6.【實戰(zhàn)任務(wù)3】下列屬于RDD的轉(zhuǎn)換算子的是(ACD)。A.groupByKey()B.reduce()C.reduceByKey()D.map()7.【實戰(zhàn)任務(wù)3】下列屬于RDD的行動算子的是(ABC)。A.count()B.first()C.take()D.filter()8.【實戰(zhàn)任務(wù)1】下面哪個不是RDD的特點(C)A.可分區(qū)B.可序列化C.可修改D.可持久化9.【實戰(zhàn)任務(wù)1】RDD具有(A,C)特征(多選)。A.可容錯性B.簡潔性C.并行數(shù)據(jù)結(jié)構(gòu)D.結(jié)構(gòu)化10.【實戰(zhàn)任務(wù)1】關(guān)于RDD,下列錯誤的是?(A)A.RDD運行在工作節(jié)點(WorkerNode)的一個進(jìn)程,負(fù)責(zé)運行Task.B.Application是用戶編寫的Spark應(yīng)用程序C.一個Job包含多個RDD及作用于相應(yīng)RDD上的各種操作D.DAG反映RDD之間的依賴關(guān)系11.【實戰(zhàn)任務(wù)1】創(chuàng)建RDD可以有如下幾種?(ABC)A.由外部存儲系統(tǒng)的數(shù)據(jù)集創(chuàng)建,包括本地的文件系統(tǒng)B.由一個已經(jīng)存在的Scal集合創(chuàng)建C.比如所有Hadop支持的數(shù)據(jù)集D.以上說法都不對12.【實戰(zhàn)任務(wù)1】以下哪個是鍵值對RDD特有的算子操作(D)。A.mapB.flatMapC.filterD.reduceByKey13.【實戰(zhàn)任務(wù)2】以下哪種文件RDD不可操作(D)。A.JSON格式文件B.CSV格式文件C.SquenceFile格式文件D.Word格式文件14.【實戰(zhàn)任務(wù)3】以下哪些是Spark運行模式的MASTER_URL的取值(ABC)(多選)。A.localB.spark://ip:portC.local[1]D.localhost15.【實戰(zhàn)任務(wù)2】以下哪些算子可以獲取RDD種的第一條數(shù)據(jù)(AC)(多選)。A.firstB.countC.take(1)D.collect41、【實戰(zhàn)任務(wù)1】以下哪個說法是正確的(A)。A.SparkSQL的前身是SharkB.SparkSQL核心模型是RDDC.HiveContext只支持SQL語法解析器D.SQLContext繼承了HiveContext2、【實戰(zhàn)任務(wù)1】SparkSQL能處理的數(shù)據(jù)源不包括以下哪個?(D)。A.JSON文件 B.CSV文件C.Parquet文件D.Execl文件3、【實戰(zhàn)任務(wù)1】SparkSQL的特點不包括以下哪個?(C)。A.容易集成B.提供了統(tǒng)一的數(shù)據(jù)訪問C.對Hive不支持D.標(biāo)準(zhǔn)化數(shù)據(jù)庫連接4、【實戰(zhàn)任務(wù)2】DataFrame的創(chuàng)建數(shù)據(jù)源不包括下面哪個?(D)。A.外部結(jié)構(gòu)化數(shù)據(jù)文件 B.現(xiàn)有的RDD數(shù)據(jù)集C.Hive數(shù)據(jù)表D.外部的Execl表格文件5、【實戰(zhàn)任務(wù)2】DataFrame查看前30條記錄可以使用以下哪兩個方法完成?(選擇兩項)(AB)。A.showB.takeC.collectD.pringSchema6、【實戰(zhàn)任務(wù)2】以下哪個方法可以用于對DataFrame進(jìn)行排序查詢?(A)。A.sortB.limitC.groupByD.join7、【實戰(zhàn)任務(wù)2】如果要對DataFrame對象userDF按照年齡age降序排序,以下哪個是正確的(B)。A.userDF.orderBy(“age”)B.userDF.orderBy(desc(“age”))C.userDF.orderBy(“agedesc”)D.userDF.orderBy(“age”).desc()8、【實戰(zhàn)任務(wù)2】以下哪個選項可以保證DataFrame輸出數(shù)據(jù)是如果目的地已有數(shù)據(jù)報錯?(D)。A.overwriteB.appendC.ignoreD.default9、【實戰(zhàn)任務(wù)2】以下哪個操作會返回一個新的DataFrame對象(C)。A.collectB.takeAsListC.whereD.first10、【實戰(zhàn)任務(wù)2】以下哪個操作的DataFrame的where操作含義一致(C)。A.firstB.sortC.filterD.limit11、【實戰(zhàn)任務(wù)2】SparkSQL的入口對象是(B)。A.SparkContextB.SparkSessionC.SparkSQLD.StreamingContext12、【實戰(zhàn)任務(wù)2】以下哪些是SparkSQL的數(shù)據(jù)抽象(AB)(多選)。A.DatasetB.DataFrameC.RDDD.DStream13、【實戰(zhàn)任務(wù)2】以下哪個是DataFrame的輸出操作(C)。A.showB.printSchemaC.writeD.take14、【實戰(zhàn)任務(wù)2】以下哪些是DataFrame數(shù)據(jù)輸出時savemode可選的值(ABCD)(多選)。A.overwriteB.appendC.ignoreD.error15、【實戰(zhàn)任務(wù)2】以下哪個是Dataset的創(chuàng)建方式(D)。A.從Scala集合創(chuàng)建B.從RDD數(shù)據(jù)集創(chuàng)建C.將DataFrame轉(zhuǎn)換為DatasetD.以上都是51、【實戰(zhàn)任務(wù)1】SparkStreaming的核心編程模型是以下哪個(A)A.DStreamB.RDDC.DataFrameD.Dataset2、【實戰(zhàn)任務(wù)1】下面關(guān)于SparkStreaming的描述錯誤的是(D)。A.SparkStreaming的基本原理是將實時輸入數(shù)據(jù)流以時間片為單位進(jìn)行拆分,然后采用Spark引擎以類似批處理的方式處理每個時間片數(shù)據(jù)B.SparkStreaming最主要的抽象是DStream(DiscretizedStream,離散化數(shù)據(jù)流),表示連續(xù)不斷的數(shù)據(jù)流C.SparkStreaming可整合多種輸入數(shù)據(jù)源,如Kafka、Flume、HDFS,甚至是普通的TCP套接字D.SparkSteaming的數(shù)據(jù)抽象是DataFrame3、【實戰(zhàn)任務(wù)2】DStream的創(chuàng)建需要借助以下哪個對象?(D)A.SparkContextB.SQLContextC.SparkSessionD.StreamingContext4、【實戰(zhàn)任務(wù)3】Dstream窗口操作中哪個函數(shù)基于滑動窗口對源DStream中的元素進(jìn)行聚合操作,得到一個新的Dstream。(B)A.windowB.reduceByWindowC.reduceByKeyAndWindowD.countByWindow5、【實戰(zhàn)任務(wù)3】SparkStreming中哪個函數(shù)可以通過對源DStream的每RDD應(yīng)用RDD-to-RDD函數(shù)返回一個新的DStream,這可以用來在DStream做任意RDD操作。(A)A.transformB.reduceC.joinD.cogroup6、【實戰(zhàn)任務(wù)3】SparkStreming中哪個函數(shù)可以對源DStream中的每一個元素應(yīng)用func方法進(jìn)行計算,如果func函數(shù)返回結(jié)果為true,則保留該元素,否則丟棄該元素,返回一個新的DStream。(D)A.unionB.mapC.flatMapD.filter7、【實戰(zhàn)任務(wù)3】DStream輸出操作中print函數(shù)會打印出DStream中數(shù)據(jù)的前幾個元素。(A)A.10B.15C.1D.58、【實戰(zhàn)任務(wù)3】SparkStreming中哪個函數(shù)可以對源DStream的每個元素通過函數(shù)func被映射出0或者更多的輸出元素。(C)A.unionB.mapC.flatMapD.filter9、【實戰(zhàn)任務(wù)3】SparkStreming中哪個函數(shù)當(dāng)被調(diào)用的兩個DStream分別含有K,V和K,W鍵值對時,返回一個K,Seq[V],Seq[W]類型的新的DStream。(D)A.unionB.reduceC.joinD.cogroup10、【實戰(zhàn)任務(wù)2】SparkStreming中哪個函數(shù)當(dāng)被調(diào)用類型分別為(K,V)和(K,W)鍵值對的2個DStream時,返回類型為(K,(V,W))鍵值對的一個新DStream。(C)A.unionB.reduceC.joinD.cogroup11、【實戰(zhàn)任務(wù)2】SparkStreaming能夠和(BCD)無縫集成(多選)。A.HadoopB.SparkSQLC.SparkMllibD.SparkGraphX12、【實戰(zhàn)任務(wù)2】SparkSteaning能夠處理來自(ABCD)的數(shù)據(jù)(多選)。A.KafkaB.FlumeC.TwitterD.HDFS13、【實戰(zhàn)任務(wù)2】SparkSteaming中批處理時間間隔是指(A)。A.系統(tǒng)將獲取到的數(shù)據(jù)流封裝成一個RDD的時間間隔.B.數(shù)據(jù)流進(jìn)行統(tǒng)計分析的時間間隔C.數(shù)據(jù)流進(jìn)行統(tǒng)計分析的頻率D.作業(yè)處理的周期14、【實戰(zhàn)任務(wù)2】編寫SparkStreaming程序的基本步驟包括()(多選)。A.通過創(chuàng)建輸入DStream(InputDstream)來定義輸入源B.通過對DStream應(yīng)用轉(zhuǎn)換操作和輸出操作來定義流計算C.調(diào)用StreamingContext對象的start()方法來開始接收數(shù)據(jù)和處理流程D.通過調(diào)用StreamingContext對象的awaitTermination()方法來等待流計算進(jìn)程結(jié)束?15、【實戰(zhàn)任務(wù)1】parkStreaming的特點有(ABCD)(多選)。A.實時流處理B.可伸縮C.高吞吐量D.容錯能力強61、【實戰(zhàn)任務(wù)1】以下屬于圖計算的數(shù)據(jù)抽象的是(D)。A.DataFrameB.DatasetC.DStreamD.Graph2、【實戰(zhàn)任務(wù)1】在Spark的軟件棧中,用于圖計算的是(C)A.SparkSQLB.SparlMLlibC.SparkGraphXD.SparkStreaming3、【實戰(zhàn)任務(wù)2】SparkGraphX中EdgeRDD繼承自(B)。A.EdgeRDDB.RDD[Edge]C.VertexRDD[VD]D.RDD[(VertextId,VD)]4、【實戰(zhàn)任務(wù)2】SparkGraphX中(B)是完整提供邊的各種操作的類。A.RDD[Edge]B.EdgeRDDC.RDD[(Vertexld,VD)]D.VertexRDD5、【實戰(zhàn)任務(wù)2】SparkGraphX中VertexRDD[VD]繼承自(D)。A.EdgeRDDB.RDD[Edge]C.VertexRDD[VD]D.RDD[(Vertexld,VD)]6、【實戰(zhàn)任務(wù)2】SparkGraphX中(A)是存放著Edge對象的RDDA.RDD[Edge]B.EdgeRDDC.RDD[(Vertexld,VD)]D.VertexRDD7、【實戰(zhàn)任務(wù)3】SparkGraphX中類Graph的reverse方法可以(A)。A.反轉(zhuǎn)圖中所有邊的方向B.按照設(shè)定條件取出子圖C.取兩個圖的公共頂點和邊作為新圖,并保持前一個圖頂點與邊的屬性D.合并邊相同的屬性8、【實戰(zhàn)任務(wù)3】SparkGraphX中g(shù)raph.triplets可以得到(C)。A.頂點視圖B.邊視圖C.頂點與邊的三元組整體視圖D.有向圖9、【實戰(zhàn)任務(wù)3】SparkGraphX中g(shù)raph.edges可以得到(B)。A.頂點視圖B.邊視圖C.頂點與邊的三元組整體視圖D.有向圖10、【實戰(zhàn)任務(wù)3】SparkGraphX中(C)方法可以查詢頂點信息。A.numVerticesB.numEdgesC.verticesD.edges11、【實戰(zhàn)任務(wù)1】Spark圖計算的產(chǎn)品是(A)。A.GraphXB.PegelC.FlumeD.PowerGraph12、【實戰(zhàn)任務(wù)2】SparkGraphX哪個視圖包含圖的所有信息(C)。A.頂點視圖B.邊視圖C.三元組視圖D.以上均不是13、【實戰(zhàn)任務(wù)2】以下哪個操作可以將圖的方向反轉(zhuǎn)(A)。A.reverseB.subgraphC.mapEdgesD.mask14、【實戰(zhàn)任務(wù)2】GraphX中(A)方法可以查詢度數(shù)。A.degreesB.degreeC.verticesD.edges15、【實戰(zhàn)任務(wù)1】對GraphX以下描述正確的是(ABCD)(多選)。A.GraphX是一種基于內(nèi)存的分布式的圖計算框架與圖計算庫B.GraphX中引入了彈性分布式屬性圖C.GraphX實現(xiàn)了表視圖與圖視圖的統(tǒng)一D.GraphX提供了豐富的PregelAPI用以實現(xiàn)經(jīng)典的圖計算算法71、【實戰(zhàn)任務(wù)二】MLlib包括(ABCD)。A.分類模型B.聚類模型C.特征抽取D.統(tǒng)計模型2、【實戰(zhàn)任務(wù)二】SparkMLlib主要提供了哪幾個方面的工具(ABCD)A.算法工具:常用的學(xué)習(xí)算法,如分類、回歸、聚類、協(xié)同過濾等。B.特征化工具:特征提取、轉(zhuǎn)化、降維和選擇工具。C.流水線:用于構(gòu)建、評估和調(diào)整ML工作流的工具。D.實用工具:線性代數(shù)、統(tǒng)計、數(shù)據(jù)處理等工具。3.【實戰(zhàn)任務(wù)二】SparkMLlib數(shù)據(jù)類型有(ABCD)A.LocalVector本地向量集B.LabeledPoint向量標(biāo)簽C.Localmatrix本地矩陣D.Distributematrix分布式矩陣4.【實戰(zhàn)任務(wù)一】下面論述中錯誤的是(A)。A.機(jī)器學(xué)習(xí)和人工智能是不存在關(guān)聯(lián)關(guān)系的兩個獨立領(lǐng)域B.機(jī)器學(xué)習(xí)強調(diào)三個關(guān)鍵詞:算法、經(jīng)驗、性能C.推薦系統(tǒng)、金融反欺詐、語音識別、自然語言處理和機(jī)器翻譯、模式識別、智能控制等領(lǐng)域,都用到了機(jī)器學(xué)習(xí)的知識D.機(jī)器學(xué)習(xí)可以看作是一門人工智能的科學(xué),該領(lǐng)域的主要研究對象是人工智能5.【實戰(zhàn)任務(wù)一】下面關(guān)于機(jī)器學(xué)習(xí)處理過程的描述,錯誤的是(D)。A.在數(shù)據(jù)的基礎(chǔ)上,通過算法構(gòu)建出模型并對模型進(jìn)行評估B.評估的性能如果達(dá)到要求,就用該模型來測試其他的數(shù)據(jù)C.評估的性能如果達(dá)不到要求,就要調(diào)整算法來重新建立模型,再次進(jìn)行評估D.通過算法構(gòu)建出的模型不需要評估就可以用于其他數(shù)據(jù)的測試6.【實戰(zhàn)任務(wù)一】下面的論述中,正確的是(AB)。A.傳統(tǒng)的機(jī)器學(xué)習(xí)算法,由于技術(shù)和單機(jī)存儲的限制,大多只能在少量數(shù)據(jù)上使用B.利用MapReduce框架在全量數(shù)據(jù)上進(jìn)行機(jī)器學(xué)習(xí),這在一定程度上解決了統(tǒng)計隨機(jī)性的問題,提高了機(jī)器學(xué)習(xí)的精度C.MapReduce可以高效支持迭代計算D.Spark無法高效支持迭代計算7.【實戰(zhàn)任務(wù)二】下面關(guān)于SparkMLlib庫的描述正確的是(AC)。A.MLlib庫從1.2版本以后分為兩個包:spark.mllib和spark.mlB.Spark.mllib包含基于DataFrame的原始算法APIC.Spark.mllib包含基于RDD的原始算法APID.Spark.mllib提供了基于RDD的、高層次的API8.【實戰(zhàn)任務(wù)一】Spark生態(tài)系統(tǒng)組件MLlib的應(yīng)用場景是(D)A.圖結(jié)構(gòu)數(shù)據(jù)的處理B.基于歷史數(shù)據(jù)的交互式查詢C.復(fù)雜的批量數(shù)據(jù)處理D.基于歷史數(shù)據(jù)的數(shù)據(jù)挖掘9.【實戰(zhàn)任務(wù)一】Sp

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論