版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
2024年知識(shí)競(jìng)賽-大數(shù)據(jù)智能辦公系統(tǒng)知識(shí)筆試考試歷年高頻考點(diǎn)試題摘選含答案第1卷一.參考題庫(kù)(共75題)1.stage的task數(shù)量是由什么決定的()A、partitionB、jobC、stageD、taskscheduler2.reduceByKey算子在一個(gè)(K,V)的RDD上調(diào)用,返回一個(gè)(K,V)的RDD,使用指定的reduce函數(shù),將相同key的值聚合到一起3.cogroup算子在類(lèi)型為(K,V)和(K,W)的RDD上調(diào)用,返回一個(gè)(K,(Iterable,Iterable))類(lèi)型的RDD4.spark程序無(wú)法連接和訪問(wèn)mysql中的數(shù)據(jù)5.以下關(guān)于List的定義。正確的是?()A、vallist=List(4,7,3)B、vallist=List[Int](1,2,3)C、vallist=List[String](‘a(chǎn)’,’b’,’c’)D、vallist=List[Int]("a","b")6.AnyVal是scala中的String類(lèi)的父類(lèi)7.該方法被稱(chēng)為cons,意為構(gòu)造,向隊(duì)列的頭部追加數(shù)據(jù),創(chuàng)造新的列表8.DataFrame不能夠轉(zhuǎn)換成Rdd9.spark內(nèi)部集成的standalone功能為()A、任務(wù)調(diào)度框架B、任務(wù)模式C、資源調(diào)度框架D、任務(wù)整合10.spark中的foreach算子作用()A、使程序在內(nèi)存中運(yùn)行B、使程序觸發(fā)執(zhí)行C、使程序具有一致性D、使程序具有安全性11.以下哪個(gè)算子與別的算子不同?()A、mapB、filterC、flatMapD、reduce12.flume在讀取文本文件的時(shí)候,一個(gè)文本數(shù)據(jù)是一個(gè)?()A、agentB、eventC、sourceD、float13.關(guān)于元組Tuple說(shuō)法錯(cuò)誤的是?()A、元組的可以包含不同類(lèi)型的元素B、元組是不可變的C、訪問(wèn)元組第一個(gè)元素的方式為pair._1D、元組最多只有2個(gè)元素14.yarn中nodemanager的作用()A、管理集群中整體節(jié)點(diǎn)的資源情況B、管理本機(jī)節(jié)點(diǎn)的資源C、存儲(chǔ)數(shù)據(jù)D、讀取數(shù)據(jù)15.spark中的彈性分布式數(shù)據(jù)集相當(dāng)于java中的()概念A(yù)、類(lèi)B、接口C、方法D、內(nèi)部類(lèi)16.hdfs是一個(gè)基于內(nèi)存的計(jì)算模型17.spark計(jì)算速度比mapreduce計(jì)算速度快,不僅僅是因?yàn)閮?nèi)存18.zookeeper可以實(shí)現(xiàn)以下哪些功能()A、同步配置文件B、選舉C、資源動(dòng)態(tài)平衡D、分布式鎖19.有關(guān)scala安裝錯(cuò)誤的是?()A、Scala語(yǔ)言可以運(yùn)行在Window系統(tǒng)上B、Scala是基于java之上,大量使用java的類(lèi)庫(kù)和變量,使用Scala可以使用先安裝Java1.4版本C、Scala語(yǔ)言可以運(yùn)行在Linux、Unix等系統(tǒng)上D、Scala語(yǔ)言可以運(yùn)行在MacOSX系統(tǒng)上20.下列關(guān)于set和list集合說(shuō)法錯(cuò)誤的是()A、set集合無(wú)序可重復(fù)B、list集合有序可重復(fù)C、set集合有序不可重復(fù)D、list集合有序不可重復(fù)21.以下語(yǔ)句的運(yùn)行結(jié)果為vari=0;while(iA、運(yùn)行報(bào)錯(cuò)B、循環(huán)三次C、循環(huán)兩次D、死循環(huán)22.dataFrame和RDD其實(shí)是一回事,沒(méi)有區(qū)別23.在kafka中,數(shù)據(jù)的操作基本單元是哪個(gè)?()A、eventB、agentC、partitionD、topic24.以下屬于消息中間件的是哪些()A、ActiveMQB、RabbitMQC、KafkaD、Mysql25.scala語(yǔ)言中,下面描述正確的是?()A、scala中,F(xiàn)loat是Double的子類(lèi)。B、scala中,Int是Long的子類(lèi)。C、scala中,Double是AnyRef的子類(lèi)D、scala中,Long是AnyVal的子類(lèi)26.類(lèi)和單例對(duì)象間的差別是()A、單例對(duì)象不可以定義方法,而類(lèi)可以B、單例對(duì)象不可以帶參數(shù),而類(lèi)可以C、單例對(duì)象不可以定義私有屬性,而類(lèi)可D、單例對(duì)象不可以繼承,而類(lèi)可以27.Linux中查看一個(gè)文本文件的指令有哪些()A、結(jié)構(gòu)化數(shù)據(jù)文件B、hive的表C、外部數(shù)據(jù)庫(kù)D、RDDs28.kafka是一個(gè)關(guān)于什么的中間件()A、消息B、傳輸C、操作D、事物29.下列關(guān)于kafka中的partition說(shuō)法正確的是()A、partition是邏輯存在的B、partition是最小的邏輯單元C、topic是真正數(shù)據(jù)存儲(chǔ)的地方D、partition不存儲(chǔ)數(shù)據(jù)30.sorted會(huì)將所給的對(duì)象進(jìn)行排序,請(qǐng)說(shuō)出下列程序輸出結(jié)果為vala3=Array(1,2,3,4,5,100,7)valcs=a3.sorted;for(jA、123457100B、234571001C、457100123D、10075432131.valsite:List[String]=List("Runoob","Google","Baidu")println(site.head+site.tail)可以知道head返回列表第一個(gè)元素,tail返回除第一個(gè)元素外的所有元素32.Set集合是無(wú)序不重復(fù)的集合33.spark可以編寫(xiě)sql腳本的框架是()A、sparkcoreB、sparkstreamingC、mlbaseD、sparksql34.checkpoint算子是action類(lèi)算子,不會(huì)延遲加載35.foreach算子在數(shù)據(jù)集的每一個(gè)元素上,運(yùn)行函數(shù)func進(jìn)行操作36.Spark有如下特性()A、ScalaB、javaC、python37.以下組件中和mesos相類(lèi)似的組件是哪個(gè)()A、yarnB、hdfsC、mapreduceD、以上都不對(duì)38.創(chuàng)建rdd可以有如下幾種?()A、由外部存儲(chǔ)系統(tǒng)的數(shù)據(jù)集創(chuàng)建,包括本地的文件系統(tǒng)B、由一個(gè)已經(jīng)存在的Scala集合創(chuàng)建C、比如所有Hadoop支持的數(shù)據(jù)集,比如HDFS、Cassandra、HbaseD、以上說(shuō)法都不對(duì)39.分區(qū)是kafka消息隊(duì)列的最小單位40.agent組件中不包含哪個(gè)?()A、sourceB、sinkC、channelD、broker41.在子類(lèi)中重寫(xiě)超類(lèi)的抽象方法時(shí),你不需要使用override關(guān)鍵字42.spark是由以下哪個(gè)機(jī)構(gòu)研發(fā)出來(lái)的()A、阿里學(xué)院B、美國(guó)伯克利分校C、麻省理工大學(xué)D、復(fù)旦大學(xué)43.spark程序中由一個(gè)或多個(gè)以下哪個(gè)選項(xiàng)組成()A、jobB、driverC、ageD、worker44.以下關(guān)于集合的說(shuō)法哪個(gè)不正確()A、Set是一組沒(méi)有先后次序的值。B、Map是一組(鍵,值)對(duì)偶。C、List中的值是有先后次序的D、為了顧及安全性問(wèn)題,Scala僅支持不可變集合而不支持可變集合。45.kafka是一個(gè)日志收集系統(tǒng)46.scala和java一樣,變量都不可以懶加載47.以下對(duì)于操作說(shuō)法正確的是vart=List(1,8,3,5,5);println(t.filter{x=>x>3})()A、對(duì)不可變列表進(jìn)行元素大于3的操作,返回新的列表List(8,5,5)并打印出來(lái)B、對(duì)不可變列表進(jìn)行元素大于3的操作,返回過(guò)濾后的列表List(8,5,5)并打印出來(lái),不產(chǎn)生新列表C、對(duì)可變列表進(jìn)行元素大于3的操作,返回新的可變列表List(8,5,5)并打印出來(lái)D、對(duì)可變列表沒(méi)有這個(gè)filter方法,編譯錯(cuò)誤48.scala中所有類(lèi)的父類(lèi)是下列哪個(gè)選項(xiàng)()A、AnyB、AnyIntC、AnyRefD、AnyVal49.下面有關(guān)方法與函數(shù)的定義差別錯(cuò)誤的是?()A、方法是以def開(kāi)頭,函數(shù)的標(biāo)志為=>B、Scala方法是類(lèi)的一部分,而函數(shù)是一個(gè)對(duì)象可以賦值給一個(gè)變量C、Scala中使用val語(yǔ)句可以定義函數(shù),def語(yǔ)句定義方法D、方法與函數(shù)可以互相轉(zhuǎn)化,沒(méi)有本質(zhì)的區(qū)別。50.flume出現(xiàn).BindException:?Cannot?assign?requested?address異常該怎樣解決()A、a1.sources.r1.type地址填寫(xiě)錯(cuò)誤B、a1.sources.r1.bind地址填寫(xiě)錯(cuò)誤C、a1.sources.r1.bin填寫(xiě)錯(cuò)誤D、以上都不對(duì)51.以下對(duì)list的操作take說(shuō)法正確的是vart=List(1,8,3,5,5);println(t.take(2))()A、打印列表的前2個(gè)元素,結(jié)果為L(zhǎng)ist(1,8)B、打印列表的后2個(gè)元素,結(jié)果為L(zhǎng)ist(5,5)C、打印列表的從下表2開(kāi)始的所有元素,結(jié)果為L(zhǎng)ist(3,5,5)D、以上答案都不對(duì)52.一定要在第一行調(diào)用主構(gòu)造器53.對(duì)于元組valt=(1,3.14,"Fred")說(shuō)法不正確的是?()A、t._0等于1B、t的類(lèi)型為T(mén)uple3[Int,Double,java.lang.String]C、val(first,second,_)=t//second等于3.14D、t._0無(wú)法訪問(wèn),會(huì)拋出異常54.spark框架的API支持哪種語(yǔ)言進(jìn)行開(kāi)發(fā)()A、javaB、pythonC、scalaD、go55.spark中的rdd是一個(gè)()數(shù)據(jù)集A、彈性分布式B、彈性計(jì)算C、運(yùn)送數(shù)據(jù)D、心跳56.下列選項(xiàng)中是spark組件的有?()A、sparkcoreB、sparkstreamingC、GrophxD、sparksql57.storm和?spark?streaming?最大的區(qū)別?()A、科學(xué)統(tǒng)計(jì)支持B、是否具有schemaC、是否是真正的實(shí)時(shí)計(jì)算框架D、不同公司的產(chǎn)品58.Scala結(jié)合了()和函數(shù)式的編程語(yǔ)言A、面向?qū)ο驜、對(duì)象過(guò)程C、非純面向?qū)ο驞、python59.與spark基于內(nèi)存相比,mapreduce是基于()運(yùn)行的計(jì)算框架A、內(nèi)存B、磁盤(pán)C、內(nèi)存加磁盤(pán)D、網(wǎng)絡(luò)60.sparkSql僅僅支持查詢?cè)腞DD,其他方式的查詢都不支持61.Spark架構(gòu)提供了大量的庫(kù),其中包含SQL、DataFrames、MLlib、GraphX、SparkStreaming等架構(gòu)62.以下可以作為消息組件的是()A、redisB、kafkaC、rabbitMQD、monggdb63.在scala語(yǔ)言中String字符串中不可以應(yīng)用插值器64.SparkStreaming支持的數(shù)據(jù)輸入源包括如下那些選項(xiàng)?()A、KafkaB、FlumeC、TwitterD、ZeroMQ和簡(jiǎn)單的TCP套接字65.使用大部分語(yǔ)言編寫(xiě)的程序都可以和kafka服務(wù)器通信66.下面選項(xiàng)中a的取值不一致的是?()A、vala=3B、vala:Double=1+2C、vara=1;a+=2D、valb=1.+(2);vala=b.toInt67.spark是由以下哪個(gè)大學(xué)研發(fā)出來(lái)的()A、阿里學(xué)院B、美國(guó)伯克利分校C、麻省理工大學(xué)D、復(fù)旦大學(xué)68.scala和java一樣,在for循環(huán)中都可以使用continue關(guān)鍵字69.spark架構(gòu)中會(huì)出現(xiàn)控制算子的原因是以下哪個(gè)選項(xiàng)()A、spark備份的安全原因B、spark用戶的要求C、兼容hiveD、兼容hbase70.以下關(guān)于driver的特性說(shuō)法正確的是()A、foreachB、countC、mapD、flatmap71.hadoop架構(gòu)中的主要用InputFormats進(jìn)行數(shù)據(jù)切分,哪一個(gè)是默認(rèn)值()A、TextInputFormatB、KeyValueInputFormatC、SequenceFileInputFormatD、FileInputFormat72.以下有關(guān)Flume的敘述正確的是()A、Flume是消息中間件B、Flume是日志收集系統(tǒng)C、Flume是緩沖組件D、以上都不對(duì)73.spark支持的分布式部署方式中哪個(gè)是錯(cuò)誤的()A、standaloneB、sparkonmesosC、sparkonYARND、sparkonlocal74.下面哪個(gè)端口不是spark自帶服務(wù)的端口()A、8080B、8090C、18080D、404075.在scala中,以下哪些屬于動(dòng)作算子()A、foreachB、reduceC、countD、map第2卷一.參考題庫(kù)(共75題)1.關(guān)于高階函數(shù)描述錯(cuò)誤的是:()A、在程序中應(yīng)該首先被定義的函數(shù)B、將函數(shù)作為參數(shù)其他函數(shù)的參數(shù)使用C、執(zhí)行時(shí)間長(zhǎng)的函數(shù)D、函數(shù)的方法體比較長(zhǎng)2.spark中cache算子是()的算子A、延遲執(zhí)行B、立即執(zhí)行C、等待執(zhí)行D、陳列執(zhí)行3.數(shù)組的下標(biāo)從1開(kāi)始4.類(lèi)默認(rèn)是()級(jí)別的A、publicB、privateC、protectedD、以上都不是5.下面算子中哪些是轉(zhuǎn)換算子()A、cacheB、countC、mapD、flatMap6.spark架構(gòu)中哪些架構(gòu)可以相互轉(zhuǎn)化()A、sparkcoreB、sparksqlC、sparkstreamingD、sparkR7.Scala中,Object相當(dāng)于class的一個(gè)實(shí)例,通常在里面放一些靜態(tài)的()A、FieldB、MethodC、管理塊服務(wù)器D、Source8.spark的組件不包含哪個(gè)()A、sparkcoreB、hdfsC、GraphxD、sparkstreaming9.spark中persist算子具有以下哪個(gè)特性()A、懶執(zhí)行B、立即執(zhí)行C、一致性D、冗余性10.在Linux中文件權(quán)限讀、寫(xiě)、執(zhí)行的三種標(biāo)志符號(hào)依次是()A、xrwB、rwxC、rdxD、srw11.在linux中,文件exer1的訪問(wèn)權(quán)限為rw-r--r--,現(xiàn)要增加所有用戶的執(zhí)行權(quán)限和同組用戶的寫(xiě)權(quán)限,下列命令正確的是()A、chmod?a+x,?g+w?exer1B、chmod?775?exer1C、chmod?765exer1D、chmod?g?w?exer112.Flume有兩個(gè)主要的版本,目前使用的版本是哪個(gè)()A、NG版本B、OG版本C、DG版本D、MG版本13.以下是spark中的轉(zhuǎn)換算子作用的是()A、使程序在內(nèi)存中運(yùn)行B、使程序觸發(fā)執(zhí)行C、使程序具有一致性D、使程序具有安全性14.spark中cache算子和persist算子的關(guān)系()A、_useDiskB、_useMemoryC、_useOffHeapD、_useDes15.spark架構(gòu)中cache算子應(yīng)具有以下哪些特性?()A、spark?coreB、spark?streamingC、GrophxD、spark?sql16.groupByKey算子在一個(gè)(K,V)的RDD上調(diào)用,返回一個(gè)(K,Iterator[V])的RDD17.Rdd不能夠轉(zhuǎn)換成DataFrame18.下面那個(gè)說(shuō)法正確對(duì)于flume必須運(yùn)行在哪個(gè)jdk之上()A、jdk1.6B、jdk1.7C、jdk1.8D、jdk1019.以下關(guān)于特質(zhì)的說(shuō)法錯(cuò)誤的是?()A、類(lèi)可以實(shí)現(xiàn)任意數(shù)量的特質(zhì)。B、特質(zhì)可以要求實(shí)現(xiàn)它們的類(lèi)具備特定的字段、方法或超類(lèi)。C、與Java接口(Interface)相同,Scala特質(zhì)也可以提供方法和字段的實(shí)現(xiàn)。D、當(dāng)將多個(gè)特質(zhì)疊加在一起時(shí),順序很重要——其方法先被執(zhí)行的特質(zhì)排在更后面。20.spark中一個(gè)action算子對(duì)應(yīng)一個(gè)()A、jobB、taskC、driverD、stage21.對(duì)于以下2個(gè)列表的操作,下面那些說(shuō)法說(shuō)法正確vart=List(1,2,3)vart2=List(4,5)()A、vart3=t++t2得到List(1,2,3,4,5)B、vart3=List.concat(t,t2)得到List(1,2,3,4,5)C、vart3=t:::t2得到List(1,2,3,4,5)D、vart3=t.:::(t2)得到List(4,5,1,2,3,)22.spark是哪個(gè)大學(xué)研發(fā)出來(lái)的()A、阿里學(xué)院B、美國(guó)伯克利分校C、麻省理工大學(xué)D、復(fù)旦大學(xué)23.以下對(duì)list的操作distinct說(shuō)法正確的vart=List(1,8,3,5,5)println(t.distinct)()A、distinct為去重操作,返回一個(gè)新的結(jié)果為L(zhǎng)ist(1,8,3,5)B、distinct為去重操作,返回的是在原基礎(chǔ)的列表List(1,8,3,5)C、List為可變列表,沒(méi)有這個(gè)distinct方法返回,編譯出現(xiàn)錯(cuò)誤的是一個(gè)新的去重的新的可變列表ListD、List為可變列表,返回的是一個(gè)新的去重的新的可變列表List(1,8,3,5)24.下面輸出結(jié)果為objectYs{defadd(i:Int)(implicity:Int=100):Int=i+ydefmain(args:Array[String]):Unit={implicitvalabc:Int=300varadd2=add(2);println(add2)}}()A、102B、302C、103D、10525.scala中String類(lèi)沒(méi)有插值器的概念26.sortWith會(huì)將所給的對(duì)象進(jìn)行給定升降序排序,請(qǐng)說(shuō)出下列程序輸出結(jié)果為vala3=Array(4,5,100,7)B22valcs=a3.sortWith(_>_);for(jA、100754B、457100C、754100D、54100727.SCALA有以下哪些特點(diǎn)?()A、Scala是一門(mén)多范式(multi-paradigm)的編程語(yǔ)言,設(shè)計(jì)初衷是要集成面向?qū)ο缶幊毯秃瘮?shù)式編程的各種特性B、Scala運(yùn)行在Java虛擬機(jī)上,并兼容現(xiàn)有的Java程序C、Scala源代碼被編譯成Java字節(jié)碼,所以它可以運(yùn)行于JVM之上,并可以調(diào)用現(xiàn)有的Java類(lèi)庫(kù)D、SCALA語(yǔ)言簡(jiǎn)潔優(yōu)雅大方,很多大數(shù)據(jù)底層框架采用scala去實(shí)現(xiàn)與編程28.SparkSQL是Spark用來(lái)處理結(jié)構(gòu)化數(shù)據(jù)的一個(gè)模塊,它提供了一個(gè)編程抽象叫做DataFrame并且作為分布式SQL查詢引擎的作用29.附屬構(gòu)造器,名稱(chēng)一定是this,參數(shù)不能帶val或var30.只有主構(gòu)造函數(shù)才可以寫(xiě)參數(shù)31.下列數(shù)組定義與其他一致的是?()A、vala=Array[Int](0,0)B、vala=Array(0,0)C、vala=newArray[Int](2)D、vala=Array[Int](1,1)32.objectTest4{defadd(i:Int)(implicity:Int=100):Int=i+ydefmain(args:Array[String]):Unit={implicitvalabc:Int=300implicitvala:Double=300.0varadd2=add(2)(101);println(add2)}}()A、102B、103C、302D、編譯出現(xiàn)錯(cuò)誤,有3個(gè)相同類(lèi)型的隱式值33.以下哪些屬于數(shù)值類(lèi)型?()A、IntB、StringC、FloatD、Long34.spring中關(guān)于bean的說(shuō)法正確的是()A、rdd是由一組partition夠成的B、rdd之間都是獨(dú)立的,沒(méi)有依賴C、算子作用在partition上D、每個(gè)rdd都會(huì)提供一批最優(yōu)的計(jì)算位置35.在以下哪個(gè)jdk上面可以正常運(yùn)行Flume()A、jdk1.5B、jdk1.4C、jdk1.3D、jdk1.636.以下語(yǔ)句的運(yùn)行結(jié)果為varj=2;vari=0;while(iA、4B、8C、16D、3237.hdfs默認(rèn)的備份數(shù)量()A、1B、2C、3D、438.在scala中使用那個(gè)關(guān)鍵字定義方法()A、defB、mainC、objectD、class39.對(duì)于以下列表的操作,那些說(shuō)法說(shuō)法正確varc=List(1,2,3,4,5,99,101)vargs=c.count(_>3)()A、變量gs的結(jié)果為4B、count表示按照括號(hào)內(nèi)的函數(shù)進(jìn)行計(jì)算,本題表示在列表中元素大于3的個(gè)數(shù)計(jì)算C、count表示按照括號(hào)內(nèi)的函數(shù)進(jìn)行求和計(jì)算,本題表示在列表中元素大于3的個(gè)數(shù)求合計(jì),其結(jié)果為299D、以上答案都不對(duì)40.下面對(duì)于for循環(huán)說(shuō)法正確的是?()A、以def開(kāi)頭B、參數(shù)類(lèi)型必須指定C、返回值類(lèi)型可以不指定D、最后一行為返回值41.standalone架構(gòu)是spark架構(gòu)內(nèi)部集成的()A、任務(wù)調(diào)度框架B、任務(wù)模式C、資源調(diào)度框架D、任務(wù)整合42.spark生態(tài)圈不能進(jìn)行實(shí)時(shí)計(jì)算43.scala語(yǔ)言中可以使用breakable和break關(guān)鍵字來(lái)實(shí)現(xiàn)java中的continue功能44.以下關(guān)于sparkstreaming說(shuō)法正確的是()A、sparkstreaming分布式微批架構(gòu)B、sparkstreaming實(shí)時(shí)存儲(chǔ)架構(gòu)C、sparkstreaming是普通存儲(chǔ)架構(gòu)D、sparkstreaming分布式實(shí)時(shí)計(jì)算架構(gòu)45.Spark是在Scala語(yǔ)言中實(shí)現(xiàn)的,它將Scala用作其應(yīng)用程序框架46.以下有關(guān)集合的說(shuō)法中,其中正確的是()A、List集合中數(shù)據(jù)可以重復(fù)B、Set集合中數(shù)據(jù)可以重復(fù)C、Map集合是鍵值對(duì)的形式存儲(chǔ)的數(shù)據(jù)D、Set集合和List集合沒(méi)有區(qū)別47.val:聲明不可變的變量48.spark框架中,機(jī)器學(xué)習(xí)庫(kù)的框架是哪個(gè)()A、hadoopB、spark?streamingC、mlbaseD、RDD49.spring的核心控制器是ActionServlet50.以上是spark組件的是?()A、基于standalone模式到的運(yùn)行B、基于yarn的運(yùn)行模式C、基于mesos模式的運(yùn)行D、基于java的運(yùn)行模式51.Spark是一種快速、通用、可擴(kuò)展的大數(shù)據(jù)分析引擎,2009年誕生于加州大學(xué)伯克利分校AMPLab52.reduceRight通過(guò)如下程序塊其輸出結(jié)果為varlist=List(1,2,99,4,100)varjs=list.reduceRight(_max_)println(js)()A、10B、-2C、-8D、以上答案都不對(duì)53.scala語(yǔ)言中,關(guān)于List的定義。不正確的是?()A、vallist=List(1,2,3)B、vallist=List[Int](1,2,3)C、vallist=List[String](‘a(chǎn)’,’b’,’c’)D、vallist=List[String]()54.在scala中對(duì)于以下2個(gè)列表的操作,那些說(shuō)法說(shuō)法正確vart=List(1,2,3)vart2=List(4,5)()A、vart3=t++t2得到List(1,2,3,4,5)B、vart3=List.concat(t,t2)得到List(1,2,3,4,5)C、vart3=t:::t2得到List(1,2,3,4,5)D、vart3=t.:::(t2)得到List(1,2,3,4,5)55.有關(guān)構(gòu)造器的說(shuō)法那些不正確?()A、下面直接在class后面申明的定義為類(lèi)中的主構(gòu)造器classUser(varx:Int,age:Int){}B、類(lèi)可以有任意多個(gè)輔構(gòu)造器C、每一個(gè)輔構(gòu)造器必須先實(shí)現(xiàn)主構(gòu)造器的方法D、像只有一個(gè)主構(gòu)造器一樣,也只能有一個(gè)輔構(gòu)造器56.以下關(guān)于rdd的特性說(shuō)法錯(cuò)誤的是()A、rdd是僅僅由一組partition夠成的B、rdd之間都是獨(dú)立的,沒(méi)有依賴C、算子作用在partition上D、每個(gè)rdd都會(huì)提供一批最優(yōu)的計(jì)算位置57.storm和sparkstreaming最大的區(qū)別()A、科學(xué)統(tǒng)計(jì)支持B、是否具有schemaC、是否是真正的實(shí)時(shí)計(jì)算框架D、不同公司的產(chǎn)品58.zookeeper具有以下哪幾種節(jié)點(diǎn)()A、臨時(shí)序列化節(jié)點(diǎn)B、臨時(shí)節(jié)點(diǎn)C、持久化節(jié)點(diǎn)D、持久序列化節(jié)點(diǎn)59.join算子在類(lèi)型為(K,V)和(K,W)的RDD上調(diào)用,返回一個(gè)相同key對(duì)應(yīng)的所有元素對(duì)在一起的(K,(V,W))的RDD60.kafka主要組成部分是source、sink和channel61.Kafka是由哪個(gè)組織研的組件()A、googleB、apacheC、sunD、oracle62.DataFrame支持如下那種風(fēng)格()A、易整合B、統(tǒng)一的數(shù)據(jù)訪問(wèn)方式C、兼容HiveD、標(biāo)準(zhǔn)的數(shù)據(jù)連接63.spark中的圖計(jì)算框架是()A、sparkcoreB、sparkstreamingC、mlbaseD、Grophx64.sparkSql可以訪問(wèn)hive數(shù)據(jù),并將其結(jié)果取回作為RDD使用65.以下選項(xiàng)組合后能夠執(zhí)行spark程序的是,換句話說(shuō)spark程序計(jì)算結(jié)果必須包含哪幾個(gè)算子?()A、轉(zhuǎn)換算子,action算子B、轉(zhuǎn)換算子,控制算子C、轉(zhuǎn)換算子,tracform算子D、轉(zhuǎn)換算子66.flume在大數(shù)據(jù)架構(gòu)中的作用是()A、監(jiān)測(cè)收集數(shù)據(jù)B、處理數(shù)據(jù)C、計(jì)算數(shù)據(jù)D、存儲(chǔ)數(shù)據(jù)67.在Spark中以下算子屬于執(zhí)行算子的是()A、mapB、foreachC、flatmapD、join68.spark中map算子具有以下哪個(gè)特性()A、懶執(zhí)行B、立即執(zhí)行C、一致性D、冗余性69.只有主構(gòu)造函數(shù)才可以寫(xiě)參數(shù),進(jìn)行參數(shù)的初始化70.sparkSql是基于hive的71.hadoop中的hdfs是分布式()A、計(jì)算框架B、存儲(chǔ)系統(tǒng)C、中介系統(tǒng)D、網(wǎng)絡(luò)系統(tǒng)72.下面哪個(gè)不是RDD的特點(diǎn)()A、可分區(qū)B、可序列化C、可修改D、可持久化73.下面有關(guān)集合說(shuō)法錯(cuò)誤的是?()A、Set是最簡(jiǎn)單的一種集合。集合中的對(duì)象不按特定的方式排序,并且沒(méi)有重復(fù)對(duì)象B、Map是一種把鍵對(duì)象和值對(duì)象映射的集合,它的每一個(gè)元素都包含一對(duì)鍵對(duì)象和值對(duì)象C、元組是不同類(lèi)型的值的集合D、元組下標(biāo)與別的一樣也是從0開(kāi)始74.在scala中Int類(lèi)型是幾個(gè)字節(jié)()A、1B、2C、3D、475.Scala異常處理:()A、Case匹配的方式處理B、Throw出去
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 二零二五年度彩鋼棚鋼結(jié)構(gòu)材料質(zhì)量檢測(cè)合同3篇
- 2025年度年度財(cái)務(wù)報(bào)表編制保密合作協(xié)議3篇
- 年度非開(kāi)挖導(dǎo)向鉆機(jī)鋪管機(jī)市場(chǎng)分析及競(jìng)爭(zhēng)策略分析報(bào)告
- 二零二五年恒大地產(chǎn)商業(yè)地產(chǎn)租賃及產(chǎn)權(quán)變更代理合同樣本3篇
- 2025廠長(zhǎng)任期企業(yè)可持續(xù)發(fā)展戰(zhàn)略合同3篇
- 二零二五版創(chuàng)業(yè)園區(qū)租賃合同參考模板(含孵化服務(wù))3篇
- 2025年度瓷磚批發(fā)市場(chǎng)入駐經(jīng)營(yíng)合同4篇
- 2025年蔬菜運(yùn)輸合同含蔬菜品牌推廣效果評(píng)估條款2篇
- 2025年度豪華品牌4S店新車(chē)銷(xiāo)售與服務(wù)保障合同3篇
- 2025年LED廣告屏租賃與品牌推廣服務(wù)合同模板3篇
- GB/T 37238-2018篡改(污損)文件鑒定技術(shù)規(guī)范
- 普通高中地理課程標(biāo)準(zhǔn)簡(jiǎn)介(湘教版)
- 河道治理工程監(jiān)理通知單、回復(fù)單范本
- 超分子化學(xué)簡(jiǎn)介課件
- 高二下學(xué)期英語(yǔ)閱讀提升練習(xí)(一)
- 易制爆化學(xué)品合法用途說(shuō)明
- 【PPT】壓力性損傷預(yù)防敷料選擇和剪裁技巧
- 大氣喜慶迎新元旦晚會(huì)PPT背景
- DB13(J)∕T 242-2019 鋼絲網(wǎng)架復(fù)合保溫板應(yīng)用技術(shù)規(guī)程
- 心電圖中的pan-tompkins算法介紹
- 羊絨性能對(duì)織物起球的影響
評(píng)論
0/150
提交評(píng)論