大數(shù)據(jù)開發(fā)框架實(shí)驗(yàn)步驟16spark安裝_第1頁
大數(shù)據(jù)開發(fā)框架實(shí)驗(yàn)步驟16spark安裝_第2頁
大數(shù)據(jù)開發(fā)框架實(shí)驗(yàn)步驟16spark安裝_第3頁
大數(shù)據(jù)開發(fā)框架實(shí)驗(yàn)步驟16spark安裝_第4頁
大數(shù)據(jù)開發(fā)框架實(shí)驗(yàn)步驟16spark安裝_第5頁
已閱讀5頁,還剩9頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

Spark可以獨(dú)立安裝使用,也可以和Hadoop一起安裝使用。本中,我們采用和Hadoop一起安裝使用,這SparkHDFShadoopspark-2.1.0-bin-without-hadoop版本。Spark部署模式主要有四種:Local模式(單機(jī)模式、Standalone模式(Spark自帶的簡(jiǎn)單集群管理器YARN模式(使用YARN作為集群管理器)和Mesos模式(Mesos作為集群管理器。Local模式(單機(jī)模式)的Spark安裝。exportexportSPARK_DIST_CLASSPATH=$(hadoop 。清屏spark命令窗口:輸入:quitSparkSparkPi:run-examplepi6、spark 下測(cè)試(1)(2)本地文spark val 啟動(dòng)時(shí)自動(dòng)創(chuàng)建一個(gè)SparkContext對(duì)象,名字為sc,命令中可直接使用。(datas2是文件另存 , 自動(dòng)建立,如果已存在會(huì)報(bào)異常(4)hdfs文hdfs (5)valwordCount=textFile.flatMap(line=>line.split("")).map(word=>(word,1)).reduceByKey((a,=>a+b)“)Lamdaline.split,也就是針對(duì)line中的一行文本內(nèi)容,采用空格作為分隔符進(jìn)行單詞切分,從一行文本切分得到很多個(gè)單詞構(gòu)成的單詞集合。這樣,對(duì)于textFile中的每行文本,都會(huì)使用Lamda表達(dá)式得到一個(gè)單詞集合,最終,多行文本,就得到1次。reduceByKey((abab)RDD元素按照key7sparkmavensbt,ideeclipseidea。scala/javawindow下安裝開發(fā)環(huán)境(eclipseforscala),linuxmavenjar包。(2)并解壓scala-SDK-4.7.0-vfinal-2.12-win32.win32.x86_64.zip,運(yùn)行解壓下的scalaide。java-installedjre(jrehomejdk解壓,并將解 作為maven工 maven-usersettingssettings.xmlmavensettings.xmld:/maven/repojardsettings.xmlmavenapplyiii)scala-installationsaddscala(scala-解壓,選擇解 下lib作為 ,并為自己的scala命名ApplyandcloseAddArchetypeArchetypeGroupidnet.alchim31.maven,第二ArchetypeArtifactidscala-archetype-simple,version1.6,點(diǎn)擊OK,等待完成。在Catalog里選擇它nextGroupidsdauArtifactwordCount,packageide library。運(yùn) 下。刪 下的類將工程紅叉消除工程下pom.xml用網(wǎng)盤中的替換,然后等待pom.xml指定的庫(kù)(時(shí)間比較長(zhǎng)ScalaObject):packageimportorg.apache.spark.SparkContextimportorg.apache.spark.SparkContext._importorg.apache.spark.SparkConfobjectWordCountdefmain(args:Array[String])//varinputFile="hdfs://hadoop100:9000/wc1.txt"varinputFile="file:///home/hadoop/data/file1.txt"valconf=newSparkConf().setAppName("WordCount")valsc=newSparkContext(conf)valtextFile=valwordCount=textFile.flatMap(line=>line.split("")).map(word=>(word,1)).reduceByKey((a,b)=>a+b)}}(10)打包:右擊工程下pom.xml-runasmavenbuild…-在框的goals中填寫runconsole --class 。hdfspackageimportorg.apache.spark.SparkContextimportorg.apache.spark.SparkContext._importorg.apache.spark.SparkConfobjectWordCountdefmain(args:Array[String])varinputFile="hdfs://VM-24-6-//varinputFile="file:///home/hadoop/data/file1.txt"valconf=newSparkConf().setAppName("WordCount")valsc=newSparkContext(conf)valtextFile=valwordCount=textFile.flatMap(line=>line.split("")).map(word=>(word,1)).reduceByKey((a,b)=>a+b)}}inputFile路徑,VM-24-6-centospackageimportimportimportimportimportimportorg.apache.spark.sql.Dataset;importorg.apache.spark.sql.Row;importorg.apache.spark.sql.SQLContext;importpublicclassSparkSqlTestpublicstatic implementsSerializableprivatestaticfinallongserialVersionUID= privateStringprivateint (Stringname,intage)=this.age=}publicStringtoString()returnname+":"+}publicStringgetName()return}publicvoidsetName(Stringname)=}publicintgetAge()return}publicvoidsetAge(intage)this.age=}}publicstaticvoidmain(String[]args){SparkConfconf=newJavaSparkContextsc=newJavaSparkContext(conf);SparkSessionspark=JavaRDD<String>input=sc.parallelize(Arrays.asList("abc,1",JavaRDD<>s=input.map(s->s.split(",")).map(s->(s[0],//[abc:1,test:2]Dataset<Row>df=spark.createDataFrame( *+---+----+|age|name|+---+----+|1|abc||2|test|+--- *root|--age:integer(nullable=false)|--name:string(nulla

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論