Spark大數(shù)據(jù)分析 課件 第5章 Spark核心原理_第1頁
Spark大數(shù)據(jù)分析 課件 第5章 Spark核心原理_第2頁
Spark大數(shù)據(jù)分析 課件 第5章 Spark核心原理_第3頁
Spark大數(shù)據(jù)分析 課件 第5章 Spark核心原理_第4頁
Spark大數(shù)據(jù)分析 課件 第5章 Spark核心原理_第5頁
已閱讀5頁,還剩34頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認(rèn)領(lǐng)

文檔簡介

SparkSQL簡介目錄/Contents01什么是SparkSQL02SparkSQL架構(gòu)什么是SparkSQL01什么是SparkSQLSparkSQL是Spark用來處理結(jié)構(gòu)化數(shù)據(jù)(結(jié)構(gòu)化數(shù)據(jù)可以來自外部結(jié)構(gòu)化數(shù)據(jù)源也可以通過RDD獲?。┑囊粋€模塊,它提供了一個編程抽象叫做DataFrame并且作為分布式SQL查詢引擎的作用。外部的結(jié)構(gòu)化數(shù)據(jù)源包括JSON、Parquet(默認(rèn))、RMDBS、Hive等。當(dāng)前SparkSQL使用Catalyst優(yōu)化器來對SQL進行優(yōu)化,從而得到更加高效的執(zhí)行方案。并且可以將結(jié)果存儲到外部系統(tǒng)。什么是SparkSQLSparkSQL的前身是Shark,Shark最初是美國加州大學(xué)伯克利分校的實驗室開發(fā)的Spark生態(tài)系統(tǒng)的組件之一,它運行在Spark系統(tǒng)之上,Shark重用了Hive的工作機制,并直接繼承了Hive的各個組件,Shark將SQL語句的轉(zhuǎn)換從MapReduce作業(yè)替換成了Spark作業(yè),雖然這樣提高了計算效率,但由于Shark過于依賴Hive,因此在版本迭代時很難添加新的優(yōu)化策略,從而限制了Spark的發(fā)展,在2014年,伯克利實驗室停止了對Shark的維護,轉(zhuǎn)向SparkSQL的開發(fā)。SparkSQL主要提供了以下3個功能。什么是SparkSQL(1)SparkSQL可以從各種結(jié)構(gòu)化數(shù)據(jù)源(如JSON、Hive、Parquet等)中讀取數(shù)據(jù),進行數(shù)據(jù)分析。(2)SparkSQL包含行業(yè)標(biāo)準(zhǔn)的JDBC和ODBC連接方式,因此它不局限于在Spark程序內(nèi)使用SQL語句進行查詢。(3)SparkSQL可以無縫地將SQL查詢與Spark程序進行結(jié)合,它能夠?qū)⒔Y(jié)構(gòu)化數(shù)據(jù)作為Spark中的分布式數(shù)據(jù)集(RDD)進行查詢,在Python、Scala和Java中均集成了相關(guān)API,這種緊密的集成方式能夠輕松地運行SQL查詢以及復(fù)雜的分析算法。

SparkSQL架構(gòu)02SparkSQL架構(gòu)SparkSQL架構(gòu)與Hive架構(gòu)相比除了把底層的MapReduce執(zhí)行引擎更改為Spark還修改了Catalyst優(yōu)化器,SparkSQL快速的計算效率得益于Catalyst優(yōu)化器。從HiveQL被解析成語法抽象樹起,執(zhí)行計劃生成和優(yōu)化的工作全部交給SparkSQL的Catalyst優(yōu)化器進行負(fù)責(zé)和管理。SparkSQL快速的計算效益得益于Catalyst優(yōu)化器。從HiveQL被解析成語法抽象樹起,執(zhí)行計劃生成和優(yōu)化的工作全部交給SparkSQL的Catalyst優(yōu)化器負(fù)責(zé)和管理。如圖7-1所示為SparkSQL整體架構(gòu)。SparkSQL架構(gòu)Catalyst優(yōu)化器是一個新的可擴展的查詢優(yōu)化器,它是基于Scala函數(shù)式編程結(jié)構(gòu),SparkSQL開發(fā)工程師設(shè)計可擴展架構(gòu)主要是為了在今后的版本迭代時,能夠輕松地添加新的優(yōu)化技術(shù)和功能,尤其是為了解決大數(shù)據(jù)生產(chǎn)環(huán)境中遇到的問題(例如,針對半結(jié)構(gòu)化數(shù)據(jù)和高級數(shù)據(jù)分析),另外,Spark作為開源項目,外部開發(fā)人員可以針對項目需求自行擴展Catalyst優(yōu)化器的功能。SparkSQL架構(gòu)Catalyst主要的實現(xiàn)組件介紹如下。1、sqlParse:完成sql語句的語法解析功能,目前只提供了一個簡單的sql解析器;2、Analyzer:主要完成綁定工作,將不同來源的UnresolvedLogicalPlan和數(shù)據(jù)元數(shù)據(jù)(如hivemetastore、Schemacatalog)進行綁定,生成resolvedLogicalPlan;3、Optimizer:對resolvedLogicalPlan進行優(yōu)化,生成optimizedLogicalPlan;4、Planner:將LogicalPlan轉(zhuǎn)換成PhysicalPlan;5、CostModel:主要根據(jù)過去的性能統(tǒng)計數(shù)據(jù),選擇最佳的物理執(zhí)行計劃Spark作為開源項目,外部開發(fā)人員可以針對項目需求自行擴展Catalyst優(yōu)化器的功能。如圖7-2所示為SparkSQL的運行架構(gòu)。SparkSQL架構(gòu)如上圖所示,SparkSQL的工作流程可以分為如下幾步:(1)使用SessionCatalog保存元數(shù)據(jù)在解析SQL語句之前,會創(chuàng)建SparkSession,或者如果是2.0之前的版本初始化SQLContext,SparkSession只是封裝了SparkContext和SQLContext的創(chuàng)建而已。會把元數(shù)據(jù)保存在SessionCatalog中,涉及到表名,字段名稱和字段類型。創(chuàng)建臨時表或者視圖,其實就會往SessionCatalog注冊。(2)解析SQL使用ANTLR生成未綁定的邏輯計劃當(dāng)調(diào)用SparkSession的SQL或者SQLContext的SQL方法,我們以2.0為準(zhǔn),就會使用SparkSqlParser進行解析SQL。使用的ANTLR進行詞法解析和語法解析。它分為2個步驟來生成UnresolvedLogicalPlan:詞法分析:LexicalAnalysis,負(fù)責(zé)將token分組成符號類。構(gòu)建一個分析樹或者語法樹AST。(3)使用分析器Analyzer綁定邏輯計劃在該階段,Analyzer會使用AnalyzerRules,并結(jié)合SessionCatalog,對未綁定的邏輯計劃進行解析,生成已綁定的邏輯計劃。SparkSQL架構(gòu)(4)使用優(yōu)化器Optimizer優(yōu)化邏輯計劃優(yōu)化器也是會定義一套Rules,利用這些Rule對邏輯計劃和Exepression進行迭代處理,從而使得樹的節(jié)點進行合并和優(yōu)化。(5)使用SparkPlanner生成物理計劃SparkSpanner使用PlanningStrategies,對優(yōu)化后的邏輯計劃進行轉(zhuǎn)換,生成可以執(zhí)行的物理計劃SparkPlan.(6)使用QueryExecution執(zhí)行物理計劃此時調(diào)用SparkPlan的execute方法,底層其實已經(jīng)再觸發(fā)job了,然后返回RDD。感謝大家的聆聽DataFrames目錄/Contents01DataFrames創(chuàng)建02操作DataFrames03RDD轉(zhuǎn)換為DataFramesDataFrames創(chuàng)建01DataFrames創(chuàng)建在Spark2.0版本之前,SparkSQL中的SQLContext是創(chuàng)建DataFrame和執(zhí)行SQL的入口,可以利用HiveContext接口,通過HiveQL語句操作Hive表數(shù)據(jù),實現(xiàn)數(shù)據(jù)查詢功能。從Spark2.0版本以上開始,Spark使用全新的SparkSession接口替代SQLContext及HiveContext接口來實現(xiàn)對其數(shù)據(jù)加載、轉(zhuǎn)換、處理等功能。DataFrames創(chuàng)建1.?dāng)?shù)據(jù)準(zhǔn)備2.通過文件創(chuàng)建DataFrame3.RDD轉(zhuǎn)換為DataFrame操作DataFrames02操作DataFramesDataFrame提供了兩種語法風(fēng)格,即DSL風(fēng)格語法和SQL風(fēng)格語法,兩者在功能上并無區(qū)別,僅僅是根據(jù)用戶習(xí)慣,自定義選擇操作方式。DSL風(fēng)格2.SQL風(fēng)格RDD轉(zhuǎn)換為DataFrames03RDD轉(zhuǎn)換為DataFramesSparkSQL支持兩種不同的方式轉(zhuǎn)換已經(jīng)存在的RDD到DataFrame。第一種方式,是使用反射來推斷包含了特定數(shù)據(jù)類型的RDD的元數(shù)據(jù)。這種基于反射的方式,代碼比較簡潔,當(dāng)你已經(jīng)知道你的RDD的元數(shù)據(jù)時,是一種非常不錯的方式。這個方式簡單,但是不建議使用,因為在工作當(dāng)中,使用這種方式是有限制的。感謝大家的聆聽SparkSQL多數(shù)據(jù)源操作目錄/Contents01

MySQL數(shù)據(jù)源操作02Hive數(shù)據(jù)源操作MySQL數(shù)據(jù)源操作01MySQL數(shù)據(jù)源操作SparkSQL可以通過JDBC從關(guān)系數(shù)據(jù)庫中讀取數(shù)據(jù)創(chuàng)建DataFrame,通過對DataFrame進行一系列操作后,還可以將數(shù)據(jù)重新寫入關(guān)系數(shù)據(jù)庫中,當(dāng)使用JDBC訪問其它數(shù)據(jù)庫時,應(yīng)該首選JDBCRDD。這是因為結(jié)果是以數(shù)據(jù)框(DataFrame)返回的,且這樣SparkSQL操作輕松或便于連接其它數(shù)據(jù)源。MySQL數(shù)據(jù)源操作1.讀取MySQL數(shù)據(jù)庫通過navicat或者SQLyog工具遠程連接master節(jié)點的MySQL服務(wù),利用可視化界面創(chuàng)建名為spark_sql的數(shù)據(jù)庫,并創(chuàng)建person表,向表中添加數(shù)據(jù)。2.向MySQL中寫入數(shù)據(jù)SparkSQL不僅可以查詢MySQL中的數(shù)據(jù),還可以將數(shù)據(jù)寫入MySQL中。Hive數(shù)據(jù)源操作02Hive數(shù)據(jù)源操作1.環(huán)境準(zhǔn)備Hive采用MySQL數(shù)據(jù)庫存放Hive元數(shù)據(jù),為了能夠讓Spark訪問Hive,需要將MySQL驅(qū)動包復(fù)制到Spark安裝路徑下的jars目錄下。2.創(chuàng)建數(shù)據(jù)庫與表配置完成后啟動hive創(chuàng)建對應(yīng)的數(shù)據(jù)庫與表。SparkSQL支持對Hive中存儲的數(shù)據(jù)進行讀寫。下面介紹通過SparkSQL操作Hive數(shù)據(jù)倉庫的具體步驟。Hive數(shù)據(jù)源操作3.SparkSQL操作Hive數(shù)據(jù)庫執(zhí)行Spark-Shell,首先進入sparksql數(shù)據(jù)庫,查看當(dāng)前數(shù)據(jù)倉庫中是否有person表。4.向表中插入數(shù)據(jù)在插入數(shù)據(jù)之前先查看表中的數(shù)據(jù)。感謝大家的聆聽SparkSQL應(yīng)用案例目錄/Contents01SparkSQL實現(xiàn)單詞統(tǒng)計02電影數(shù)據(jù)分析SparkSQL實現(xiàn)單詞統(tǒng)計01SparkSQL實現(xiàn)單詞統(tǒng)計(1)實驗內(nèi)容本實驗主要介紹在IDEA中開發(fā)SparkSQL案例-WordCount,以SQL和DSL兩種方式實現(xiàn)。(2)實驗?zāi)康氖煜parkSQL的SQL和DSL的使用方法和區(qū)別(3)實驗步驟步驟1SQL方式實現(xiàn)WordCount步驟2DSL方式實現(xiàn)WordCount(4)步驟1SQL方式實現(xiàn)WordCo

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論