hadoop培訓1高級開發(fā)實戰(zhàn)_第1頁
hadoop培訓1高級開發(fā)實戰(zhàn)_第2頁
hadoop培訓1高級開發(fā)實戰(zhàn)_第3頁
hadoop培訓1高級開發(fā)實戰(zhàn)_第4頁
hadoop培訓1高級開發(fā)實戰(zhàn)_第5頁
已閱讀5頁,還剩41頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

目前流行什么 +大數(shù)Hadoop1.0 Hadoop1.0HDFS分布SecondaryNameNode根據過editslogHadoop2.0Hadoop2.0新特性:NameNodeHadoop2.0HA Hadoop2.0新特性:通過 HadoopNFSv3實現(xiàn)方

NFS允許用戶像本地文件系統(tǒng) 通過引入一個NFSgateway服務實,該服務能將NFS協(xié)議轉換 協(xié)unnameduser(fileunnamedgroup(filenamednamed權限掩碼,用于過濾nameduser和namedgroup的權限MapReduceMapReduceMapReduceMapReduce

(2)assign

local

getmap

(onlocaldisks)

MapReduceMapReduceReduceMapper抽象1、protectedvoidsetup(Context2、protectedvoidmap(KEYINkey,VALUEINContextcontext)throwsIOException,InterruptedException{context.write((KEYOUT)key,(VALUEOUT)}3、protectedvoidcleanup(Context)throwsIOException,InterruptedException//}4、publicvoidrun(Contextcontext)throwsIOException,InterruptedException{while(context.nextKeyValue())}Reducer抽象1protectedvoidsetup(Context)throwsIOException,InterruptedException}2、protectedvoidreduce(KEYINkey, ble<VALUEIN>values,Context)throwsIOException,InterruptedException{for(VALUEINvalue:values){context.write((KEYOUT)key,(VALUEOUT)}}3、protectedvoidcleanup(Context)throwsIOException,InterruptedException}4、publicvoidrun(ContextcontextthrowsIOExceptionInterruptedExceptionwhile(context.nextKey())}} 文件輸入格式Defaultformat;readsoftextThebyteoffsetofTheParseslinesintokey-valEverythinguptothefirsttabcharacterofthelineAHadoop-specifichigh-performancebinaryformat輸入數(shù)據分塊輸入數(shù)據分塊InputSplit定義了輸入到單個任務的輸入數(shù)一個MapReduce程序被統(tǒng)稱InputSplit將文件分為64MB數(shù)據記錄讀入 讀入一個文本行數(shù)據記合并相同key的鍵值對,減少partitioner時候的數(shù)據通信開是在本地執(zhí)行的一個Reducer,滿足一定的條件才能夠執(zhí)行Partitioner&Partitioner&,用來決定一個給定(key,value)對傳給哪個節(jié)

傳輸?shù)矫恳粋€Reducer節(jié)點上新版本的編程接口是文件輸出格式 個號(partitionid) Default;writeslinesin"key\tvalue"WritesbinaryfilessuitableforreadingsubsequentMapReduceDisregardsitsHadoopStreaming介 運行一個MapReduce運行一個MapReduceStreamingcattest.log|wcfs-三、運行/bin/hadoopjarcontrib/streaming/hadoop-streaming--mappercat-reducer'wc-- /data/test.log-outputHadoopMRhadoops MapReduce案例實 Hadoop1.0的局限-Hadoop1.0的局限-擴展可用

map-reducejob非常多的時候,會造成很大的內存開銷,潛在來說,也增加了JobTrackerfail的風險,這也是業(yè)界普遍總結出老Hadoop的Map-Reduce只能支持4000節(jié)點主機的上限。存在單點故障,一旦故障,批處理模低效的資源管把資源強制劃分為maptaskslot和reducetaskslot,有maptask或者只有reducetask的時候,會造成資源的浪費Hadoop2.0新特性:YARN

YARNHadoop2.0啟動 處理來自 Hadoop2.0新特性:YARN-1.0資源調概概念:SlotHadoop1.0采用了靜態(tài)資源設置策略,即每個節(jié)點實現(xiàn)配Hadoop1.0將slot分為Mapslot和Reduceslot兩種,不允許共沒引入有效的資源機制,采用了基于jvm的資源機Hadoop2.0新特性:YARN的資源概概念:Container,實現(xiàn)資源動態(tài)管理Hadoop2.0新特性:YARN的資源可

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論