hadoop安裝指南非常詳細包成功_第1頁
hadoop安裝指南非常詳細包成功_第2頁
hadoop安裝指南非常詳細包成功_第3頁
hadoop安裝指南非常詳細包成功_第4頁
hadoop安裝指南非常詳細包成功_第5頁
已閱讀5頁,還剩10頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

1、安裝HADOOP集群服務(wù)器1. 規(guī)劃功能HOSTNAMEIP說明MasterHDM01Namenode 兼datanode SlaveHDS02Datanode SlaveHDS03Datanode ClientHDC04HADOOP客戶端(HDFS/HIVE)2. 環(huán)境2.1. 系統(tǒng)環(huán)境安裝 centOS6.2 => 軟件工作站(software Development Workstation)3. Hadoop安裝3.1. 安裝和配置SSH 、RSYNC( Root用戶)安裝 SSH和rsync 一般系統(tǒng)自帶了;3.2. 創(chuàng)建Hadoop運行用戶( Root用戶)一般我們不會經(jīng)常使用

2、root用戶運行hadoop,所以要創(chuàng)建一個平常運行和管理Hadoop的用戶;Ø 創(chuàng)建hadoop用戶和用戶組 useradd hadoopPS:master和slave節(jié)點機都要創(chuàng)建相同的用戶和用戶組,即在所有集群服務(wù)器上都要建hadoop用戶和用戶組。 3.3. 關(guān)閉防火墻( Root用戶)在啟動前關(guān)閉集群中所有機器的防火墻,不然會出現(xiàn)datanode開后又自動關(guān)閉。所以對集群所有服務(wù)器關(guān)閉防火墻:chkconfig iptables off 查看防火墻狀態(tài):service iptables status 永久關(guān)閉防火墻:chkconfig iptables off 查看防火墻狀

3、態(tài):chkconfig -list iptables 3.4. 配置機器名和網(wǎng)絡(luò)( Root用戶) n 配置HOSTNAME vi /etc/sysconfig/network,修改:HOSTNAME=hmaster 其他節(jié)點依次改為slave1,slave2.不過必須和上面一致 驗證; 輸入命令 hostname n 配置網(wǎng)絡(luò)IP cd /etc/sysconfig/network-scripts vi ifcfg-eth0(因為硬件不同,其中的“eth0”可能是其他名稱) n 配置IP和HOSTNAME映射關(guān)系vi /etc/hosts rootNOAS # more /etc/hosts

4、# localhost localhost.localdomain localhost4 #localhost4.localdomain4:1 localhost localhost.localdomain localhost6 localhost6.localdomain6 HDM01 HDS02 HDS03 HDC043.5. 配置非root用戶免驗證登錄SSH( hadoop用戶)提示:Linux配置ssh是通過欺騙登錄用戶名的。所以上面創(chuàng)建用戶的時候,我們都把3個節(jié)點的username都設(shè)置成hadoop,主要是用戶名必須一

5、致在hadoop用戶的home目錄,即 cd /home/hadoop 下執(zhí)行命令 用hadoop用戶登錄(第 一/二/三步分別在每一個節(jié)點上都要執(zhí)行)第一步:ssh-keygen -t rsa -P '' -f /.ssh/id_rsa 意思是讀取 id_dsa文件默認 全部是yes安裝和root用戶一樣,會發(fā)現(xiàn)多處2個文件,一個是公開密匙,一個是訪問用戶名字信息的第二步:cat /.ssh/id_rsa.pub >> /.ssh/authorized_keys是把暴露出來的公共密匙按順序?qū)隺uthorized_keys中保存第三步:chmod 700 /.ss

6、hchmod 600 /.ssh/authorized_keysssh機制很嚴謹,對文件的權(quán)限要求非常嚴格我們需要把.ssh文件夾的權(quán)限改為700 ,默認是777authorized_keys的權(quán)限這里是對的,600第四步:在主節(jié)點上執(zhí)行下列命令ssh HDS02 cat /.ssh/id_rsa.pub >> /.ssh/authorized_keysssh HDS03 cat /.ssh/id_rsa.pub >> /.ssh/authorized_keysscp authorized_keys hadoopHDS02:/home/hadoop/.ssh/scp a

7、uthorized_keys hadoopHDS03:/home/hadoop/.ssh/最終authorized_keys文件要有各個集群服務(wù)器的信息第五步:驗證第一次會要求輸入密碼,完成后測試,每臺機都要求能聯(lián)通:ssh HDM01ssh HDS02ssh HDS03不輸入密碼 就表示成功了;3.6. 安裝JDK( hadoop用戶) 檢查是否已安裝JDK: rpm -qa|grep jdk 檢查JAVA安裝目錄: whick java 檢查是否配置JAVA_HOME: env|grep JAVA_HOME which java 和 JAVA_HOME 路徑不一致,是做了LINK映射roo

8、tNOAS # su - hadoophadoopNOAS $ rpm -qa|grep jdkhadoopNOAS $ which java/usr/bin/javahadoopNOAS $ ls -l /usr/bin/javalrwxrwxrwx. 1 root root 22 Feb 26 22:26 /usr/bin/java -> /etc/alternatives/javahadoopNOAS $ ls -l /etc/alternatives/javalrwxrwxrwx. 1 root root 46 Feb 26 22:26 hadoopNOAS $ env|grep

9、 JAVA_HOME 在當前用戶配置JAVA_HOME,在.bash_profile文件增加藍色部分,最后 source /home/hadoop/.bash_profile ,使生效hadoopNOAS $ cd /home/hadoop/hadoopNOAS $ more .bash_profile# .bash_profile# Get the aliases and functionsif -f /.bashrc ; then . /.bashrcfi# User specific environment and startup programsPATH=$PATH:$HOME/bin

10、export PATHPATH=$JAVA_HOME/bin:$PATHCLASSPATH=$CLASSPATH:.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jarexport JAVA_HOMEexport PATHexport CLASSPATHhadoopNOAS $ 3.7. 安裝Hadoop( root用戶)3.7.1. 安裝rpm包:用rpm包安裝,目錄都是默認的比較規(guī)范 用root用戶: 3.7.2. 配置Hadoop配置文件(每臺機器服務(wù)器都要配置,且都是一樣的,配置完一臺其他的只需要拷貝,每臺機上的core-site.xml和ma

11、pred-site.xml都是配master服務(wù)器的hostname,因為都是配置hadoop的入口) core-site.xml:整個hadoop入口的配置 vi /etc/hadoop/core-site.xml,配置如下內(nèi)容: <property> <name>hadoop.tmp.dir</name> <value>/home/hadoop/tmp</value> </property> <property> <name></name> <va

12、lue>hdfs:/HDM01:9000</value> </property> vi /etc/hadoop/hdfs-site.xml,配置如下內(nèi)容: <property> <name>dfs.replication</name> <value>2</value> </property> vi /etc/hadoop/mapred-site.xml,配置如下內(nèi)容: <property> <name>mapred.job.tracker</name> &l

13、t;value>HDM01:9001</value> </property>配置說明:n core-site.xmlØ hadoop.tmp.dir是hadoop文件系統(tǒng)依賴的基礎(chǔ)配置,很多路徑都依賴它。它默認的位置是在/tmp/$user下面,但是在/tmp路徑下的存儲是不安全的,因為linux一次重啟,文件就可能被刪除。修改該參數(shù)后要格式NAMENODE: hadoop namenode -format3.7.3. 配置Hadoop集群配置文件(只需要配置namemode節(jié)點機,這里的HDM01即做namenode也兼datanode,一般情況nam

14、enode要求獨立機器,namemode不兼datanode) vi /etc/hadoop/masters,配置如下內(nèi)容: HDM01 vi /etc/hadoop/slaves,配置如下內(nèi)容:HDM01HDS02HDS033.7.4. 配置非ROOT用戶權(quán)限n (包含用非root用戶啟動Hadoop所需的額外項) 將/usr/sbin/下的以下腳本文件的owner設(shè)為testusr,且賦給owner全權(quán)rwx :chown hadoop:hadoop /usr/sbin/hadoop-create-user.shchown hadoop:hadoop /usr/sbin/hadoop-da

15、emon.shchown hadoop:hadoop /usr/sbin/hadoop-daemons.shchown hadoop:hadoop /usr/sbin/hadoop-setup-applications.shchown hadoop:hadoop /usr/sbin/hadoop-setup-conf.shchown hadoop:hadoop /usr/sbin/hadoop-setup-hdfs.shchown hadoop:hadoop /usr/sbin/hadoop-setup-single-node.shchown hadoop:hadoop /usr/sbin/h

16、adoop-validate-setup.shchown hadoop:hadoop /usr/sbin/rccchown hadoop:hadoop /usr/sbin/slaves.shchown hadoop:hadoop /usr/sbin/start-all.shchown hadoop:hadoop /usr/sbin/start-balancer.shchown hadoop:hadoop /usr/sbin/start-dfs.shchown hadoop:hadoop /usr/sbin/start-jobhistoryserver.shchown hadoop:hadoop

17、 /usr/sbin/start-mapred.shchown hadoop:hadoop /usr/sbin/stop-all.shchown hadoop:hadoop /usr/sbin/stop-balancer.shchown hadoop:hadoop /usr/sbin/stop-dfs.shchown hadoop:hadoop /usr/sbin/stop-jobhistoryserver.shchown hadoop:hadoop /usr/sbin/stop-mapred.shchown hadoop:hadoop /usr/sbin/update-hadoop-env.

18、shchmod u+rwx /usr/sbin/hadoop-create-user.shchmod u+rwx /usr/sbin/hadoop-daemon.shchmod u+rwx /usr/sbin/hadoop-daemons.shchmod u+rwx /usr/sbin/hadoop-setup-applications.shchmod u+rwx /usr/sbin/hadoop-setup-conf.shchmod u+rwx /usr/sbin/hadoop-setup-hdfs.shchmod u+rwx /usr/sbin/hadoop-setup-single-no

19、de.shchmod u+rwx /usr/sbin/hadoop-validate-setup.shchmod u+rwx /usr/sbin/rccchmod u+rwx /usr/sbin/slaves.shchmod u+rwx /usr/sbin/start-all.shchmod u+rwx /usr/sbin/start-balancer.shchmod u+rwx /usr/sbin/start-dfs.shchmod u+rwx /usr/sbin/start-jobhistoryserver.shchmod u+rwx /usr/sbin/start-mapred.shch

20、mod u+rwx /usr/sbin/stop-all.shchmod u+rwx /usr/sbin/stop-balancer.shchmod u+rwx /usr/sbin/stop-dfs.shchmod u+rwx /usr/sbin/stop-jobhistoryserver.shchmod u+rwx /usr/sbin/stop-mapred.shchmod u+rwx /usr/sbin/update-hadoop-env.shn 將/usr/bin/下的hadoop設(shè)為所有人(不是其他人)可讀可執(zhí)行。即chmod 555(不是chmod 005)chmod 555 /us

21、r/bin/hadoopn /var/log/hadoop/及其下(循環(huán))的owner設(shè)為testusr,且賦給owner全權(quán)rwx /var/run/hadoop/及其下(循環(huán))的owner設(shè)為testusr,且賦給owner全權(quán)rwx/home/hadoop/及其下(循環(huán))的owner設(shè)為testusr,且owner權(quán)限設(shè)為“rwxr-xr-x”,設(shè)為更大權(quán)限不行,主要是因為/home/hadoop/tmp/dfs/data的權(quán)限需要為“rwxr-xr-x”chown -R hadoop:hadoop /var/log/hadoop/ chown -R hadoop:hadoop /var

22、/run/hadoop/chown -R hadoop:hadoop /home/hadoop/chmod -R u+rwx /var/log/hadoop/ chmod -R u+rwx /var/run/hadoop/chmod -R u+rwx /home/hadoop/3.7.5. 配置HADOOP的JAVA環(huán)境 配置Hadoop的java環(huán)境與env的JAVA_HOME保持一致,文件/etc/hadoop/hadoop-env.sh # The java implementation to use.#export JAVA_HOME=/usr/java/defaultexport H

23、ADOOP_CONF_DIR=$HADOOP_CONF_DIR:-"/etc/hadoop"3.8. 格式化HDFS( hadoop用戶) hadoop namenode -format(用hadoop用戶) 重新format時,系統(tǒng)提示如下: Re-format filesystem in /home/hadoop/tmp/dfs/name ? (Y or N) 必須輸入大寫Y,輸入小寫y不會報輸入錯誤,但format出錯。chown -R hadoop:hadoop /home/hadoop/chmod -R 755 /home/hadoop/3.9. 啟動Hadoop

24、( hadoop用戶) Hadoop用戶登錄 命令: start-all.sh (記得關(guān)閉所有的防火墻)3.9.1. 驗證hadoop (1)驗證方法一:用"jps"命令在Master上用 java自帶的小工具jps查看5個進程都在。   在Slave1上用jps查看進程。 如果在查看Slave機器中發(fā)現(xiàn)"DataNode"和"TaskTracker"沒有起來時,先查看一下日志的,如果是"namespaceID"不一致問題,采用"常見問題FAQ6.2"進行解決,如果

25、是"No route to host"問題,采用"常見問題FAQ6.3"進行解決。 (2)驗證方式二:用"hadoop dfsadmin -report"用這個命令可以查看Hadoop集群的狀態(tài)。Master服務(wù)器的狀態(tài):  Slave服務(wù)器的狀態(tài)  4.4 網(wǎng)頁查看集群1)訪問"http:50030"   2)訪問"http: :50070" 3.10.  HADOOP語法3.10.1. 啟動/關(guān)閉

26、16; Start-all.sh / stop-all.shØ3.10.2. 進程Ø JpsMaster節(jié)點:namenode/tasktracker(如果Master不兼做Slave, 不會出現(xiàn)datanode/TasktrackerSlave節(jié)點:datanode/Tasktracker說明:JobTracker  對應(yīng)于 NameNodeTaskTracker 對應(yīng)于 DataNodeDataNode 和NameNode 是針對數(shù)據(jù)存放來而言的JobTracker和TaskTracker是對于MapReduce執(zhí)行而言的 mapreduce中幾個主

27、要概念,mapreduce整體上可以分為這么幾條執(zhí)行線索:jobclient,JobTracker與TaskTracker。1、JobClient會在用戶端通過JobClient類將應(yīng)用已經(jīng)配置參數(shù)打包成jar文件存儲到hdfs,并把路徑提交到Jobtracker,然后由JobTracker創(chuàng)建每個Task(即MapTask和ReduceTask)并將它們分發(fā)到各個TaskTracker服務(wù)中去執(zhí)行2、JobTracker是一個master服務(wù),軟件啟動之后JobTracker接收Job,負責調(diào)度Job的每一個子任務(wù)task運行于TaskTracker上,并監(jiān)控它們,如果發(fā)現(xiàn)有失敗的task就

28、重新運行它。一般情況應(yīng)該把JobTracker部署在單獨的機器上。3、TaskTracker是運行在多個節(jié)點上的slaver服務(wù)。TaskTracker主動與JobTracker通信,接收作業(yè),并負責直接執(zhí)行每一個任務(wù)。TaskTracker都需要運行在HDFS的DataNode上3.10.3. 文件系統(tǒng)HDFSn 查看文件系統(tǒng)根目錄:Hadoop fs ls / 文件系統(tǒng)的目錄和文件是不能再本地系統(tǒng)查看到的;相當于兩個不同的系統(tǒng);4. 常見錯誤4.1. 錯誤 :(hadoop)could only be replicated to 0 nodes, instead of 1 現(xiàn)象:namen

29、ode端的namenodelog一直報could only be replicated to 0 nodes, instead of 1  錯誤,表示沒有一個可用的節(jié)點 。datanode端一直報錯:Server at /1:54310 not available yet, Zzzzz.2011-03-03 11:33:10,047 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: /1:54310,一直嘗試連接master但連接不上 。改正:在namenode中配置maste

30、r 和 jobtracker的ip時使用的是localhost ,將這兩個改成namenode以及jobtracker本機的實際ip后,問題得以解決 。 具體的原因我也不太明白 。當然這個錯誤還有其他的幾個原因(摘自網(wǎng)上):dfs的空間不足 。namenode運行在safemodel下。namenode所在機器的防火墻開著是的datanode無法訪問master 。這幾個問題詳見:Ø HADOOP 重新格式化文件后,要刪除 cd /home/hadop/tmp/data rm rf dataØ Name node is in safe mode.   在分布式文件系統(tǒng)啟動的時候,開始的時候會有安全模式,當分布式文件系統(tǒng)處于安全模式的情況下,文件系統(tǒng)中的內(nèi)容不允許修改也不允許刪除,直到安全模式結(jié) 束。安全模式主要是為了系統(tǒng)啟動的時候檢查各個DataNode上數(shù)據(jù)塊的有效性,同時根據(jù)策略必要的復制或者刪除部分數(shù)據(jù)塊。運行期通過命令也可以進入 安全模式。在實踐過

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論