当前位置 : 主页 > 手机开发 > harmonyos >

hadoop(1.2) 分布式部署

来源:互联网 收集:自由互联 发布时间:2023-08-25
1. 部署环境 系统: CentOS 6.3 需要安装jdk. JDK的RPM下载地址: http://www.oracle.com/technetwork/java/javase/downloads/jdk7-downloads-1880260.html hadoop手册地址: http://hadoop.apache.org/docs/r1.2.1/index.html 关闭iptable


1. 部署环境

系统:  CentOS 6.3

需要安装jdk.

JDK的RPM下载地址: http://www.oracle.com/technetwork/java/javase/downloads/jdk7-downloads-1880260.html

hadoop手册地址: http://hadoop.apache.org/docs/r1.2.1/index.html

关闭iptables和selinux

/etc/init          .d          /iptables           stop         


          chkconfig iptables off         


          sed           -i           's/SELINUX=enforcing/SELINUX=disabled/'           /etc/selinux/config         


          setenforce 0



 

2. SSH配置


useradd           hadoop         


          echo           123456 |           passwd           --stdin hadoop         


          su           - hadoop         


                    


          ssh          -keygen -t rsa                                                #生成密钥对         


          ssh          -copy-          id           user@ip                                              #将ssh公钥copy到指定的主机         


                    


          cd           .          ssh           #每台服务器本机也需要配置ssh免密码登录         


          cat           id_rsa.pub  >> authorized_keys



 

3. 部署hadoop

官网: http://hadoop.apache.org/

下载: http://mirror.bit.edu.cn/apache/hadoop/common/

wget http:          //mirrors          .hust.edu.cn          /apache/hadoop/common/hadoop-1          .2.1          /hadoop-1          .2.1.          tar          .gz         


          tar           xf hadoop-1.2.1.          tar          .gz



 

修改配置

     1.    conf/hadoop-env.sh

这是一个脚本文件,主要是用来初始化hadoop环境的.

修改JAVA_HOME变量, 告诉在那里可以找到java ,  这里安装的是oracle jre的rpm,如下配置..

vi           hadoop-          env          .sh         


          export           JAVA_HOME=          /usr/java/jdk1          .7.0_67



 

    2.    conf/core-site.xml

<configuration>         


                    <property>         


                    <name>fs.default.name<          /name          >                                #指定名称节点在哪里...         


                    <value>hdfs:          //hadoop1          :9000<          /value          >                          #名称节点是hadoop1, 也可以写成ip地址.         


                    <          /property          >         


                    


                    <property>          


                    <name>hadoop.tmp.          dir          <          /name          >                                 #指定hadoop的临时文件目录,如果不指定会使用/tmp         


                    <value>          /home/hadoop/hadoop-1          .2.1          /tmp          <          /value          >                #要记得创建目录 mkdir /home/hadoop-1.2.1/tmp         


                    <          /property          >         


                    


                    <property>         


                    <name>fs.trash.interval<          /name          >                               #指定回收站的清空间隔         


                    <value>21600<          /value          >                                         #单位是分钟         


                    <description>         


                    Number of minutes between trashcheckpoints. If zero, the trash feature is disabled         


                    <          /description          >         


                    <          /property          >         


          <          /configuration          >



 

     3.  conf/hdfs-site.xml

<configuration>         


                    <property>         


                    <name>dfs.replication<          /name          >                                    #定义hdfs的复制因子,保存多少副本数         


                    <value>2<          /value          >                                                #如果是1的话,不复制..         


                    <          /property          >         


                    


                    <property>         


                    <name>dfs.block.size<          /name          >         


                    <value>67108864<          /value          >         


                    <description>The default block size           for           new files.<          /description          >         


                    <          /property          >         


          <          /configuration          >



 

    4. conf/mapred-site.xml

<configuration>         


                    <property>         


                    <name>mapred.job.tracker<          /name          >                                 #指定jobtracker的地址和监听端口         


                    <value>hadoop1:9001<          /value          >         


                    <          /property          >         


          <          /configuration          >



 

     5.  conf/masters

hadoop1                                                         #在文件中指定充当master的主机名称




 

     6.  conf/slaves

hadoop2                                                         #在文件中指定充当salve的主机名称         


          hadoop3



 

    7.  修改hosts


vi           /etc/hosts         


          192.168.188.210 hadoop1         


          192.168.188.220 hadoop2         


          192.168.188.230 hadoop3



 

    8. 将hadoop目录scp到其他的设备上

所有的hadoop的内容都是一样的,直接scp -r过去就可以了

cd           /home/hadoop         


          scp           -r hadoop-1.2.1 ip:          /home/hadoop



 

    9. 格式化名称节点

cd           hadoop-1.2.1         


          .          /bin/hadoop           namenode -          format         


                    


          如果最后面的信息有下面这样的表示成功...         


          14          /08/30           11:37:05 INFO common.Storage: Storage directory           /home/hadoop/hadoop-1          .2.1          /tmp/dfs/name           has been successfully formatted.




 

4.  启动hadoop

.          /bin/start-all          .sh


 

如果第一次启动不成功,可以运行jps命令查看进程

如果安装的是oracle jdk 的rpm

/usr/java/jdk1.7.0_67/bin/jps  如果有hadoop的进程,可以运行kill命令将其杀掉,然后在启动..

启动后的日志在logs目录中

jobtracker  namenode  secondarynamenode 日志默认都在master上...

tasktracker  datanode    在所有slave的logs中.

 

5.  启动后的检查

通过jps命令查看,    java的进程统计列表

/usr/java/jdk1          .7.0_67          /bin/jps


 

 

总结:

1. 配置hosts文件

2. 建立hadoop运行账号

3. 配置ssh免密码登录

4. 下载并解压hadoop安装包

5. 配置namenode, 修改site文件

6. 配置hadoop-env.sh

7. 配置masters和slaves文件

8. 向各节点复制hadoop

9. 格式化namenode

10. 启动hadoop

11. 用jps检验各后台进程是否成功启动

hadoop(1.2) 分布式部署_apache

上一篇:Java源码分析系列之ArrayList读后感
下一篇:没有了
网友评论