当前位置 : 主页 > 操作系统 > centos >

VMware + Ubuntu18.04 搭建Hadoop集群环境的图文教程

来源:互联网 收集:自由互联 发布时间:2023-07-28
下面是VMware + Ubuntu18.04 搭建Hadoop集群环境的图文教程。 准备工作 下载安装VMware Workstation Pro 15或更高版本。 下载并安装Ubuntu18.04 LTS系统镜像。 配置VMware虚拟网络环境,建议采用NAT模式

下面是VMware + Ubuntu18.04 搭建Hadoop集群环境的图文教程。

准备工作
  1. 下载安装VMware Workstation Pro 15或更高版本。
  2. 下载并安装Ubuntu18.04 LTS系统镜像。
  3. 配置VMware虚拟网络环境,建议采用NAT模式和子网IP。
  4. 下载Hadoop 2.9.2安装包。
在VMware上配置Ubuntu系统
  1. 创建Ubuntu虚拟机,建议配置内存8GB以上,CPU核心数4以上。
  2. 启动Ubuntu虚拟机,进行系统安装,支持网络连接等配置。
  3. 配置Java开发环境,建议采用Oracle Java8或11版本。
sudo add-apt-repository ppa:webupd8team/java
sudo apt update
sudo apt install oracle-java8-installer
sudo apt install oracle-java8-set-default
  1. 安装openssh-server,建议配置无密码登录。
sudo apt install openssh-server
ssh-keygen -t rsa
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
  1. 配置hosts文件,将各个节点的IP地址和域名进行映射。
sudo vim /etc/hosts
192.168.0.101 hadoop-101
192.168.0.102 hadoop-102
192.168.0.103 hadoop-103
配置Hadoop集群环境
  1. 将Hadoop 2.9.2安装包解压到/usr/local/hadoop目录下。
sudo tar zxvf hadoop-2.9.2.tar.gz -C /usr/local
sudo mv /usr/local/hadoop-2.9.2 /usr/local/hadoop
  1. 编辑文件/etc/profile,添加Hadoop环境变量。
sudo vim /etc/profile

export HADOOP_HOME=/usr/local/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
  1. 配置Hadoop的环境变量。
sudo vim /usr/local/hadoop/etc/hadoop/hadoop-env.sh

export JAVA_HOME=/usr/lib/jvm/java-8-oracle
  1. 配置Hadoop的核心配置文件等。
sudo vim /usr/local/hadoop/etc/hadoop/core-site.xml

<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://hadoop-101:9000</value>
    </property>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/usr/local/hadoop/tmp</value>
    </property>
</configuration>

sudo vim /usr/local/hadoop/etc/hadoop/hdfs-site.xml

<configuration>
    <property>
        <name>dfs.replication</name>
        <value>3</value>
    </property>
    <property>
        <name>dfs.namenode.name.dir</name>
        <value>/usr/local/hadoop/tmp/hdfs/namenode</value>
    </property>
    <property>
        <name>dfs.datanode.data.dir</name>
        <value>/usr/local/hadoop/tmp/hdfs/datanode</value>
    </property>
    <property>
        <name>dfs.namenode.secondary.http-address</name>
        <value>hadoop-101:9001</value>
    </property>
</configuration>

sudo vim /usr/local/hadoop/etc/hadoop/mapred-site.xml

<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
    <property>
        <name>mapreduce.jobtracker.address</name>
        <value>hadoop-101:54311</value>
    </property>
    <property>
        <name>mapreduce.jobtracker.http.address</name>
        <value>hadoop-101:50030</value>
    </property>
    <property>
        <name>yarn.app.mapreduce.am.resource.mb</name>
        <value>512</value>
    </property>
</configuration>

sudo vim /usr/local/hadoop/etc/hadoop/yarn-site.xml

<configuration>
    <property>
        <name>yarn.resourcemanager.hostname</name>
        <value>hadoop-101</value>
    </property>
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
    <property>
        <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
        <value>org.apache.hadoop.mapred.ShuffleHandler</value>
    </property>
    <property>
        <name>yarn.nodemanager.local-dirs</name>
        <value>/usr/local/hadoop/yarn/local</value>
    </property>
    <property>
        <name>yarn.nodemanager.log-dirs</name>
        <value>/usr/local/hadoop/yarn/logs</value>
    </property>
    <property>
        <name>yarn.log-aggregation-enable</name>
        <value>true</value>
    </property>
    <property>
        <name>yarn.scheduler.minimum-allocation-mb</name>
        <value>512</value>
    </property>
    <property>
        <name>yarn.scheduler.maximum-allocation-mb</name>
        <value>4096</value>
    </property>
</configuration>
  1. 格式化HDFS文件系统。
sudo /usr/local/hadoop/bin/hadoop namenode -format
启动Hadoop集群服务
  1. 启动HDFS服务。
sudo /usr/local/hadoop/sbin/start-dfs.sh
  1. 查看HDFS服务状态,确认服务已经启动。
sudo /usr/local/hadoop/sbin/hadoop-daemon.sh start namenode
sudo /usr/local/hadoop/sbin/hadoop-daemon.sh start datanode
sudo jps
  1. 启动YARN服务。
sudo /usr/local/hadoop/sbin/start-yarn.sh
  1. 查看YARN服务状态,确认服务已经启动。
sudo /usr/local/hadoop/sbin/yarn-daemon.sh start resourcemanager
sudo /usr/local/hadoop/sbin/yarn-daemon.sh start nodemanager
sudo jps
示例说明
  1. 在Hadoop集群中上传并运行MapReduce程序。
sudo /usr/local/hadoop/bin/hadoop jar /usr/local/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.9.2.jar pi 16 10000
  1. 在Hadoop集群中上传并运行Hive SQL查询。
sudo /usr/local/hadoop/bin/hdfs dfs -mkdir /data
sudo /usr/local/hadoop/bin/hdfs dfs -put /usr/local/hadoop/etc/hadoop/*.xml /data/
sudo /usr/local/hadoop/bin/hive
hive> CREATE TABLE pokes (foo INT, bar STRING);
hive> LOAD DATA INPATH '/data/*.xml' INTO TABLE pokes;
hive> SELECT * FROM pokes;
【文章转自 盐城网站开发公司 http://www.1234xp.com/yancheng.html 复制请保留原URL】
上一篇:windows linux jdk安装配置方法
下一篇:没有了
网友评论