经验首页 前端设计 程序设计 Java相关 移动开发 数据库/运维 软件/图像 大数据/云计算 其他经验
当前位置:技术经验 » 大数据/云/AI » Hadoop » 查看文章
大数据学习笔记【一】:Hadoop-3.1.2完全分布式环境搭建(Windows 10)
来源:cnblogs  作者:丶Buer  时间:2019/7/31 8:59:03  对本文有异议

一、前言

  Hadoop原理架构本人就不在此赘述了,可以自行百度,本文仅介绍Hadoop-3.1.2完全分布式环境搭建(本人使用三个虚拟机搭建)。

  首先,步骤:

  ① 准备安装包和工具

    •   hadoop-3.1.2.tar.gz
    •   jdk-8u221-linux-x64.tar.gz(Linux环境下的JDK)
    •   CertOS-7-x86_64-DVD-1810.iso(CentOS镜像)
    • 工具:WinSCP(用于上传文件到虚拟机),SecureCRTP ortable(用于操作虚拟机,可复制粘贴Linux命令。不用该工具也可以,但是要纯手打命令),VMware Workstation Pro

  ② 安装虚拟机:本人使用的是VMware Workstation Pro,需要激活。(先最小化安装一个虚拟机Master,配置完Hadoop之后再克隆两个Slave)

  ③ 配置虚拟机:修改用户名,设置静态IP地址,修改host文件,关闭防火墙,安装Hadoop,安装JDK,配置系统环境,配置免密码登录(必要)。

  ④ 配置Hadoop:配置hadoop-env.sh,hdfs-site.xml,core-site.xml,mepred-site.xml,yarn-site.xml,workers文件(在Hadoop-2×中是slaves文件,用于存放从节点的主机名称,或者IP地址)

  ⑤ 克隆虚拟机:克隆两个Slave,主机名称分别是Slave1,Slave2。然后修改Slave的Hadoop配置。

  ⑥ namenode格式化:分别对Master、Slave1,Slave2执行hadoop namenode -format命令。

  ⑦ 启动hdfs和yarn:在Master上执行start-all.sh命令。待启动完成之后,执行jps命令查看进程,应包含namenode,secondarynamenode,resourcemaneger三个进程。Slave上有datanode,nodemanager进程。

  ⑧ 检查测试:先修改真实主机的host(IP地址与Master的映射)在浏览器中输入Master:9870回车,进入hdfs,点击上方datanode应该可以看到下面有两个节点;输入Master:8088回车,进入资源调度管理(yarn)

 

好了,开始吧。

二、准备工具

  hadoop-3.1.2.tar.tz下载地址:http://mirror.bit.edu.cn/apache/hadoop/common/hadoop-3.1.2/hadoop-3.1.2.tar.gz

  jdk-8u221-linux-x64.tar.gz下载地址:https://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html

  CentOS下载地址:http://isoredirect.centos.org/centos/7/isos/x86_64/CentOS-7-x86_64-DVD-1810.iso

  WinSCP下载地址: https://winscp.net/eng/download.php

  SecureCRTP ortable下载地址: http://fs2.download82.com/software/bbd8ff9dba17080c0c121804efbd61d5/securecrt-portable/scrt675_u3.exe

  VMware Workstation Pro下载地址:http://download3.vmware.com/software/wkst/file/VMware-workstation-full-15.1.0-13591040.exe

  附VMware Workstation Pro秘钥

  YG5H2-ANZ0H-M8ERY-TXZZZ-YKRV8

  UG5J2-0ME12-M89WY-NPWXX-WQH88

  UA5DR-2ZD4H-089FY-6YQ5T-YPRX6

三、安装虚拟机

  此步略,详情之后发布

四、配置虚拟机

  1.修改用户名:

  1. hostnamectl --static set-hostname Master

  2.设置静态IP地址

  首先查看一下原本自动获取到的网关和DNS,记下来

  1. [root@Master ~]# cat /etc/resolv.conf
  2. # Generated by NetworkManager
  3. nameserver 192.168.28.2 //DNS

  1. [root@Master ~]# IP routing table
  2. Destination Gateway Genmask Flags MSS Window irtt Iface
  3. default 192.168.28.2(网关) 0.0.0.0 UG 0 0 0 ens33
  4. 192.168.28.0 0.0.0.0 255.255.255.0 U 0 0 0 ens33

  1. [root@Master ~]# vi /etc/sysconfig/network-scripts/ifcfg-ens33 //修改ifcfg-ens33文件,执行此命令后进入如下界面

  

  进入界面后按“I”键进入编辑模式,修改或添加图中标红部分。“static”表示静态地址,“netmask”子网掩码,gateways是网关,设置为上一步查看得到的即可。修改后按“esc”退出编辑模式。输入":wq"保存退出。然后输入以下代码更新网络配置。

  1. systemctl restart network

  3.修改hosts文件

  注明:本人设置Master的IP地址为192.168.28.132,Slave1和Slave2分别为192.168.28.133,192.168.28.134

  输入以下代码修改hosts文件(在真实主机中也需要添加):

  1. vi /etc/hosts
    添加:
    192.168.28.132 Master
    192.168.28.133 Slave1
    192.168.28.134 Slave2

  4.关闭防火墙

  关闭防火墙代码:

  1. systemctl stop firewalld.service //临时关闭
  2. systemctl disable firewalld.service //设置开机不自启

  5.安装Hadoop和JDK

  先创建两个文件夹:

  1. mkdir /tools //用来存放安装包
  2. mkdir /bigdata //存放解压之后的文件夹

  使用WinSCP上传压缩包:登录后找到已下载好的压缩包按如下步骤点击上传即可。

 

  上传文件后,虚拟机端进入tools文件夹并解压文件:

  1. cd /tools //进入tools文件夹
  2. tar -zvxf jdk-8u221-linux-x64.tar.gz -C /bigdata/ //解压文件到bigdata目录下
    tar -zvxf hadoop-3.1.2.tar.gz -C /bigdata/

  6.配置系统环境

  1. vi ~/.bash_profile
  2. 添加:
  3. export JAVA_HOME=/bigdata/jdk1.8.0_221
  4. export JRE_HOME=$JAVA_HOME/jre
  5. export CLASSPATH=.:$CLASSPATH:$JAVA_HOME/lib:$JRE_HOME/lib
  6. export PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin
  7.  
  8. export HADOOP_HOME=/bigdata/hadoop-3.1.2
  9. export HADOOP_INSTALL=$HADOOP_HOME
  10. export HADOOP_MAPRED_HOME=$HADOOP_HOME
  11. export HADOOP_HDFS_HOME=$HADOOP_HOME
  12. export HADOOP_COMMON_HOME=$HADOOP_HOME
  13. export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
  14. export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin

    保存退出,让环境变量生效:
  1. source ~/.bash_profile

  7.配置免密登录(重要)

  1. ssh-keygen -t rsa (直接回车3次)
  2. cd ~/.ssh/
  3. ssh-copy-id -i id_rsa.pub root@Master
  4. ssh-copy-id -i id_rsa.pub root@Slave1
  5. ssh-copy-id -i id_rsa.pub root@Slave2

    测试是否成功配置(在配置完Slave之后测试):
    ssh Slave1
    可以登录到Slave1节点

五、配置Hadoop

  Hadoop-3.1.2中有许多坑,在2X版本中有些默认的不需要特别配置,但在Hadoop-3.1.2中需要。

  hadoop-env.sh配置:

  1. cd /bigdata/hadoop-3.1.2/etc/hadoop/
  2. vi hadoop-env.sh
  3. 添加:
  4. export JAVA_HOME=/bigdata/jdk1.8.0_221
  5. export HADOOP_HOME=/bigdata/hadoop-3.1.2
  6. export PATH=$PATH:/bigdata/hadoop-3.1.2/bin
  7. export HADOOP_OPTS="-Djava.library.path=${HADOOP_HOME}/lib/native"
  8. export HADOOP_PID_DIR=/bigdata/hadoop-3.1.2/pids //PID存放目录,若没有此配置则默认存放在tmp临时文件夹中,在启动和关闭HDFS时可能会报错
  9. #export HADOOP_ROOT_LOGGER=DEBUG,console //先注释掉,有问题可以打开,将调试信息打印在console上

  hdfs-site.xml:

  1. <configuration>
  2.    <property>
  3.   <name>dfs.replication</name>    //冗余度,默认为3
  4.    <value>1</value>
  5. </property>
  6. <property>
  7. <name>dfs.datanode.data.dir</name>
  8. <value>/bigdata/hadoop-3.1.2/dfs/tmp/data</value>
  9. </property>
  10. <property>
  11. <name>dfs.namenode.name.dir</name>
  12. <value>/bigdata/hadoop-3.1.2/dfs/tmp/name</value>
  13. </property>
  14. <property>
  15. <name>dfs.permissions</name>
  16. <value>false</value>
  17. </property>
  18. </configuration>

  mapred.site.xml:

  1. <configuration>
  2. <property>
  3. <name>mapreduce.framework.name</name>
  4. <value>yarn</value>
  5. </property>
  6. <property>
  7. <name>mapred.job.tracker</name>
  8. <value>Master:9001</value>
  9. </property>
  10. </configuration>

  yarn-site.xml:

  1. <configuration>
  2. <property>
  3. <name>yarn.nodemanager.aux-services</name>
  4. <value>mapreduce_shuffle</value>
  5. </property>
  6. <property>
  7. <name>yarn.resourcemanager.hostname</name>
  8. <value>Master</value>
  9. </property>
  10. <property>
  11. <name>yarn.log-aggregation-enable</name>
  12. <value>true</value>
  13. </property>
  14. <property>
  15. <name>yarn.log-aggregation.retain-seconds</name>
  16. <value>604800</value>
  17. </property>
  18. </configuration>

  core-site.xml:

  1. <configuration>
  2. <property>
  3. <name>fs.defaultFS</name>
  4. <value>hdfs://Master:9000</value>
  5. </property>
  6. <property>
  7. <name>hadoop.tmp.dir</name>
  8. <value>/bigdata/hadoop-3.1.2/tmp</value>
  9. </property>
  10. </configuration>

  workers:把默认的localhost删掉

  1. Slave1 192.168.28.133
  2. Slave2 192.168.28.134

  yarn-env.sh  添加:

  1. YARN_RESOURCEMANAGER_USER=root
  2. HADOOP_SECURE_DN_USER=yarn
  3. YARN_NODEMANAGER_USER=root

  进入/bigdata/hadoop-3.1.2/sbin,修改start-dfs.sh,stop-dfs.sh,都添加:

  1. HDFS_DATANODE_USER=root
  2. HDFS_DATANODE_SECURE_USER=hdfs
  3. HDFS_NAMENODE_USER=root
  4. HDFS_SECONDARYNAMENODE_USER=root

  

六、克隆虚拟机

  克隆两个从节点虚拟机,主机名称分别为Slave1,Slave2(需要进入虚拟机中修改),然后分别修改IP地址(具体方法上面有)重启网络,重启虚拟机。

  重启完成后进行namenode格式化:分别对Master、Slave1,Slave2执行:

  1. hadoop namenode -format

  对Master执行

  1. start-all.sh //启动hdfs和yarn

  待完成后用jps查看进程:

  1. [root@Master ~]# jps
  2. 7840 ResourceManager
  3. 8164 Jps
  4. 7323 NameNode
  5. 7564 SecondaryNameNode

  两Slave的进程:

  1. 包含以下两个:
  2. DataNode
  3. NodeManager

七、检查

  浏览器输入:在浏览器中输入Master:9870回车,进入hdfs管理页面,点击上方datanode应该可以看到下面有两个节点;

  输入Master:8088回车,进入资源调度管理(yarn)

  配置到此结束。接下来学习编写Job程序。有任何问题欢迎留言讨论。

原文链接:http://www.cnblogs.com/buerhx/p/11267212.html

 友情链接:直通硅谷  点职佳  北美留学生论坛

本站QQ群:前端 618073944 | Java 606181507 | Python 626812652 | C/C++ 612253063 | 微信 634508462 | 苹果 692586424 | C#/.net 182808419 | PHP 305140648 | 运维 608723728

W3xue 的所有内容仅供测试,对任何法律问题及风险不承担任何责任。通过使用本站内容随之而来的风险与本站无关。
关于我们  |  意见建议  |  捐助我们  |  报错有奖  |  广告合作、友情链接(目前9元/月)请联系QQ:27243702 沸活量
皖ICP备17017327号-2 皖公网安备34020702000426号