Hadoop完全分布式环境搭建
DNXRZL
DNXRZL 2021年09月22日 阅读:103

搭建参考-教程
已自录视频教程
点击查看
建议参考下面的两份资料来搭建,我写的只是个人笔记,并不详细

参考博文:https://blog.csdn.net/weixin_43988498/article/details/110942178

参考视频:https://www.bilibili.com/video/BV1JT4y1g7nM?p=45&share_source=copy_web
centos7.9.2009镜像下载
https://mirrors.tuna.tsinghua.edu.cn/centos/7.9.2009/isos/x86_64/CentOS-7-x86_64-Minimal-2009.iso

静态IP

方法

重启网络:

service network restart

关闭防火墙和SElinux

systemctl status firewalld.service #查看防火墙状态
systemctl stop firewalld.service #停止firewall
systemctl disable firewalld.service #禁止firewall开机启动

关闭SElinux

vim /etc/selinux/config
disabled

修改主机地址和hosts

三台计算机分别修改为node01、node02、node03

vim /etc/sysconfig/network

vim /etc/hosts

配置ssh密钥

生成密钥,分别在三台主机执行:ssh-keygen -t rsa

复制密钥到一个文件里,分别在三台主机执行:ssh-copy-id node01 (后面的node01不需改)

移动密钥文件,在第一台计算机执行:

scp /root/.ssh/authorized_keys node02:/root/.ssh

scp /root/.ssh/authorized_keys node03:/root/.ssh

时间同步-三台计算机都执行以下命令

yum install -y ntp

创建定时任务:

crontab -e

*/1 * * * * /usr/sbin/ntpdate ntp4.aliyun.com;

安装jdk 8u141 开发者版-三台计算机都安装

下载地址:https://www.oracle.com/java/technologies/javase/javase8-archive-downloads.html

创建软件文件夹:mkdir -p /export/softwares

创建软件安装文件夹:mkdir -p /export/servers

解压:tar -zxvf jdk-8u141-linux-x64.tar.gz -C ../servers

环境变量配置

vim /etc/profile

export JAVA_HOME=/export/servers/jdk1.8.0_141
export PATH=:$JAVA_HOME/bin:$PATH

source /etc/profile

安装hadoop

下载地址:https://hadoop.apache.org/release/2.7.6.html

只需上传计算机1hadoop程序即可,其他计算机直接scp

上传解压就好

然后配置各个文件

和修改slaves,把localhost改为如下:

这一步主要是配置slave

node01
node02
node03

最后创建在配置各个文件时产生的文件夹

mkdir -p /export/servers/hadoop-2.7.6/hadoopDatas/tempDatas
mkdir -p /export/servers/hadoop-2.7.6/hadoopDatas/namenodeDatas
mkdir -p /export/servers/hadoop-2.7.6/hadoopDatas/namenodeDatas2
mkdir -p /export/servers/hadoop-2.7.6/hadoopDatas/datanodeDatas
mkdir -p /export/servers/hadoop-2.7.6/hadoopDatas/datanodeDatas2
mkdir -p /export/servers/hadoop-2.7.6/hadoopDatas/nn/edits
mkdir -p /export/servers/hadoop-2.7.6/hadoopDatas/snn/name
mkdir -p /export/servers/hadoop-2.7.6/hadoopDatas/dfs/snn/edits

分发整个hadoop到node02、node03

scp -r hadoop-2.7.6 node02:$PWD
scp -r hadoop-2.7.6 node03:$PWD

配置Hadoop的环境变量,三台主机都需要配置

vim /etc/profile

export HADOOP_HOME=/export/servers/hadoop-2.7.6
export PATH=:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH


source /etc/profile

启动集群
主要启动两个模块:HDFS和YARN

cd /export/servers/hadoop-2.7.6
bin/hdfs namenode -format  	# 注意:这一步是对namenode的格式化,创建一些文件与目录,只需要创建一次即可,如果再次使用则会导致数据丢失
sbin/start-dfs.sh			# 启动hdfs
sbin/stop-dfs.sh			# 关闭hdfs
sbin/start-yarn.sh			# 启动yarn
sbin/stop-yarn.sh			# 关闭yarn
sbin/mr-jobhistory-daemon.sh start historyserver
sbin/mr-jobhistory-daemon.sh stop historyserver

web浏览器访问端口,查看界面

http://node01:50070 查看hdfs集群

http://node01:8088 查看yarn集群

http://node01:19888
20210922201508.png

分类: 学习笔记
标签:
目录
目录