当前位置: 首页 > news >正文

Hadoop搭建(完全分布式)

节点分布:

bigdata-masterbigdata-slave1bigdata-salve2

NameNode

NodeManager

NodeManager

SecondaryNameNodeDataNodeDataNode
ResourceManager
NodeManager
DataNode

目录

一、jdk安装:

二、hadoop安装


一、jdk安装:

jdk-8u212链接:https://pan.baidu.com/s/1avN5VPdswFlMZQNeXReAHg 
提取码:50w6

1.解压

[root@bigdata-master software]# tar -zxvf jdk-8u212-linux-x64.tar.gz -C /opt/module/

 2.环境变量

vim /etc/profile
添加如下配置```
export JAVA_HOME=/opt/module/jdk1.8.0_212
export PATH=$PATH:$JAVA_HOME/bin
```

:wq保存退出

 使配置生效

source  /etc/profile

 3.查看版本

java -version

4.免密登录(三台都执行)一定要弄的

ssh-keygen -t rsa

其中会让输入密码等操作,直接不输入,按enter键

会在/root/.ssh产生id_rsa和id_rsa.pub文件

cd /root/.ssh
cat id_rsa.pub >>authorized_keys

将其他节点的id_rsa.pub内容添加到本节点的authorized_keys文件中(每个节点需要执行)

 

二、hadoop安装

hadoop-3.1.3链接:https://pan.baidu.com/s/11yFkirCiT6tdo_9i1jWwkw 
提取码:stgv

1.解压

tar -zxvf hadoop-3.1.3.tar.gz -C /opt/module/

 2.配置文件

cd /opt/module/hadoop-3.1.3/etc/hadoop/

(1).  core-site.xml

vim core-site.xml
<configuration><property><name>hadoop.tmp.dir</name><value>file:/opt/module/hadoop-3.1.3/tmp</value><description>Abase for other temporary directories.</description></property><property><name>fs.defaultFS</name><value>hdfs://bigdata-master:9000</value></property><property><name>hadoop.proxyuser.root.hosts</name><description>对root用户不进行限制</description><value>*</value></property><property><name>hadoop.proxyuser.root.groups</name><value>*</value><description>对root群组不限制</description></property>
</configuration>

 保存退出(:wq) 

(2). hdfs-site.xml

vim hdfs-site.xml
<configuration><property><name>dfs.replication</name><value>2</value></property><property><name>dfs.namenode.name.dir</name><value>file:/opt/module/hadoop-3.1.3/tmp/dfs/name</value></property><property><name>dfs.datanode.data.dir</name><value>file:/opt/module/hadoop-3.1.3/tmp/dfs/data</value></property>
</configuration>

  保存退出(:wq) 

 (3). mapred-site.xml

vim mapred-site.xml
<configuration><property><name>mapreduce.framework.name</name><value>yarn</value></property><property><name>yarn.app.mapreduce.am.env</name><value>HADOOP_MAPRED_HOME=${HADOOP_HOME}</value></property><property><name>mapreduce.map.env</name><value>HADOOP_MAPRED_HOME=${HADOOP_HOME}</value></property><property><name>mapreduce.reduce.env</name><value>HADOOP_MAPRED_HOME=${HADOOP_HOME}</value></property></configuration>

 保存退出(:wq) 

 (4). yarn-site.xml

vim yarn-site.xml
<configuration><!-- Site specific YARN configuration properties --><property><name>yarn.nodemanager.aux-services</name><value>mapreduce_shuffle</value>
</property>
<property><name>yarn.resourcemanager.hostname</name><value>bigdata-master</value>
</property></configuration>

 保存退出(:wq)  

(5).yarn-env,sh

vim yarn-env.sh
export JAVA_HOME=/opt/module/jdk1.8.0_212

(6).workers

vim workers
bigdata-master
bigdata-slave1
bigdata-slave2

 ​​

(7).

修改 /opt/module/hadoop-3.1.3/sbin/start-dfs.sh和 /opt/module/hadoop-3.1.3/sbin/stop-dfs.sh

vim /opt/module/hadoop-3.1.3/sbin/start-dfs.sh
HDFS_DATANODE_USER=root
HADOOP_SECURE_DN_USER=hdfs
HDFS_NAMENODE_USER=root
HDFS_SECONDARYNAMENODE_USER=root

 

/opt/module/hadoop-3.1.3/sbin/stop-dfs.sh
HDFS_DATANODE_USER=root
HADOOP_SECURE_DN_USER=hdfs
HDFS_NAMENODE_USER=root
HDFS_SECONDARYNAMENODE_USER=root

(8).

修改 /opt/module/hadoop-3.1.3/sbin/start-yarn.sh和 /opt/module/hadoop-3.1.3/sbin/stop-yarn.sh

vim /opt/module/hadoop-3.1.3/sbin/start-yarn.sh
YARN_RESOURCEMANAGER_USER=root
HADOOP_SECURE_DN_USER=yarn
YARN_NODEMANAGER_USER=root

vim /opt/module/hadoop-3.1.3/sbin/stop-yarn.sh
YARN_RESOURCEMANAGER_USER=root
HADOOP_SECURE_DN_USER=yarn
YARN_NODEMANAGER_USER=root

3.环境变量

vim  /etc/profile
#HADOOP_HOME
export HADOOP_HOME=/opt/module/hadoop-3.1.3
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export YARN_HOME=$HADOOP_HOME
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin

使变量生效

source  /etc/profile

4.分发(或者自己手配以上步骤给另外两台)

分发hadoop和jdk 

[root@bigdata-master hadoop]# scp -r /opt/module/ root@bigdata-slave1:/opt/module
[root@bigdata-master hadoop]# scp -r /opt/module/ root@bigdata-slave2:/opt/module

配置另外两台的环境变量 并使变量生效

source /etc/profile

 5.Hdfs格式化(bigdata-master)

不要多次格式化

hdfs namenode -format

 6.启动hadoop

start-all.sh

jps查看进程:

相关文章:

  • 北京网站建设多少钱?
  • 辽宁网页制作哪家好_网站建设
  • 高端品牌网站建设_汉中网站制作
  • TI的电量计驱动在卸载时导致Linux卡死
  • C++ dfs搜索枚举(四十九)【第九篇】
  • Spark安装(Yarn模式)
  • WebAssembly002 FFmpegWasmLocalServer项目
  • 单选全选功能实现
  • k8s弃用docker后使用ctr导入镜像
  • 代码随想录算法训练营29期|day43 任务以及具体任务
  • leetcode-hot100树的专题
  • 验证码倒计时:用户界面的小细节,大智慧
  • 多维时序 | Matlab实现RF-Adaboost随机森林结合Adaboost多变量时间序列预测
  • SSL协议是什么?关于SSL和TLS的常见问题解答
  • Map 集合
  • 编译原理实验1——词法分析(python实现)
  • @ResponseBody
  • 创建TextMeshPro字体文件
  • 《用数据讲故事》作者Cole N. Knaflic:消除一切无效的图表
  • 【译】理解JavaScript:new 关键字
  • Android Volley源码解析
  • Apache Zeppelin在Apache Trafodion上的可视化
  • C++回声服务器_9-epoll边缘触发模式版本服务器
  • PHP 小技巧
  • seaborn 安装成功 + ImportError: DLL load failed: 找不到指定的模块 问题解决
  • SegmentFault 2015 Top Rank
  • Spring思维导图,让Spring不再难懂(mvc篇)
  • VUE es6技巧写法(持续更新中~~~)
  • windows下mongoDB的环境配置
  • 程序员该如何有效的找工作?
  • 关于List、List?、ListObject的区别
  • 基于Javascript, Springboot的管理系统报表查询页面代码设计
  • 前端
  • 我建了一个叫Hello World的项目
  • 一天一个设计模式之JS实现——适配器模式
  • 国内开源镜像站点
  • #LLM入门|Prompt#1.7_文本拓展_Expanding
  • #pragma data_seg 共享数据区(转)
  • #我与Java虚拟机的故事#连载02:“小蓝”陪伴的日日夜夜
  • $refs 、$nextTic、动态组件、name的使用
  • (4)事件处理——(7)简单事件(Simple events)
  • (7)摄像机和云台
  • (附源码)springboot青少年公共卫生教育平台 毕业设计 643214
  • (附源码)springboot学生选课系统 毕业设计 612555
  • (附源码)SSM环卫人员管理平台 计算机毕设36412
  • (精确度,召回率,真阳性,假阳性)ACC、敏感性、特异性等 ROC指标
  • (转)Linq学习笔记
  • ******IT公司面试题汇总+优秀技术博客汇总
  • .NET Core WebAPI中封装Swagger配置
  • .net core 外观者设计模式 实现,多种支付选择
  • .NET 将多个程序集合并成单一程序集的 4+3 种方法
  • .NET 使用配置文件
  • .net2005怎么读string形的xml,不是xml文件。
  • .NET周刊【7月第4期 2024-07-28】
  • @Bean注解详解
  • [ 隧道技术 ] 反弹shell的集中常见方式(四)python反弹shell
  • [.NET]桃源网络硬盘 v7.4
  • [2016.7 day.5] T2