Windows下安装Hadoop(引导版)
Windows下安装Hadoop(引导版)
本环境只作为测试环境的搭建和学习使用
参考文档
环境:
首先确定环境为java1.8 或者hadoop适配的版本
cmd java -version查看
hadoop环境变量可以不用设置
关于hdfs的配置可以自行修改目录
具体的安装方式参考下面的两个文档
下载软件包
Hadoop3.1.0版本的安装包:https://archive.apache.org/dist/hadoop/common/hadoop-3.1.0/hadoop-3.1.0.tar.gz
Windows环境安装所需的bin文件包(我们这里选择3.1.0):
1、可以打开地址:https://gitee.com/nkuhyx/winutils ,里面选 3.1.0。
2、或者直接下载:https://gitee.com/tttzzzqqq/apache-hadoop-3.1.0-winutils
原文链接:https://blog.csdn.net/tttzzzqqq2018/article/details/131928028
注意在替换bin文件时 选择重复的文件跳过
hadoop软件包的解压方式
start winrar x -y hadoop-3.3.2.tar.gz ./
参考链接:
https://blog.csdn.net/Helen_1997_1997/article/details/136627713
配置文件
文件目录在hadoop etc下
core-site.xml
<configuration>
<property><name>fs.default.name</name><value>hdfs://localhost:9000</value></property>
</configuration>
hdfs-site.xml
<configuration><!-- 这个参数设置为1,因为是单机版hadoop --><property><name>dfs.replication</name><value>1</value></property><property><name>dfs.namenode.name.dir</name><value>/D:/develop/hadoop/hadoop-3.1.0/data/namenode</value></property><property><name>dfs.datanode.data.dir</name><value>D:/develop/hadoop/hadoop-3.1.0/data/datanode</value></property>
</configuration>
yarn-site.xml
注意:yarn的资源可以小一点 发现过大的资源分配启动的话 yarn页面访问不到
<configuration><!-- Site specific YARN configuration properties --><property><name>yarn.nodemanager.aux-services</name><value>mapreduce_shuffle</value></property><property><name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name><value>org.apache.hahoop.mapred.ShuffleHandler</value></property><!-- 指定ResourceManager的地址--><!--property><name>yarn.resourcemanager.hostname</name><value>localhost</value></property--><!-- 环境变量的继承 --><property><name>yarn.nodemanager.env-whitelist</name><value>JAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CONF_DIR,CLASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_MAPRED_HOME</value></property><!-- yarn容器允许分配的最大最小内存 --><property><name>yarn.scheduler.minimum-allocation-mb</name><value>512</value></property><property><name>yarn.scheduler.maximum-allocation-mb</name><value>4096</value></property><!-- yarn容器允许管理的物理内存大小 标配12G--><property><name>yarn.nodemanager.resource.memory-mb</name><value>4096</value></property><!--启用自动检测cpu核数--><!--YARN可使用的虚拟CPU个数,默认是8 此参数配合自动检测--><property><name>yarn.nodemanager.resource.cpu-vcores</name><value>4</value></property><!--单个任务可申请的最小虚拟CPU个数,默认是1--><property><name>yarn.scheduler.minimum-allocation-vcores</name><value>1</value></property><!--资源设定参数对于开启动态资源分配的设定无效--><!--单个任务可申请的最多虚拟CPU个数,默认是4) 指定为8核心--><property><name>yarn.scheduler.maximum-allocation-vcores</name><value>4</value></property><!-- 关闭yarn对物理内存和虚拟内存的限制检查 --><property><name>yarn.nodemanager.pmem-check-enabled</name><value>false</value></property><property><name>yarn.nodemanager.vmem-check-enabled</name><value>false</value></property><!-- 开启日志聚集功能 --><property><name>yarn.log-aggregation-enable</name><value>true</value></property><!-- 设置日志保留时间为7天 --><property><name>yarn.log-aggregation.retain-seconds</name><value>604800</value></property></configuration>
mapred-site.xml
<configuration><property><name>mapreduce.framework.name</name><value>yarn</value></property><property><name>mapred.job.tracker</name><value>hdfs://localhost:9001</value></property>
</configuration>
workers
localhost
hadoop-env.cmd
@rem The java implementation to use. Required.
set JAVA_HOME=D:\develop\java\jdk1.8.0_202
hadoop-env.sh
export JAVA_HOME=D:\develop\java\jdk1.8.0_202
查看服务状态
使用jps
hdfs页面
yarn页面
出现的报错和解决
Exception in thread “main” java.lang.IllegalArgumentException: Invalid URI for NameNode address (check fs.defaultFS): file:/// has no authority.
启动不了nameNode,解决方法:
在hadoop文件夹\hadoop-3.0.2\etc\hadoop\core-site.xml的标签下,添加如下内容
<property><name>fs.default.name</name><value>hdfs://localhost:9000</value></property>
原文链接:https://blog.csdn.net/qq_37475168/article/details/90749924
有时候启动或者初始化元数据 会出现目录无法识别的状况
可以把D前面的/删除试一试
要查看报错内容