当前位置: 首页 > news >正文

centos+scala2.11.4+hadoop2.3+spark1.3.1环境搭建

一、Java安装

1、安装包准备:

首先到官网下载jdk,http://www.oracle.com/technetwork/java/javase/downloads/jdk7-downloads-1880260.html,我下载jdk-7u79-linux-x64.tar.gz,下载到主目录

2、解压安装包

通过终端在/usr/local目录下新建java文件夹,命令行:

sudo mkdir /usr/local/java

然后将下载到压缩包拷贝到java文件夹中,命令行:

进入jdk压缩包所在目录

cp jdk-7u79-linux-x64.tar.gz /usr/local/java

然后进入java目录,命令行:

cd /usr/local/java

解压压缩包,命令行:

sudo tar xvf jdk-7u79-linux-x64.tar.gz

然后可以把压缩包删除,命令行:

sudo rm jdk-7u79-linux-x64.tar.gz

3、设置jdk环境变量

这里采用全局设置方法,就是修改etc/profile,它是是所有用户的共用的环境变量

sudo vi /etc/profile

打开之后在末尾添加

export JAVA_HOME=/usr/local/java/jdk1.7.0_79
export JRE_HOME=/usr/local/java/jdk1.7.0_79/jre
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib:$CLASSPATH
export PATH=$JAVA_HOME/bin: $PATH

使profile生效

source /etc/profile

4、检验是否安装成功

在终端

java -version

显示如下

java version "1.7.0_79"
Java(TM) SE Runtime Environment (build 1.7.0_79-b15)
Java HotSpot(TM) 64-Bit Server VM (build 24.79-b02, mixed mode)

PS:后来发现直接rpm包jdk-7u79-linux-x64.rpm桌面双击安装也OK,^_^

二、scala2.11.4安装

1、安装包准备:

首先到官网下载scala,http://www.scala-lang.org/,下载scala-2.11.4.tgz,并复制到/usr/bib

2、解压安装包

tar -zxf scala-2.11.4.tgz

3、设置scala环境变量

这里采用全局设置方法,就是修改etc/profile,它是是所有用户的共用的环境变量

sudo vi /etc/profile

打开之后在末尾添加

export SCALA_HOME=/usr/lib/scala-2.11.4
export PATH=$SCALA_HOME/bin:$PATH

使profile生效

source /etc/profile

4、检验是否安装成功

在终端

scala -version

显示如下

Scala code runner version 2.11.4 -- Copyright 2002-2013, LAMP/EPFL

三、hadoop2.3安装

1、安装包准备:

hadoop版本有点混乱,除了http://hadoop.apache.org/有众多版本之外,还有Cloudera公司的CDH版本,请从观望下载hadoop-2.3.0.tar.gz或者下载CDH版本hadoop-2.3.0-cdh5.0.0.tar.gz,本文环境是在hadoop-2.3.0-cdh5.0.0.tar.gz之上建立。

2、解压安装包

下载安装包之后复制到/usr目录。

tar -zxf hadoop-2.3.0-cdh5.0.0.tar.gz
解压后生成hadoop-2.3.0-cdh5.0.0,重命名为hadoop-2.3.0。

3、配置环境

这里采用全局设置方法,就是修改etc/profile,它是是所有用户的共用的环境变量

sudo vi /etc/profile

打开之后在末尾添加

export HADOOP_HOME=/home/zero/hadoop/hadoop-2.3.0
export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin

使profile生效

source /etc/profile

3、建立hadoop用户

useradd hadoop

passwd hadoop

3、配置SSH免登录

su  hadoop  //切换到hadoop用户目录下

ssh-keygen-t rsa(一路回车 生成密钥)

cd/home/hadoop/.ssh/

scp  id_rsa.pub hadoop@slave1:/home/hadoop/.ssh/

mv id_rsa.pub authorized_keys

四、spark1.3.1安装

1、安装包准备:

spark官网下载spark-1.3.1-bin-hadoop2.3.tgz。

2、解压安装包

下载安装包之后复制到/usr目录。

tar -zxf spark-1.3.1-bin-hadoop2.3.tgz
解压后生成spark-1.3.1-bin-hadoop2.3,重命名为spark-1.3.1-hadoop2.3。

3、配置环境

这里采用全局设置方法,就是修改etc/profile,它是是所有用户的共用的环境变量

sudo vi /etc/profile

打开之后在末尾添加

export SPARK_HOME=/usr/spark-1.3.1-hadoop2.3
export PATH=$SPARK_HOME/bin:$PATH

 
 

使profile生效

source /etc/profile

4、配置环境

这里采用全局设置方法,就是修改etc/profile,它是是所有用户的共用的环境变量

sudo vi /etc/profile

打开之后在末尾添加

export SPARK_HOME=/usr/spark-1.3.1-hadoop2.3
export PATH=$SPARK_HOME/bin:$PATH

 
 

使profile生效

source /etc/profile

配置Spark环境变量

cd $SPARK_HOME/conf
cp spark-env.sh.template spark-env.sh

vi spark-env.sh 添加以下内容:

export JAVA_HOME=/usr/local/java-1.7.0_79
export HADOOP_HOME=/usr/hadoop-2.3.0
export HADOOP_CONF_DIR=/etc/hadoop/conf
export SCALA_HOME=/usr/lib/scala-2.11.4
export SPARK_HOME=/usr/spark-1.3.1-hadoop2.3
export SPARK_MASTER_IP=127.0.0.1
export SPARK_MASTER_PORT=7077
export SPARK_MASTER_WEBUI_PORT=8099
 
export SPARK_WORKER_CORES=3 //每个Worker使用的CPU核数
export SPARK_WORKER_INSTANCES=1 //每个Slave中启动几个Worker实例
export SPARK_WORKER_MEMORY=10G //每个Worker使用多大的内存
export SPARK_WORKER_WEBUI_PORT=8081 //Worker的WebUI端口号
export SPARK_EXECUTOR_CORES=1 //每个Executor使用使用的核数
export SPARK_EXECUTOR_MEMORY=1G //每个Executor使用的内存
 

export SPARK_CLASSPATH=/usr/spark-1.3.1-hadoop2.3/lib/sequoiadb-driver-1.12.jar:/usr/spark-1.3.1-hadoop2.3/lib/spark-sequoiadb_2.11.2-1.12.jar  //使用巨衫数据库
export SPARK_CLASSPATH=$SPARK_CLASSPATH:$CLASSPATH
export LD_LIBRARY_PATH=${LD_LIBRARY_PATH}:$HADOOP_HOME/lib/nativ

配置Slave

cp slaves.template slaves
vi slaves 添加以下内容:
localhost

 

5、启动Spark  Master

cd $SPARK_HOME/sbin/
./start-master.sh

 

6、启动Spark  Slave

cd $SPARK_HOME/sbin/
./start-slaves.sh

相关文章:

  • 集结“互联网+”优势 广电网络全面推进汉中市智慧城市建设
  • Android之SqlLite数据库使用
  • 《OpenGL ES应用开发实践指南:Android卷》—— 1.4 创建Renderer类
  • ubuntu14.10建立热点wifi分享给手机
  • 《人机交互与戏剧表演:用戏剧理论构建良好用户体验》一第2章 戏剧基础(一):定性结构的元素...
  • objective-c系列-NSDictionaryNSMutableDictionary
  • 盘点最实用56个大数据可视化分析工具
  • 需求工程-软件需求模式读书笔记1
  • checkbox的readonly不起作用的解决方案
  • 打造基金业大数据监管体系 私募基金服务业务增至七类
  • 如何在微信订阅号里实现oauth授权登录
  • LinkedIn 推出在线学习门户网站 LinkedIn Learning
  • C语言经典编程题一
  • STT GDC公司完成塔塔公司在新加坡三个数据中心的资产收购
  • Java RandomAccessFile用法
  • [Vue CLI 3] 配置解析之 css.extract
  • 【跃迁之路】【519天】程序员高效学习方法论探索系列(实验阶段276-2018.07.09)...
  • 2019年如何成为全栈工程师?
  • Android Studio:GIT提交项目到远程仓库
  • ECMAScript入门(七)--Module语法
  • exports和module.exports
  • Git同步原始仓库到Fork仓库中
  • gops —— Go 程序诊断分析工具
  • Java IO学习笔记一
  • Java,console输出实时的转向GUI textbox
  • js对象的深浅拷贝
  • JS专题之继承
  • vue2.0一起在懵逼的海洋里越陷越深(四)
  • vuex 笔记整理
  • 阿里云Kubernetes容器服务上体验Knative
  • 工程优化暨babel升级小记
  • 每天10道Java面试题,跟我走,offer有!
  • 区块链分支循环
  • 适配mpvue平台的的微信小程序日历组件mpvue-calendar
  • 腾讯视频格式如何转换成mp4 将下载的qlv文件转换成mp4的方法
  • 详解NodeJs流之一
  • hi-nginx-1.3.4编译安装
  • 曜石科技宣布获得千万级天使轮投资,全方面布局电竞产业链 ...
  • 专访Pony.ai 楼天城:自动驾驶已经走过了“从0到1”,“规模”是行业的分水岭| 自动驾驶这十年 ...
  • #vue3 实现前端下载excel文件模板功能
  • #每天一道面试题# 什么是MySQL的回表查询
  • #我与Java虚拟机的故事#连载11: JVM学习之路
  • (3)(3.5) 遥测无线电区域条例
  • (6)【Python/机器学习/深度学习】Machine-Learning模型与算法应用—使用Adaboost建模及工作环境下的数据分析整理
  • (二十三)Flask之高频面试点
  • (附源码)spring boot基于小程序酒店疫情系统 毕业设计 091931
  • (附源码)计算机毕业设计SSM基于健身房管理系统
  • (规划)24届春招和25届暑假实习路线准备规划
  • (转)程序员疫苗:代码注入
  • (转)甲方乙方——赵民谈找工作
  • ***检测工具之RKHunter AIDE
  • 、写入Shellcode到注册表上线
  • .NET 8 编写 LiteDB vs SQLite 数据库 CRUD 接口性能测试(准备篇)
  • .Net Attribute详解(上)-Attribute本质以及一个简单示例
  • .NET Core 网络数据采集 -- 使用AngleSharp做html解析