1、安装scala
#解压scala-2.10.5.tgz tar -zxvf scala-2.10.5.tgz #配置SCALA_HOME vi /etc/profile #添加如下环境 export SCALA_HOME=/home/apps/scala-2.10.5 export PATH=.:$SCALA_HOME/bin:$PATH #测试scala安装是否成功 #直接输入 scala
2、安装
#解压spark-1.3.1-bin-hadoop2.6.tgz tar -zxvf spark-1.3.1-bin-hadoop2.6.tgz #配置SPARK_HOME vi /etc/profile #添加如下环境 export SCALA_HOME=/home/apps/spark-1.3.1 export PATH=.:$SPARK_HOME/bin:$SPARK_HOME/sbin:$PATH
3、修改Spark配置文件
#复制slaves.template和 spark-env.sh.template各一份
cp spark-env.sh.template spark-env.sh
vi spark-env.sh
export JAVA_HOME=/opt/jdk1.7.0_79
export SCALA_HOME=/opt/scala-2.10.5
export SPARK_MASTER_IP=192.168.1.111
export SPARK_WORKER_MEMORY=200m
export HADOOP_CONF_DIR=/opt/bigdata/hadoop272
export SPARK_WORKER_CORES=1
export SPARK_WORKER_INSTANCES=1
export SPARK_JAVA_OPTS
备注
#JDK安装路径 export JAVA_HOME=/opt/jdk1.7.0_79 #SCALA安装路径 export SCALA_HOME=/root/app/scala-2.10.5 #主节点的IP地址 export SPARK_MASTER_IP=192.168.1.111 #分配的内存大小 export SPARK_WORKER_MEMORY=200m #指定hadoop的配置文件目录 export HADOOP_CONF_DIR=/opt/bigdata/hadoop272 #指定worker工作时分配cpu数量 export SPARK_WORKER_CORES=1 #指定spark实例,一般1个足以 export SPARK_WORKER_INSTANCES=1 #jvm操作,在spark1.0之后增加了spark-defaults.conf默认配置文件,该配置参数在默认配置在该文件中 export SPARK_JAVA_OPTS
4、测试spark安装是否成功
在主节点机器上启动顺序 1、先启动hdfs(./sbin/start-dfs.sh) ./start-dfs.sh 2、启动spark-master(./sbin/start-master.sh) sh start-master.sh 3、启动spark-worker(./sbin/start-slaves.sh) sh start-slaves.sh
查看机器进程
[root@hadoop0 ~]# jps
3149 Worker
2835 SecondaryNameNode
2608 DataNode
3496 Jps
2515 NameNode
2993 Master
相关推荐
linux端的hadoop和spark环境搭建: Linux环境设置 1设置固定IP(静态) 2新增oracle用户 3设置oracle用户拥有root用户的命令 4设置网络映射 5关闭防火墙 vim /etc/sysconfig/network-scripts/ifcfg-eth0 DEVICE=eth0...
Spark环境搭建-Windows
spark环境搭建
Ubuntu 16.04下JDK+Hadoop+Spark环境搭建 Ubuntu 16.04下JDK+Hadoop+Spark环境搭建
Spark环境搭建-Linux
spark学习 spark开发环境搭建spark学习 spark开发环境搭建spark学习 spark开发环境搭建spark学习 spark开发环境搭建
这是一个大数据主流平台SPARK搭建的完美教程,特别适合零基础者。
自己整理的关于openfire与spark结合的IM即时通信系统,经过测试已经运转起来,因项目需求,正在研究Sparkweb及二次开发。若存在问题,请多多指教。
Eclipse搭建的spark开发环境,微云可下!Eclipse搭建的spark开发环境,微云可下!
hadoop,spark,scala环境搭建,有详细步骤,一步一步跟着word操作就可以了。
Spark集群及开发环境搭建,适合初学者,一步一步并配有截图。 目录 一、 软件及下载 2 二、 集群环境信息 2 三、 机器安装 2 1. 安装虚拟机VirtualBox 2 2. 安装CentOs7 2 四、 基础环境搭建(hadoop用户下)...
│ 03-[掌握]-Spark环境搭建-Standalone集群模式.mp4 │ 06-[理解]-Spark环境搭建-On-Yarn-两种模式.mp4 │ 07-[掌握]-Spark环境搭建-On-Yarn-两种模式演示.mp4 │ 09-[掌握]-Spark代码开发-准备工作.mp4 │ 10...
自己整理的一份hadoop及spark 环境搭建的详细教程,真实环境下搭建过程实录, 可以为你免去很多麻烦
1. 解压Spark安装包 2. 配置Spark环境变量 2. 修改 spark-env.sh 文件,完成以下设置: 1. 设置运行master进程的节点, e
Apache Spark开发环境搭建
这篇博客,Alice为大家带来的是Spark集群环境搭建之——standalone集群模式。 文章目录集群角色介绍集群规划修改配置并分发启动和停止查看web界面测试 集群角色介绍 Spark是基于内存计算的大数据并行计算框架,...
大数据环境搭建——>Spark安装配置
四、 基础环境搭建(hadoop用户下) 7 1. 机器名HostName 7 2. 关闭防火墙 7 3. 系统更新及常用工具安装 8 4. IP配置 8 5. JDK安装 9 五、 Hadoop安装及配置 10 1. 安装 10 2. 配置 10 六、 机器集群搭建 ...
Spark开发环境搭建