需要的环境:
1.java1.8
2.hadoop-3.1.1(spark用到他的hdfs)
3.zookeeper-3.4.11(spark自动转移master用)
4.spark-2.3.1-bin-without-hadoop
三台服务器主机分别是
host-01
host-02
host-03
关键配置:
hadoop
hadoop/hadoop-3.1.1/etc/hadoop/hadoop-env.sh
export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.161-0.b14.el7_4.x86_64 export YARN_RESOURCEMANAGER_USER=root export YARN_NODEMANAGER_USER=root
hadoop/hadoop-3.1.1/etc/hadoop/core-site.xml
<configuration> <property> <name>fs.defaultFS</name> <value>hdfs://host-01:9000</value> </property> <property> <name>hadoop.tmp.dir</name> <value>file:///home/hadoop/tmp</value> </property> <property> <name>ha.zookeeper.quorum</name> <value>host-01:2181,host-02:2181,host-03:2181</value> </property> </configuration>
hadoop/hadoop-3.1.1/etc/hadoop/hdfs-site.xml
<configuration> <property> <name>dfs.replication</name> <value>2</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>/home/hadoop/hdfs/name</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>/home/hadoop/hdfs/data</value> </property> </configuration>
hadoop/hadoop-3.1.1/etc/hadoop/yarn-site.xml
<configuration> <!-- Site specific YARN configuration properties --> <property> <name>yarn.resourcemanager.hostname</name> <value>host-01</value> </property> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> </configuration>
hadoop/hadoop-3.1.1/etc/hadoop/workers 没有则新建,配置data节点
host-02 host-03
spark
spark-2.3.1-bin-without-hadoop/conf/spark-env.sh 第一行比较重要,出现“java.lang.ClassNotFoundException: org.slf4j.Logger”、“failed to launch: nice -n”等问题就是没这个导致的
export SPARK_DIST_CLASSPATH=$(/home/hadoop/hadoop-3.1.1/bin/hadoop classpath) export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.161-0.b14.el7_4.x86_64 export SPARK_MASTER_HOST=host-01 export HADOOP_HOME=/home/hadoop/hadoop-3.1.1 export HADOOP_CONF_DIR=/home/hadoop/hadoop-3.1.1/etc/hadoop export SPARK_DAEMON_JAVA_OPTS="-Dspark.deploy.recoveryMode=ZOOKEEPER -Dspark.deploy.zookeeper.url=host-01:2181,host-02:2181,host-03:2181 -Dspark.deploy.zookeeper.dir=/spark"
注:export SPARK_MASTER_HOST=host-01
指定host的ip,三台服务器分别配置各自的hostname
spark-2.3.1-bin-without-hadoop/conf/slaves 设置slave
host-02 host-03
配置完成
启动
1.启动zookeeper
zookeeper-3.4.11/bin/zkServer.sh start
2.启动hdfs
hadoop-3.1.1/sbin/start-dfs.sh
3.启动spark
spark-2.3.1-bin-without-hadoop/sbin/start-all.sh
4.分别启动host-02和host-03上的master(host-01 的是ALIVE,其他是STANDBY状态,host-01挂了其他的zookeeper自动选一台alive替代)
spark-2.3.1-bin-without-hadoop/sbin/start-master.sh
jps命令查看
host-01:
[root@localhost home]# jps 26304 NameNode 24310 QuorumPeerMain 30152 Jps 29946 Master 26622 SecondaryNameNode
host-02:
[root@localhost home]# jps 13857 DataNode 15938 Master 16118 Jps 15752 Worker 12767 QuorumPeerMain
host-03
[root@localhost home]# jps 3186 QuorumPeerMain 14323 Master 6100 DataNode 15966 Jps
相关推荐
Spark集群环境搭建
Spark集群及开发环境搭建,适合初学者,一步一步并配有截图。 目录 一、 软件及下载 2 二、 集群环境信息 2 三、 机器安装 2 1. 安装虚拟机VirtualBox 2 2. 安装CentOs7 2 四、 基础环境搭建(hadoop用户下)...
Spark集群环境搭建.md
2.5.Spark集群环境搭建1
4、Spark(Spark 2.1-preview for hadoop-2.7)spark下载地址在Downloads | Apache Sparkspar
spark集群安装搭建,step by step,详细记录整个安装过程。
六、 机器集群搭建 14 1. 复制机器 14 2. 设置静态IP 15 3. 设置机器名hostname 15 4. ssh免密登录 15 5. hadoop集群测试 17 七、 Spark & Scala 集群安装 18 1. scala安装 18 2. spark安装 19 3. 测试...
Spark standalone 分布式集群搭建,Spark standalone运行模式,Spark Standalone运行架构解析---Spark基本工作流程,Spark Standalone运行架构解析---Spark local cluster模式
基于Linux平台下的Hadoop和Spark集群搭建研究.pdf
Spark环境搭建-Windows
这篇博客,Alice为大家带来的是Spark集群环境搭建之——standalone集群模式。 文章目录集群角色介绍集群规划修改配置并分发启动和停止查看web界面测试 集群角色介绍 Spark是基于内存计算的大数据并行计算框架,...
该文档主要介绍了hadoop、hive、hbase、kafka、Spark系统集群搭建,有环境准备说明、集群环境各配置文件配置、具体项目实例,可参考
Spark集群搭建的完整过程,可参考搭建一个属于自己的Spark集群。非常适合新手,学习spark平台的搭建。
Spark on Yan集群搭建的详细过程,减少集群搭建的时间
CentOS集群搭建、Hadoop集群搭建 配置免密 连接外网,Hive安装 Zookeeper搭建 Kafka scala flume安装 Spark搭建及启动
使用vm搭建Spark集群
描述如何在单个Ubuntu机器或服务器搭建docker spark 集群环境
文章目录写在前面搭建好Hadoop集群环境安装Spark(Master节点上操作)配置环境变量(Master节点上操作)Spark配置(Master节点上操作)配置Worker节点启动Spark集群(在Master节点上操作)关闭Spark集群(在Master...
实时计算框架:Spark集群搭建与入门案例。50字50字50字50字50字50字
Hadoop Spark R SparkR 大数据集群 安装文档。全是原生组件,部署在Centos系统上