`

Spark1.3安装

阅读更多
环境:redhat6.2,cdh4.4
虚拟机:
域名
ip
角色
master
192.168.199.129
Master
slave1
192.168.199.130
Worker
slave2
192.168.199.131
Worker
 
 
软件包:
scala-2.10.1.tgz
spark-1.3.0-bin-cdh4.tgz
 
前提:安装好jdk,hadoop
安装路径:/home/hadoop/cdh44/
 
一。安装scala
   $ tar -zvxf scala-2.10.1.tgz
 
二。安装spark
    $ tar -zvxf spark-1.3.0-bin-cdh4.tgz
    $ cd spark-1.3.0-bin-cdh4/conf
    修改所有配置文件名,如图1:
 
    $ vi spark-env.sh 添加参数如下:
     export SCALA_HOME=/home/hadoop/cdh44/scala-2.10.1
     export HADOOP_HOME=/home/hadoop/cdh44/hadoop-2.0.0-cdh4.4.0
     export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
 
     SPARK_EXECUTOR_INSTANCES=2
     SPARK_EXECUTOR_CORES=1
     SPARK_EXECUTOR_MEMORY=400M
     SPARK_DRIVER_MEMORY=400M
     SPARK_YARN_APP_NAME="Spark 1.3.0"
     SPARK_MASTER_PORT=7077
     SPARK_MASTER_WEBUI_PORT=9090
     PARK_WORKER_DIR=$SPARK_HOME/work
     SPARK_WORKER_WEBUI_PORT=9091
      如图2
 
    $ vi slaves,添加两行,如下:
      slave01
      slave02
     
    $ 把scala,spark复制一份到slave01,slave02
        scp -r scala-2.10.1 hadoop@slave1:/home/hadoop/cdh44
        scp -r scala-2.10.1 hadoop@slave2:/home/hadoop/cdh44
        scp -r spark-1.3.0-bin-cdh4 hadoop@slave1:/home/hadoop/cdh44
        scp -r spark-1.3.0-bin-cdh4 hadoop@slave2:/home/hadoop/cdh44
 
    master,slave01,slave02分别设置环境变量
        export SCALA_HOME=/home/hadoop/cdh44/scala-2.10.1
        export PATH=$SCALA_HOME/bin:$PATH
        export SPARK_HOME=/home/hadoop/cdh44/spark-1.3.0-bin-cdh4
        export PATH=$SPARK_HOME/bin:$SPARK_HOME/sbin:$PATH
        source /etc/profile
三。启动spark
    $ start-all.sh
    $ jps 分别在三台机器上查看进程
     如图3、图4、图5
     在浏览器查看状态
    http://192.168.199.129:9090
   如图6
 
 
 
 
 
 

 

  • 大小: 7.3 KB
  • 大小: 12 KB
  • 大小: 3.3 KB
  • 大小: 2.9 KB
  • 大小: 2.6 KB
  • 大小: 81.3 KB
分享到:
评论

相关推荐

    spark1.3与hadoop2.6环境配置

    本文件内包含spark1.3与hadoop2.6的环境配置 包括yarn等模式,服务器上测试稳定。只需要更改自己的hostname即可使用

    spark2 安装教程

    单独搭建spark2.0,和spark1.3共存,适用于新老spark版本共存的情况

    spark1.3源码

    spark源码 spark1.3.0版源码包,spark源码 spark1.3.0版源码包

    spark的安装包Linux下1.3

    spark1.3Hadoop2.4的Linux下的安装包。Linux下安装可用

    2015 Spark技术峰会-Spark SQL结构化数据分析-连城

    他介绍了Spark1.3版本中的很多新特性。重点介绍了DataFrame。其从SchemaRDD演变而来,提供了更加高层抽象的API,在形态上和R和Python很类似。Spark DataFrame vs.RDD,有些类似于动态语言和静态语言的区别,在很多...

    spark-1.3.0

    spark-1.3.0

    Spark大数据处理

    1.3 Spark架构 1.4 Spark分布式架构与单机多核架构的异同 1.5 Spark的企业级应用 1.5.1 Spark在Amazon中的应用 1.5.2 Spark在Yahoo!的应用 1.5.3 Spark在西班牙电信的应用 1.5.4 Spark在淘宝的应用 1.6 本章小结 第...

    Learning Spark

    Recently updated for Spark 1.3, this book introduces Apache Spark, the open source cluster computing system that makes data analytics fast to write and fast to run. With Spark, you can tackle big ...

    Spark快速数据处理

    Spark快速数据处理文档~ ...1.3 在ElasticMapReduce上部署Spark 1.4 用Chef(opscode)部署Spark 1.5 在Mesos上部署Spark 1.6 在Yarn上部署Spark 1.7 通过SSH部署集群 1.8 链接和参考 1.9 小结

    spark sql 代码实现

    关于spark sql的代码实现 spark1.3

    spark环境安装(Hadoop HA+Hbase+phoneix+kafka+flume+zookeeper+spark+scala)

    亲手在Centos7上安装,所用软件列表 apache-flume-1.8.0-bin.tar.gz apache-phoenix-4.13.0-HBase-1.3-bin.tar.gz hadoop-2.7.4.tar.gz hbase-1.3.1-bin.tar.gz jdk-8u144-linux-x64.tar.gz kafka_2.12-1.0.0.tgz ...

    Spark 2.0.2 Spark 2.2 中文文档 本资源为网页,不是PDF

    从 Spark SQL 1.0~1.2 升级到 1.3 兼容 Apache Hive 参考 数据类型 NaN 语义 Structured Streaming MLlib(机器学习) 机器学习库(MLlib)指南 ML Pipelines(ML管道) Extracting, transforming and ...

    Spark-Core学习知识笔记整理

    2.1Scala的安装 8 2.2Spark的单节点配置 9 2.3Spark-Standalone集群配置 9 2.4Spark-on-Yarn模式配置 12 2.5Spark-on-Mesos模式配置 13 2.6Hive-on-Spark配置 13 第三章 Spark计算模型 15 1 RDD编程 15 1.1弹性...

    spark_api_1.3.1

    看到网上没有spark的离线api,这里提供给大家

    Python3:Python+spark编程实战

    0.1配置可参考:0.2有关spark说明:spark不兼容Python3.6安装注意版本可下载:anaconda4.21.1数据student.txt1.2代码1.3结果展示2.1函数解析2.1.1collect()RDD的特性在进行基本RDD“转换”运算时不会立即执行,结果...

    SparkSql和DataFrame实战.docx

    Spark SQL还可以用于从现有的Hive安装中读取数据。有关如何配置此功能的更多信息,请参考Hive表格部分。当从另一种编程语言中运行SQL时,结果将作为DataFrame返回。您还可以使用命令行或jdbc/odbc来与SQL接口进行...

    spark商业实战三部曲

    1.3 Spark 2.2源码阅读环境搭建及源码阅读体验... 11 第2章 Spark2.2技术及原理... 14 2.1 Spark 2.2综述... 14 2.1.1 连续应用程序... 14 2.1.2 新的API 15 2.2 Spark 2.2 Core. 16 2.2.1 第二代Tungsten引擎...

    Databricks孟祥瑞:ALS在SparkMLlib中的实现

    深受用户喜爱的大数据处理平台ApacheSpark1.3于前不久发布,MLlib作为Spark负责机器学习(ML)的核心组件在1.3中添加了不少机器学习及数据挖掘的算法:研究主题分布的latentDirichletallocation(LDA)、估计点集...

    Python库 | spark_nlp_display-1.3-py3-none-any.whl

    python库。 资源全名:spark_nlp_display-1.3-py3-none-any.whl

Global site tag (gtag.js) - Google Analytics