网上有很多配置Spark开发的文章,配置过程非常麻烦,配置通了之后其实也不是很复杂,但是对于初学者确实还是有些难度,我决定打包所有 jdk,scalaide,hadoop,spark 的包,做成一个一键开发Spark的IDE工具。并且上传一些例子,让开发者直接就可以学习如何开发spark应用。
现在我们发布了 windows 64 位系统下sparkide版本(并且自带wordcount例子,可以直接运行)。
,在使用sparkide有任何为题,请告诉我们,我们抓紧需改。
我们目的只有一个:搭建一键开发spark应用的IDE工具
下载地址: http://pan.baidu.com/s/1kUvqeEF(百度云盘)
sparkide网站地址 http://121.42.15.150/
sparkide 0.1.1版本是windows 64位版本,包含组件如下:
Java Development Kit 1.8(64)
Hadoop-2.6.0 windows(64)
Spark-1.6.0-bin-hadoop2.6
Scala-SDK-4.3.0-vfinal-2.11-win32.win32.x86_64
备注: 有任何问题,请联系 daofeng.he@gmail.com
QQ讨论群:336267114
相关推荐
基于Win7环境,IntelliJ IDEA 搭建Spark开发环境。
本Spark开发IDE模板项目基于Scala开发,包含22个文件,包括XML配置文件、GIT忽略文件、IDE模板文件、Scala源代码、LICENSE文件、MF文件、JAR文件、Properties配置文件。系统提供了Spark开发的IDEA模板项目,界面友好...
Eclipse搭建的spark开发环境,微云可下!Eclipse搭建的spark开发环境,微云可下!
Spark集群及开发环境搭建,适合初学者,一步一步并配有截图。 目录 一、 软件及下载 2 二、 集群环境信息 2 三、 机器安装 2 1. 安装虚拟机VirtualBox 2 2. 安装CentOs7 2 四、 基础环境搭建(hadoop用户下)...
spark,大数据,sparksql, spark python, scala , java spark , shark
大数据环境搭建——>Spark安装配置
CDH6针对hive on spark的调优文档,这个是生产的实战经验
spark学习 spark开发环境搭建spark学习 spark开发环境搭建spark学习 spark开发环境搭建spark学习 spark开发环境搭建
Hadoop 2.2.0 详细配置+Spark部署(ps:自己弄的文档,完全可以搭建成功)
初学者手册 一、 软件及下载 2 二、 集群环境信息 2 ...八、 Scala开发环境搭建 21 1、系统安装 21 2、安装jdk8 21 3、安装scala2.11 21 4、安装scala for eclipse 21 5、创建scala工程 21
Spark standalone 分布式集群搭建,Spark standalone运行模式,Spark Standalone运行架构解析---Spark基本工作流程,Spark Standalone运行架构解析---Spark local cluster模式
Apache Spark开发环境搭建
描述spark开发环境的搭建过程.pdf
spark程序一般使用scala开发,此代码是java开发spark的示例代码。
idea开发spark程序的环境搭建,idea+maven+spark+scala,详细介绍过程的每一步!详细介绍过程的每一步!详细介绍过程的每一步!
通过使用 Docker,可以快速的在本地搭建一套 Spark 环境,方便大家开发 Spark 应用,或者扩展到生产环境。下面这篇文章主要给大家介绍了使用docker快速搭建Spark集群的方法教程,需要的朋友可以参考借鉴,下面来一起...
实验一 Hadoop与Spark搭建与应用程序开发 一. 实验目的与要求、 1、要求学生能搭建 Hadoop 和 Spark 环境; 2、要求学生能正确启动 Spark 服务进程; 3、要求学生能实现 Spark 应用程序并正确运行。 实验二 Spark ...
Spark开发环境搭建
Spark 开发环境搭建 关于scala for eclipse搭建
Spark环境搭建-Linux