在windows下配置hadoop-eclipse插件,并连接虚拟机的hadoop集群
前提:本地环境java+ant
本编译使用eclipse3.6,一开始用的3.7一致报错,网上找了好久。。。。必须3.6
- 下载hadoop-1.1.2.tar.gz到本地目录
- 使用Git Bash(可模拟部分linux的命令)解压hadoo-1.1.2.tar.gz文件
Git下载路径:https://code.google.com/p/msysgit/downloads/list?q=full+installer+official+git
- 进入${hadoop.home}/src/contrib/eclipse-plugin目录写该build.xml文件
<?xml version="1.0" encoding="UTF-8" standalone="no"?> <project default="jar" name="eclipse-plugin"> <property name="name" value="${ant.project.name}"/> <property name="root" value="${basedir}"/> <property name="hadoop.root" location="d:/hadoop/hadoop-1.1.2"/> <property name='version' value='1.1.2'/> <property name='eclipse.home' location='d:/hadoop/eclipse'/> <property name="build.dir" location="${hadoop.root}/build/contrib/${name}"/> <property name="build.classes" location="${build.dir}/classes"/> <property name="src.dir" location="${root}/src/java"/> <path id="eclipse-sdk-jars"> <fileset dir="${eclipse.home}/plugins/"> <include name="org.eclipse.ui*.jar"/> <include name="org.eclipse.jdt*.jar"/> <include name="org.eclipse.core*.jar"/> <include name="org.eclipse.equinox*.jar"/> <include name="org.eclipse.debug*.jar"/> <include name="org.eclipse.osgi*.jar"/> <include name="org.eclipse.swt*.jar"/> <include name="org.eclipse.jface*.jar"/> <include name="org.eclipse.team.cvs.ssh2*.jar"/> <include name="com.jcraft.jsch*.jar"/> </fileset> </path> <!-- Override classpath to include Eclipse SDK jars --> <path id="classpath"> <fileset dir="${hadoop.root}"> <include name="*.jar"/> </fileset> <path refid="eclipse-sdk-jars"/> </path> <target name="compile"> <mkdir dir="${build.dir}/classes"/> <javac encoding="ISO-8859-1" srcdir="${src.dir}" includes="**/*.java" destdir="${build.classes}" debug="on" includeAntRuntime="false" deprecation="off"> <classpath refid="classpath"/> </javac> </target> <!-- Override jar target to specify manifest--> <target name="jar" depends="compile"> <mkdir dir="${build.dir}/lib"/> <copy file="${hadoop.root}/hadoop-core-${version}.jar" tofile="${build.dir}/lib/hadoop-core.jar" verbose="true"/> <copy file="${hadoop.root}/lib/commons-cli-1.2.jar" todir="${build.dir}/lib" verbose="true"/> <copy file="${hadoop.root}/lib/commons-configuration-1.6.jar" todir="${build.dir}/lib" verbose="true"/> <copy file="${hadoop.root}/lib/commons-httpclient-3.0.1.jar" todir="${build.dir}/lib" verbose="true"/> <copy file="${hadoop.root}/lib/jackson-core-asl-1.8.8.jar" todir="${build.dir}/lib" verbose="true"/> <copy file="${hadoop.root}/lib/commons-lang-2.4.jar" todir="${build.dir}/lib" verbose="true"/> <copy file="${hadoop.root}/lib/jackson-mapper-asl-1.8.8.jar" todir="${build.dir}/lib" verbose="true"/> <jar jarfile="${build.dir}/hadoop-${name}-${version}.jar" manifest="${root}/META-INF/MANIFEST.MF"> <fileset dir="${build.dir}" includes="classes/ lib/"/> <fileset dir="${root}" includes="resources/ plugin.xml"/> </jar> </target> </project>
- 编辑META-INF/ MANIFEST.MF
添加如下
Eclipse-LazyStart: true
Bundle-ClassPath: classes/,lib/hadoop-core.jar,lib/commons-cli-1.2.jar,lib/commons-configuration-1.6.jar,lib/commons-httpclient-3.0.1.jar,lib/commons-lang-2.4.jar,lib/jackson-core-asl-1.8.8.jar,lib/jackson-mapper-asl-1.8.8.jar
Bundle-Vendor: Apache Hadoop
- Cmd命令行工具进入eclipse-plugin目录执行命令ant 编译
- 到${hadoop.home}/build/contrib/eclipse-plugin目录可以找到hadoop-eclipse-plugin-1.1.2.jar文件,拷贝到${eclipse.home}/plugins/
- 启动eclipse然后其他的配置方式网上都有了。
注意:请把windows的用户名该为与hadoop集群同名的用户名如grid
相关推荐
win7系统,集群部署在本机的虚拟机上,hadoop的eclipse插件,自测完美使用!
Ubuntu虚拟机HADOOP集群搭建eclipse环境 hadoop-eclipse-plugin-3.3.1.jar
Windows环境下采用eclipse连接虚拟机中的Hadoop伪分布式集群-附件资源
适合新手,详细 01-Java环境安装 02- Eclipse下载与安装 03-VMware虚拟机的安装 04-在VMware中安装CentOS 05- Hadoop集群+ Hive+ MySQL搭建
Hadoop集群安装配置教程 56 HBase安装 56 HBase伪分布式配置 57 HBase Shell编程实践 60 HBase JAVA API编程实践 64 安装MySQL 68 Hive安装 70 Redis安装和使用 74 MongoDB安装和使用 83 Neo4j安装和使用 ...
java连接sqoop源码Hadoop-project-with-maven 设置了 Hadoop maven 依赖项的 Java WordCount 示例 这是一个练习,可帮助您安装和运行用 Java 编写的 hadoop 程序,首先在本地模式下的 IDE 中,然后在您将自己构建的 ...
通过VMWare虚拟机安装CentOS7,在CentOS7操作系统下搭建hadoop2.x的编译环境,通过eclipse完成对hadoop2.x的编译。部署新编译的hadoop单机伪分布运行环境,通过相应的管理IP可查看集群运行状态