初探hadoop,首先需要安装和配置。 配置这玩意,真的要看RP和心情的, 好的时候几分钟顺顺利利就搞定了, 不好的话几个小时都在郁闷的找why和searching goolge!
这次我的机器环境是: mac lion system 10.7.4, 使用的homebew版本是0.9.2, 建议大家使用homebrew之前先进行更新(运行 brew update), 之前我就是没有更新homebrew然后安装hadoop的时候是0.21.0版本的hadoop, 按照网上的步骤来配置怎么都卡在运行start-all.sh的时候毫无反应(其实就是无法启动namenode)。homebrew 0.9.2安装的hadoop是1.0.3
安装、配置步骤如下:
1. 下载安装hadoop 1.0.3
执行 brew install hadoop, 自动就能帮你装好(意思是下载下来、配置好环境变量,例如JAVA_HOME, 这里注意的是在mac上面,这个环境变量要这样配置:
export JAVA_HOME="$(/usr/libexec/java_home)"
by the way , java需要1.6版本的才行喔。
2. 配置hadoop
2.1) 第一步装好的hadoop是在哪里呢? 我们可以用brew list hadoop 来查看。位置应该是在:
/usr/local/Cellar/hadoop/1.0.3 。 我由于想把log和配置目录分开,所以我修改了 /usr/local/Cellar/hadoop/1.0.3/libexec/conf/hadoop-env.sh 这里的log位置(改下HADOOP_LOG_DIR这个就行)
2.2)配置core-site.xml、hdfs-site.xml、mapred-site.xml
* core-site.xml:
<configuration>
<property>
<name>hadoop.tmp.dir</name>
<value>/usr/local/tmp/hadoop/hadoop-${user.name}</value>
<description>A base for other temporary directories.</description>
</property>
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:8020</value>
</property>
</configuration>
* hdfs-site.xml:
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
* mapred-site.xml:
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>localhost:8021</value>
</property>
<property>
</configuration>
其实这些都是基本配置, 网上一大把。配置的值的说明可以参考这3个地址:
写道
http://hadoop.apache.org/common/docs/r0.20.2/core-default.html
http://hadoop.apache.org/common/docs/r0.20.2/hdfs-default.html
http://hadoop.apache.org/common/docs/r0.20.0/mapred-default.html
2.3)格式化hadoop的文件系统hdfs。 执行命令 hadoop namenode -format
类似输出如下:
写道
12/08/12 20:59:29 INFO namenode.NameNode: STARTUP_MSG:
/************************************************************
STARTUP_MSG: Starting NameNode
STARTUP_MSG: host = jianpxs-MacBook-Pro.local/192.168.1.106
STARTUP_MSG: args = [-format]
STARTUP_MSG: version = 1.0.3
STARTUP_MSG: build = https://svn.apache.org/repos/asf/hadoop/common/branches/branch-1.0 -r 1335192; compiled by 'hortonfo' on Tue May 8 20:31:25 UTC 2012
************************************************************/
Re-format filesystem in /Users/jianpx/hadoop/tmp/dfs/name ? (Y or N) Y
12/08/12 20:59:40 INFO util.GSet: VM type = 64-bit
12/08/12 20:59:40 INFO util.GSet: 2% max memory = 19.9175 MB
12/08/12 20:59:40 INFO util.GSet: capacity = 2^21 = 2097152 entries
12/08/12 20:59:40 INFO util.GSet: recommended=2097152, actual=2097152
2012-08-12 20:59:40.860 java[8202:1903] Unable to load realm info from SCDynamicStore
12/08/12 20:59:41 INFO namenode.FSNamesystem: fsOwner=jianpx
12/08/12 20:59:41 INFO namenode.FSNamesystem: supergroup=supergroup
12/08/12 20:59:41 INFO namenode.FSNamesystem: isPermissionEnabled=true
12/08/12 20:59:41 INFO namenode.FSNamesystem: dfs.block.invalidate.limit=100
12/08/12 20:59:41 INFO namenode.FSNamesystem: isAccessTokenEnabled=false accessKeyUpdateInterval=0 min(s), accessTokenLifetime=0 min(s)
12/08/12 20:59:41 INFO namenode.NameNode: Caching file names occuring more than 10 times
12/08/12 20:59:41 INFO common.Storage: Image file of size 112 saved in 0 seconds.
12/08/12 20:59:41 INFO common.Storage: Storage directory /Users/jianpx/hadoop/tmp/dfs/name has been successfully formatted.
12/08/12 20:59:41 INFO namenode.NameNode: SHUTDOWN_MSG:
/************************************************************
SHUTDOWN_MSG: Shutting down NameNode at jianpxs-MacBook-Pro.local/192.168.1.106
************************************************************/
2.4)启动hadoop。 执行start-all.sh就可以了。类似输出如下:
写道
starting namenode, logging to /Users/jianpx/hadoop/logs/hadoop-jianpx-namenode-jianpxs-MacBook-Pro.local.out
localhost: starting datanode, logging to /Users/jianpx/hadoop/logs/hadoop-jianpx-datanode-jianpxs-MacBook-Pro.local.out
localhost: starting secondarynamenode, logging to /Users/jianpx/hadoop/logs/hadoop-jianpx-secondarynamenode-jianpxs-MacBook-Pro.local.out
starting jobtracker, logging to /Users/jianpx/hadoop/logs/hadoop-jianpx-jobtracker-jianpxs-MacBook-Pro.local.out
localhost: starting tasktracker, logging to /Users/jianpx/hadoop/logs/hadoop-jianpx-tasktracker-jianpxs-MacBook-Pro.local.out
2.5) 再执行 jps命令就可以查看namenode是否启动了。正常输入:
写道
8759 Jps
8480 SecondaryNameNode
8549 JobTracker
8287 NameNode
8647 TaskTracker
2.6) 测试hadoop的文件系统命令, 执行: hadoop dfs -ls /
第一次的输出是:
写道
2012-08-12 21:03:44.412 java[8692:1903] Unable to load realm info from SCDynamicStore
ls: Cannot access .: No such file or directory.
据说这是HADOOP-7489 BUG,fix的方法是在hadoop-env.sh里面加入一句:
写道
export HADOOP_OPTS="-Djava.security.krb5.realm=OX.AC.UK -Djava.security.krb5.kdc=kdc0.ox.ac.uk:kdc1.ox.ac.uk"
OK, 到此为止, 在Mac Lion系统10.7.4上面使用homebrew安装hadoop 1.0.3 就成功了, 之后自己试下跑mapreduce吧! ^_^
Reference:
http://blogs.msdn.com/b/brandonwerner/archive/2011/11/13/how-to-set-up-hadoop-on-os-x-lion-10-7.aspx
分享到:
相关推荐
介绍容器化hadoop的方案,hadoop on kubernetes的产品实践。
hadooponwindows-master.rar
请将hadoop2.7.1中的bin和etc删除,使用hadooponwindows-master中的bin和etc代替 资源说明: 有些时候,我们想在自己电脑windows系统上使用hadoop,这样省去了建虚拟机的麻烦——虚拟机会占用更多电脑系统资源。 ...
hadoop-2.6.0 Window客户端,解压到目录,设置环境变量即可使用。java调用实例:// windows环境下需要配置Hadoop的客户端 System.setProperty("hadoop.home.dir", "E:/hadoop-2.6.0/"); conf = new Configuration...
Hadoop是一个由Apache基金会所开发的分布式系统基础架构。用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储
hadoop on demand 的基本安装步骤
hadoop运行在windows上,基于hadoop2.7.1上,解压后替换原有的bin、etc目录,其它与linux 操作一致。
本文简要介绍了如何在既有hadoop集群上安装hadoop on demand,以及运行hod过程中可能遇见的问题及可能的解决方案
win7运行spark 时提示错误:Could not locate executable C:\hadoop-2.8.1\bin\winutils.exe in the Hadoop binaries
包括:hadoop-eclipse-plugin-2.6.0.jar,hadoop-2.6.0.tar.gz,hadoop-common-2.6.0-bin-master,支持Eclipse在windows上进行hadoop开发,实测可用。
These softwares should be prepared to install Hadoop 2.8.3 on window 10 64bit
Hadoop Hands on Lab,大数据的运行环境Hadoop ,这是Hadoop Hands on Lab实验代码
在windows环境下开发hadoop时,需要配置HADOOP_HOME环境变量,变量值D:\hadoop-common-2.7.3-bin-master,并在Path追加%HADOOP_HOME%\bin,有可能出现如下错误: org.apache.hadoop.io.nativeio.NativeIO$Windows....
Hadoop 2.7.3 Windows64位 编译bin(包含winutils.exe, hadoop.dll),自己用的,把压缩包里的winutils.exe, hadoop.dll 放在你的bin 目录 在重启eclipse 就好了
This book is written for anyone who needs to know how to analyze data using Hadoop.... You will know how to accomplish various tasks of data analysis in Hadoop by writing and running MapReduce programs.
mac下hadoop3.1.4源码
mac环境下hadoop2.2.0的eclipse专用插件,值得拥有
A Survey on Compression Algorithms in Hadoop