- 浏览: 458575 次
- 性别:
- 来自: 北京
文章分类
- 全部博客 (111)
- 数据库 (8)
- java (24)
- BI (1)
- tomcat (3)
- javascript/css (8)
- 服务架构 (1)
- mule (6)
- cas (4)
- mondrian (4)
- webservice (1)
- SOA (3)
- Lucene/HibernateSearch (2)
- Linux (15)
- 操作系统 (3)
- hibernate (2)
- jbpm (1)
- apache (1)
- phpstudy (1)
- hadoop (27)
- hive (7)
- hbase (8)
- svn (1)
- eclipse (3)
- mahout (1)
- mail (1)
- oracle (1)
- mysql (4)
- axis2 (1)
- python (2)
- kafka (1)
- lucene (1)
- nutch (1)
- spark (2)
- idea (2)
- flume (0)
- ubuntu (1)
- pheonix (2)
- drill (2)
- tez (4)
- pig (1)
- tensorflow (1)
最新评论
-
zhangyou1010:
zhangyou1010 写道请教,我执行mount -t n ...
NFS挂载hdfs到本地 -
zhangyou1010:
请教,我执行mount -t nfs -o vers=3,pr ...
NFS挂载hdfs到本地 -
hengfengyiyingdong:
为什么我查出来的hbase数据都是base64编码的? 我保存 ...
apache drill 0.8.0 单机/分布式安装测试 -
107x:
不错,谢谢!
Hive metastore三种存储方式 -
duguyiren3476:
确实不怎么快,httpfs的上传你可以理解为普通的httpup ...
hadoop2.5.2配置httpfs服务
1配置文件中使用IP地址错误:
(logs目录下的日志文件错误)
10/11/09 17:19:06 INFO mapred.JobClient: Task Id : attempt_201011091659_0001_m_000003_0, Status : FAILED
Error initializing attempt_201011091659_0001_m_000003_0:
java.lang.IllegalArgumentException:
Wrong FS:
hdfs://192.168.75.17:9000/hadoop/hadoop/hadoop/tmp/mapred/system/job_201011091659_0001/job.xml,
expected: hdfs://hadoop_namenode:9000
at org.apache.hadoop.fs.FileSystem.checkPath(FileSystem.java:310)
at org.apache.hadoop.hdfs.DistributedFileSystem.checkPath(DistributedFileSystem.java:99)
at org.apache.hadoop.hdfs.DistributedFileSystem.getPathName(DistributedFileSystem.java:155)
at org.apache.hadoop.hdfs.DistributedFileSystem.getFileStatus(DistributedFileSystem.java:453)
at org.apache.hadoop.mapred.TaskTracker.localizeJob(TaskTracker.java:745)
at org.apache.hadoop.mapred.TaskTracker.startNewTask(TaskTracker.java:1664)
at org.apache.hadoop.mapred.TaskTracker.access$1200(TaskTracker.java:97)
at org.apache.hadoop.mapred.TaskTracker$TaskLauncher.run(TaskTracker.java:1629)
解决方法:
将IP地址更换为域名,如:master,salver1....
修改hosts文件。
原来的格式:
<property>
<name>mapred.job.tracker</name>
<value>192.168.75.17:9001</value>
</property>
应该改成
<property>
<name>mapred.job.tracker</name>
<value>master:9001</value>
</property>
2. 运行bin/start-all.sh正常,输入bin/start-fds.sh出错,显示以下提示:Hadoop common not found。
问题分析:出现该问题的原因是没有定义HADOOP_NAME
处理方法:Linux中为在.bashrc文件中加入 export HADOOP_HOME=$HOME/hadoop-0.21.0
3. 在操作HDFS的时候发现总是提示以下错误,而无法完成功能的操作:java.io.IOException: File /user/administrator/chen3/NOTICE.txt could only be replicated to 0 nodes, instead of 1
检查datanode日志,发现DateNode与NameNode的命名空间版本不匹配
2011-08-04 11:23:23,065 ERROR org.apache.hadoop.hdfs.server.datanode.DataNode: java.io.IOException: Incompatible namespaceIDs in /tmp/hadoop-linzm/dfs/data: namenode namespaceID = 775148417; datanode namespaceID = 1771400337
问题分析:看日志应该是DataNode的命名空间版本与NameNode不一致,重启后也是不能解决。
处理方法:将/tmp/hadoop-linzm/dfs/data/current/VERSION文件中的namespaceID改为错误日志的提示版本
4. 将jar放到hadoop中,并执行时候,报以下异常
- [linzm @vm - 360 - 149 - 11 test]$ hadoop jar wordcount/wordcount.jar org.myorg.WordCount wordcount/input wordcount/outpu
- Exception in thread "main" java.io.IOException: Error opening job jar: wordcount/wordcount.jar
- at org.apache.hadoop.util.RunJar.main(RunJar.java:130 )
- Caused by: java.util.zip.ZipException: error in opening zip file
- at java.util.zip.ZipFile.open(Native Method)
- at java.util.zip.ZipFile.<init>(ZipFile.java:114 )
- at java.util.jar.JarFile.<init>(JarFile.java:133 )
- at java.util.jar.JarFile.<init>(JarFile.java:70 )
- at org.apache.hadoop.util.RunJar.main(RunJar.java:128 )
问题分析:通常出现这种情况有两种原因:jar报格式坏、文件路径不对。
处理方法:检查hadoop中文件的大小与本地是一致的,最后查明原因是jar包路径没有输入正确
完善中
发表评论
-
spark运行在yarn上的一个异常
2017-05-03 18:08 9653主机配置内存不足,导致在yarn上运行job异常,下面是s ... -
drill1.0配置hive storage plugin及测试
2015-08-06 10:18 3109drill1.0配置hive storage plugin ... -
tez ui 安装测试
2015-08-04 17:03 3922tez ui 安装测试 标签(空格分隔): 未分类 环 ... -
编译tez 0.7
2015-07-29 16:30 2437tez自己编译0.7 版本,为了测试hadoop2.7.1 ... -
pig on tez测试
2015-06-02 14:16 1481pig on tez测试 pig tez had ... -
hive 小记
2015-06-02 11:41 1028hive 小记 hive hadoop hdf ... -
ambari 安装配置
2015-06-02 11:28 3143测试环境 centos6.5 64bit amb ... -
hive on tez hive运行在tez之上 安装测试
2015-05-26 18:53 15729hive on tez详细配置和运行测试 ... -
hadoop2.5.2配置httpfs服务
2015-05-08 12:58 7853hadoop2.5.2配置httpfs服务 h ... -
ubuntu安装NFS及测试
2015-05-08 09:37 2072ubuntu安装NFS及测试 测试环境 ... -
NFS挂载hdfs到本地
2015-05-07 18:34 16302NFS挂载hdfs到本地 nfs hdfs n ... -
apache drill 0.8.0 单机/分布式安装测试
2015-04-16 16:57 4462apache drill 0.8.0 安装测试 ... -
测试hbase预设分区
2015-04-07 20:06 1003测试hbase预设分区 phonex-4.3 ... -
Phoenix设置时间戳
2015-04-07 19:13 9359Phoenix设置时间戳 phonex-4.3 ... -
eclipse远程连接hadoop进行开发测试
2015-03-27 18:17 8506eclipse远程连接hadoop进行开发测试 马克 ... -
hadoop2.x jobhistoryserver 配置
2015-02-11 10:28 5322hadoop2.x jobhistoryserve ... -
hadoop balancer
2015-01-14 15:38 2600hadoop balancer 设置同步带宽 ... -
hadoop second namenode异常 Inconsistent checkpoint fields
2015-01-14 15:25 2448hadoop second namenode异常 Inc ... -
Hadoop2本地库和系统库版本不一致 解决方案
2014-12-21 19:29 0Hadoop2本地库和系统库版本不一致 解决方案 在 ... -
ubuntu安装navicat及常见问题解决
2014-12-11 11:03 11344ubuntu安装navicat及常见问题解决 1.安装na ...
相关推荐
Hadoop使用常见问题以及解决方法,简单实用
Hadoop使用常见问题以及解决方法.doc Hadoop使用常见问题以及解决方法.doc
安装hadoop的时候或者使用的时候,会出现hadoop常见问题及解决方法
hadoop安装时,会遇到不同问题,这里只是列举我自己遇到的问题
Hadoop集群常见错误收集.doc 常见错误收集
在网上搜集的以及本人自己总结的hadoop集群常见问题及解决办法,融合了网上常常搜到的一些文档以及个人自己的经验。
在hadoop系统运行过程中常见问题解决方法
hadoop配置,hadoop配置打包,hadoop配置。
详细的hadoop单机配置步骤,非常好的一个文档。
大数据技术之-03-Hadoop学习-Hadoop运行模式及常见错误及解决方案.docx
hadoop配置文件hadoop配置文件hadoop配置文件hadoop配置文件hadoop配置文件hadoop配置文件hadoop配置文件hadoop配置文件hadoop配置文件
Hadoop大数据常见问题及处理方法,使用 hive 自带的 concatenate 命令,自动合并小文件
NULL 博文链接:https://shirley-ren.iteye.com/blog/1174622
Hadoop配置手册,详细介绍hadoop的配置 系统环境配置 假定有 3 台机器,机器上均按照了 Ubuntu 操作系统: 192.168.1.138 hadoop-master //作为 Hadoop 的主机用 192.168.1.140 hadoop-node1 //作为 Hadoop 的数据...
hadoop配置文件详解,core-site.xml是全局配置,hdfs-site.xml和mapred-site.xml分别是hdfs和mapred的局部配置。
hadoop 配置项的调优,列出大部分HADOOP系统参数的定义及与系统性能之间的关系。
hadoop配置属性hadoop配置属性hadoop配置属性hadoop配置属性hadoop配置属性
本文档列出了hadoop的常用配置说明,对hadoop的学习很有帮助。
windows下hadoop2.7.3环境问题的解决,亲测win10、win7皆可使用