0 0

Hadoop中关于MapReduce的疑问?10

hadoop集群,有一个Master和五个Slave机器
当统计一个文件的单词数,这个文件为150M,所以上传这个文件后(默认block为64M),所以文件存在三个Slave的DataNode中,
那么,JobTracher会启动几个Map线程来处理?是否启动的Map线程都是在文件所在的三台slave中?
2014年7月30日 23:00

3个答案 按时间排序 按投票排序

0 0

那么,JobTracher会启动几个Map线程来处理?
这个是有配置,参数来设定的. 我百度查找到了下面的文档. http://blog.sina.com.cn/s/blog_6a67b5c50100vo3l.html


是否启动的Map线程都是在文件所在的三台slave中
Hadoop会尽力保证让运算在数据所在的节点运行,如果不能保证(比如当前节点CPU长期满负荷),也会尽力保证在同一个机架上面的节点,最后才是随机的选择一个节点.

2014年8月06日 16:41
0 0

那么,JobTracher会启动几个Map线程来处理?
你这统计只是一个任务,启动一个job就可以了。



是否启动的Map线程都是在文件所在的三台slave中?
除了dataNode还有个nameNode,用来保存DataNode节点的一种数据结构。
所以他会自动找到对应的block,其他两个是他的备份

2014年8月01日 10:31
0 0

我也在刚刚开始学安卓 +ios+ hadoop 

我参考的是这个例子 按它的理论自己做了下可以跑 你看看

http://blog.csdn.net/hguisu/article/details/7237395

2014年7月30日 23:54

相关推荐

Global site tag (gtag.js) - Google Analytics