`
nlslzf
  • 浏览: 1026481 次
  • 性别: Icon_minigender_1
  • 来自: 北京
社区版块
存档分类
最新评论

hadoop的超时设置

阅读更多

from http://blog.163.com/zhengjiu_520/blog/static/3559830620130510443956/

 

最近在测试mysql往HDFS备份的性能问题,发现对mysql执行xtrabackup进行限速之后经常出现HDFS写入不正常的情况。

    1. 错误如下:

 11/10/12 10:50:44 WARN hdfs.DFSClient: DFSOutputStream ResponseProcessor exception  for block blk_8540857362443890085_4343699470java.net.SocketTimeoutException: 66000 millis timeout while waiting for channel to be ready for read. ch : java.nio.channels.SocketChannel[connected local=/172.*.*.*:14707 remote=/*.*.*.24:80010]

    2. 修改超时设置

    后来发现HDFS写入过程中有两个超时设置: dfs.socket.timeout和 dfs.datanode.socket.write.timeout;有些地方以为只是需要修改后面 的dfs.datanode.socket.write.timeout项就可以,其实看报错是READ_TIMEOUT。对应在hbase中的默认值如下:

  // Timeouts for communicating with DataNode for streaming writes/reads

  public static int READ_TIMEOUT = 60 * 1000;   //其实是超过了这个值

  public static int READ_TIMEOUT_EXTENSION = 3 * 1000;

  public static int WRITE_TIMEOUT = 8 * 60 * 1000;

  public static int WRITE_TIMEOUT_EXTENSION = 5 * 1000; //for write pipeline

    3. 修改配置文件

    所以找出来是超时导致的,所以在hadoop-site.xml[hdfs-site.xml]配置文件中添加如下配置:

   <property>
     <name>dfs.datanode.socket.write.timeout</name>
     <value>3000000</value>
   </property>
 
   <property>
     <name>dfs.socket.timeout</name>
     <value>3000000</value>
   </property>
 </configuration>

 

附:备份命令

 innobackupex-1.5.1 –user=* –tmpdir=$BAKDEST –stream=tar $BAKDEST –slave-info | $COMPRESS | java hdfs write

分享到:
评论

相关推荐

    基于心跳超时机制的Hadoop实时容错技术 (2015年)

    针对官方的Hadoop软件中提供的节点心跳超时容错机制对短作业并不合理,而且忽略了异构集群中各节点超期时间设置的公平性的问题,提出了公平心跳超时容错机制。首先根据每个节点的可靠性及计算性能构建节点故障误判...

    Hadoop环境下各个节点时间同步方法

    在hadoop环境中,会要求各个节点之间的时间差不能超时。一般如果超过太长时间,节点上的hbase运行就会报错,所以要同步各节点的时间。例如,我们需要配置一个ntp时钟服务器,来给hadoop的各个节点进行时间同步。或者...

    基于心跳超时机制的Hadoop实时容错技术

    基于心跳超时机制的Hadoop实时容错技术

    Hadoop公平调度器指南.pdf

    时间(一般设置大于最小共享资源超时时间)内拥有不到其公平共享资源(fair share)的一半 的时候也允许对任务进行抢占。在选择需要结束的任务时,公平调度器会在所有作业中选择 那些最近运行起来的任务,以最小化被...

    Hadoop 2.X新特性回收站功能的讲解

    开启回收站功能,可以将删除的文件在不超时的情况下,恢复原数据,起到防止误删除、备份等作用。 1.回收站参数设置及工作机制 2.启用回收站 修改core-site.xml,配置垃圾回收时间为1分钟。 &lt;name&gt;fs.trash....

    hive连接工具waterdrop4.2免认证

    hive连接工具waterdrop4.2免认证

    2017最新大数据架构师精英课程

    17_快捷键设置* L* C. y4 Z1 v0 p) [8 p3 A 18_IO& f, H- i' w( B; P% V; Q" z. L( n/ q 19_IO2 20_文件归档和解档 21_TCP+udp协议-广播 22_UDP实现屏广程序-教师端3 m7 l; D) p! p$ q' H- L5 t1 s 23_UDP实现屏广...

    大数据测试——精选推荐.pdf

    超时设置,应对设置怎样的连接超时?查询超时?写超时等等? JVM参数,如何设置最优的jvm参数,heap size、GC机制等等 Map Reduce,我们应该选择什么样的sort、merge等算法? 消息队列,消息队列长度会怎么样?等等...

    data_engineer_should_know:数据工程师需要知道的一切

    。이터지니어가알아야정합니정합니。 。기참조하시다。 它组织了数据工程师需要了解... vm.swappiness vm.swappiness和Hadoop守护程序运行超时问题阿帕奇火花RDD,DataFrame,数据集SparkContext和SparkSession Scala中

    星环大数据平台_InceptorSQL使用方法.pdf

    星环InceptorSQL使用方法,基于星环大数据平台的InceptorSQL,了解InceptorSQL的基本功能和使用,内部培训文档

    JAVA集群部署

    1台 2台Memcached或者redis服务器(可存储用户动态信息在缓冲 解决session超时和共享问题) 1台消息队列"&gt;LVS Memcached redis 见解 说明:该部署方案至少在14台机器以上 2台用于LVS负载均衡 2台用于WBE(tomcat)...

    aiowebhdfs:python中WebHDFS API的现代异步实现

    我知道,没有人再使用Hadoop ,但是对于那些使用Hadoop的人来说,这是一个使用httpx库和aiofiles处理来自HDFS的流数据的具有async功能的大型文件的Web请求库 特征 使用opnieuw库中的retry_async实现重试和超时窗口 ...

    JDBC4连接Impala的jar

    使用JDBC连接impala数据库所用jar包,jdbc驱动版本4.0 com.cloudera.impala.jdbc4.Driver。内含JDBC连接impala数据库dome

    大数据平台CDH和Impala的使用

    Cloudera版本(Cloudera’sDistributionIncludingApacheHadoop,简称CDH),基于Web的用户界面,支持大多数Hadoop组件,包括HDFS、MapReduce、Hive、Pig、HBase、Zookeeper、Sqoop,简化了大数据平台的安装、使用难度...

    fourinone-3.04.25

    三、网络波动状况下的策略处理,设置抢救期,抢救期内网络稳定下来不判定结点死亡 fourinone-3.04.25最新版升级内容: 1、编译和运行环境升级为jdk7.0版本; 2、计算中止和超时中止的支持,比如多台计算机工人同时...

    利用java api读取hbase数据遇到的一些坑及解决方法

    java.lang.RuntimeException: org.apache.hadoop.hbase.client.RetriesExhaustedException: Failed after attempts=36, exceptions: Fri Feb 14 10:30:36 CST 2020, null, java.net.SocketTimeoutException: ...

    ZooKeeper分布式系统协调-其他

    ZooKeeper是Hadoop的正式子项目,它是一个针对大型分布式系统的可靠协调系统,提供的功能包括:配置维护、名字服务、分布式同步、组服务等。ZooKeeper的目标就是封装好复杂易出错的关键服务,将简单易用的接口和性能...

Global site tag (gtag.js) - Google Analytics