from http://blog.163.com/zhengjiu_520/blog/static/3559830620130510443956/
最近在测试mysql往HDFS备份的性能问题,发现对mysql执行xtrabackup进行限速之后经常出现HDFS写入不正常的情况。
1. 错误如下:
11/10/12 10:50:44 WARN hdfs.DFSClient: DFSOutputStream ResponseProcessor exception for block blk_8540857362443890085_4343699470java.net.SocketTimeoutException: 66000 millis timeout while waiting for channel to be ready for read. ch : java.nio.channels.SocketChannel[connected local=/172.*.*.*:14707 remote=/*.*.*.24:80010]
2. 修改超时设置
后来发现HDFS写入过程中有两个超时设置: dfs.socket.timeout和 dfs.datanode.socket.write.timeout;有些地方以为只是需要修改后面 的dfs.datanode.socket.write.timeout项就可以,其实看报错是READ_TIMEOUT。对应在hbase中的默认值如下:
// Timeouts for communicating with DataNode for streaming writes/reads
public static int READ_TIMEOUT = 60 * 1000; //其实是超过了这个值
public static int READ_TIMEOUT_EXTENSION = 3 * 1000;
public static int WRITE_TIMEOUT = 8 * 60 * 1000;
public static int WRITE_TIMEOUT_EXTENSION = 5 * 1000; //for write pipeline
3. 修改配置文件
所以找出来是超时导致的,所以在hadoop-site.xml[hdfs-site.xml]配置文件中添加如下配置:
<property>
<name>dfs.datanode.socket.write.timeout</name>
<value>3000000</value>
</property>
<property>
<name>dfs.socket.timeout</name>
<value>3000000</value>
</property>
</configuration>
附:备份命令
innobackupex-1.5.1 –user=* –tmpdir=$BAKDEST –stream=tar $BAKDEST –slave-info | $COMPRESS | java hdfs write
相关推荐
针对官方的Hadoop软件中提供的节点心跳超时容错机制对短作业并不合理,而且忽略了异构集群中各节点超期时间设置的公平性的问题,提出了公平心跳超时容错机制。首先根据每个节点的可靠性及计算性能构建节点故障误判...
在hadoop环境中,会要求各个节点之间的时间差不能超时。一般如果超过太长时间,节点上的hbase运行就会报错,所以要同步各节点的时间。例如,我们需要配置一个ntp时钟服务器,来给hadoop的各个节点进行时间同步。或者...
基于心跳超时机制的Hadoop实时容错技术
时间(一般设置大于最小共享资源超时时间)内拥有不到其公平共享资源(fair share)的一半 的时候也允许对任务进行抢占。在选择需要结束的任务时,公平调度器会在所有作业中选择 那些最近运行起来的任务,以最小化被...
开启回收站功能,可以将删除的文件在不超时的情况下,恢复原数据,起到防止误删除、备份等作用。 1.回收站参数设置及工作机制 2.启用回收站 修改core-site.xml,配置垃圾回收时间为1分钟。 <name>fs.trash....
hive连接工具waterdrop4.2免认证
17_快捷键设置* L* C. y4 Z1 v0 p) [8 p3 A 18_IO& f, H- i' w( B; P% V; Q" z. L( n/ q 19_IO2 20_文件归档和解档 21_TCP+udp协议-广播 22_UDP实现屏广程序-教师端3 m7 l; D) p! p$ q' H- L5 t1 s 23_UDP实现屏广...
超时设置,应对设置怎样的连接超时?查询超时?写超时等等? JVM参数,如何设置最优的jvm参数,heap size、GC机制等等 Map Reduce,我们应该选择什么样的sort、merge等算法? 消息队列,消息队列长度会怎么样?等等...
。이터지니어가알아야정합니정합니。 。기참조하시다。 它组织了数据工程师需要了解... vm.swappiness vm.swappiness和Hadoop守护程序运行超时问题阿帕奇火花RDD,DataFrame,数据集SparkContext和SparkSession Scala中
星环InceptorSQL使用方法,基于星环大数据平台的InceptorSQL,了解InceptorSQL的基本功能和使用,内部培训文档
1台 2台Memcached或者redis服务器(可存储用户动态信息在缓冲 解决session超时和共享问题) 1台消息队列">LVS Memcached redis 见解 说明:该部署方案至少在14台机器以上 2台用于LVS负载均衡 2台用于WBE(tomcat)...
我知道,没有人再使用Hadoop ,但是对于那些使用Hadoop的人来说,这是一个使用httpx库和aiofiles处理来自HDFS的流数据的具有async功能的大型文件的Web请求库 特征 使用opnieuw库中的retry_async实现重试和超时窗口 ...
使用JDBC连接impala数据库所用jar包,jdbc驱动版本4.0 com.cloudera.impala.jdbc4.Driver。内含JDBC连接impala数据库dome
Cloudera版本(Cloudera’sDistributionIncludingApacheHadoop,简称CDH),基于Web的用户界面,支持大多数Hadoop组件,包括HDFS、MapReduce、Hive、Pig、HBase、Zookeeper、Sqoop,简化了大数据平台的安装、使用难度...
三、网络波动状况下的策略处理,设置抢救期,抢救期内网络稳定下来不判定结点死亡 fourinone-3.04.25最新版升级内容: 1、编译和运行环境升级为jdk7.0版本; 2、计算中止和超时中止的支持,比如多台计算机工人同时...
java.lang.RuntimeException: org.apache.hadoop.hbase.client.RetriesExhaustedException: Failed after attempts=36, exceptions: Fri Feb 14 10:30:36 CST 2020, null, java.net.SocketTimeoutException: ...
ZooKeeper是Hadoop的正式子项目,它是一个针对大型分布式系统的可靠协调系统,提供的功能包括:配置维护、名字服务、分布式同步、组服务等。ZooKeeper的目标就是封装好复杂易出错的关键服务,将简单易用的接口和性能...