如果我们曾经在IO密集型应用中碰到过性能问题,那么我们可能都知道系统的性能会随磁盘压力增加而降低。这个因素是众所周知的,但是其背后的原因可能就不那么清晰了。本文将尝试解释这个过程背后所发生的事情。
一 个典型的场景是当数据被写入一个文件时,它首先会被写入内存区域保留页面缓存;该缓存页保存还没有被写入的数据,这些数据被称为脏数据;经过一段事件后, 根据IO策略,系统内核将这些脏数据刷新到持久化到硬盘的设备队列中。一旦数据到达队列,剩下的就是机器操作:设备驱动读取IO请求、接着是旋转,寻找和 写入到文件所在的物理磁盘块位置。其中首先是写日志文件,然后才将数据写入实际文件中。
在最近和一些其他工程师的讨论中,提出了一个想法, 通过禁用日志记录文件系统来减少磁盘写入延迟。虽然这种想法是正确的,因为这种做法使得每次磁盘写入过程中减少了一次磁盘操作,但是写日志所花费的时间可 以忽略不计,原因是日志未年检和被写入的文件在同一个块中。而使用日志文件从磁盘崩溃中恢复的好处也远大于只是稍微减少的延迟的写操作。
更 重要的是,IO密集型应用的瓶颈是在系统将脏数据页刷新到磁盘时而不是在写日志这一步。而刷新的吞吐量受限于设备的带宽。一个典型的转速为15K的硬盘在 最好的情况下顺序存取速度可以达到120MB/秒,而在随机IO时实际带宽甚至更小。为了更好说明该问题,假设系统使用Redhat Linux系统默认的30秒刷新策略,并且应用以每秒20M的速度写入。那么30秒以后系统就会累计600M的咱数据需要刷新至磁盘(假设在此之前没有跨 越脏数据页)。在Linux中,刷新操作时通过pdflush守护进程来完成的。在最优的顺序写的情况下,那么它将使用所有的pdflush线程(默认为 8个线程)并且需要整整5秒将脏数据从缓存页刷新到设备队列中。这5秒的副作用是双重的:缓存页区域一直处于繁忙状态,磁盘带宽被耗尽。一种监控该情况的 方式是检查磁盘队列的长度。在Linux中,主要是/proc/meminfo中的“Writeback”值或者是sar(System Activity Reporter系统活动情况报告)“avgqu-sz”值。
当 JVM的垃圾回收器正在清理堆内存而且陷入内核忙于刷新(kernel-busily-flushing)时刻时,该场景就变得更加复杂。而一些GC事件 是stop-the-world(STW)的事件,这要求应用中所有线程都暂停来达到安全状态,这样堆内存中的对象就可以被移出。如果某个应用的线程在内 核忙于刷新时试图写入数据,那么该线程将会阻塞在刷新人物之后,而且不能响应请求去暂停。这将导致连锁反应:繁忙的磁盘阻塞了写线程,该写线程延长了垃圾 回收(GC)的暂停时间,而暂停又使应用不响应。该问题可以通过垃圾回收(GC)日志看出,其中有长时间的STW暂停,并伴随有小段CPU时间花费在于磁 盘活动有关的“usr”和“sys”上。
而当系统内存使用达到上限时情况会变得更糟。默认情况下,在Linux中,通过设置 “swappiness”为60可以打开内存交换功能。通过该设置,当系统内存压力大以及IO繁忙时,系统会从运行中的进程中积极的将“idle”内存页 置换到磁盘(是的,更多磁盘IO)来为缓存页腾出更多空间。被置换出的进程还需要再次交换,因为当进程再次活跃时,它需要首先被交换回内存页。相反的,如 果swappiness被禁用(将/proc/sys/vm/swappiness设置为0)来进程的内存页尽可能多的存放在内存中,接着没有选择,内核 将更频繁的刷新脏数据到磁盘中来释放内存页。过早的和频繁的刷新增加了每秒IO的压力、降低了磁盘读写性能,这使得原有问题更加糟糕。
所以有什么缓解策略?
在系统层面,针对我们特定的IO负载通常是检查内核的刷新策略,通常要调整至最优性能需要好几轮的测试。Linux下推荐的调整开关为:
-
/proc/sys/vm/dirty_expire_centiseconds
-
/proc/sys/vm/dirty_background_ratio
在设备配置层面,通过将频繁访问的文件存放在不同的设备中也有助于避免单一设备队列阻塞问题。或者,如果使用的话使用多套RAID1将产生更多的设备队列,这也比使用只有一个设备队列的单磁盘要好。
例如,下图展示了有4块硬盘,2 x RAID1设置(左侧)提供了两个设备队列访问系统。相反,另外的4个设备RAID10设置(右侧)则只提供一个设备队列。
如 果成本允许,可以考虑升级为SSD,它的带宽是旋转型磁盘带宽的6到7倍。对于SSD的建议是,SSD偶尔需要做数据压缩。而数据压缩对性能的影响很不 好,关于这方面的讨论最好新开一篇文章讨论。同时还需要注意的是逻辑卷管理(LVM)。相对于SAS磁盘访问速度来说,使用LVM会引入额外的小延迟,但 可以忽略不计;但是在使用SSD硬盘时该延迟就会变得非常值得注意,因为SSD速度本身就比比SAS快很多。
在应用层面,检查任何配置以避免双重缓冲脏数据页。例如,在Mysql中我们可以开启DIRECT_IO功能来使脏数据只是缓存在Mysql的内存中,而不是在系统缓存页。
最后但很重要,尽量避免不必要的磁盘访问。
-
本文由程序员学架构翻译
-
本文译自 http://architects.dzone.com/articles/performance-impact-io?mz=110215-high-perf
-
转载请务必注明本文出自:程序员学架构(微信号:archleaner )
-
更多文章请扫码:
相关推荐
云计算环境下基于优先级的IO和网络密集型应用调度策略.pdf
基于vue3+socket.io的聊天应用,比较完整,略好看 基于vue3+socket.io的聊天应用,比较完整,略好看 基于vue3+socket.io的聊天应用,比较完整,略好看 基于vue3+socket.io的聊天应用,比较完整,略好看 基于vue3...
IO知识和系统性能深度调优全解.pdf
利用缓冲区提高Java应用程序的IO性能
查看磁盘IO性能
现有的一份单片机IO接口及应用资料和大家分享,希望对大家有帮助,多给支持. 现有的一份单片机IO接口及应用资料和大家分享,希望对大家有帮助,多给支持.
描述IO流的应用 该文档主要讲述了IO 流在开发当中的用法以及使用形式
FANUC机器人_IO信号相关应用说明(硬件+信号分配等) 信号分配 信号分类
2.IO 密集型包括:磁盘IO密集型, 网络IO密集型,微服务网关就属于网络 IO 密集型,使用异步非阻塞式编程模型,能够显著地提升网关对下游服务转发的吞吐量。包含:spring-webflux-5.2.0.RELEASE.jarspring-webflux-...
发那科机器人焊接应用的IO配置(总线型).docx发那科机器人焊接应用的IO配置(总线型).docx发那科机器人焊接应用的IO配置(总线型).docx发那科机器人焊接应用的IO配置(总线型).docx发那科机器人焊接应用的IO配置(总线型)...
发那科机器人焊接应用的IO配置(总线型).pdf发那科机器人焊接应用的IO配置(总线型).pdf发那科机器人焊接应用的IO配置(总线型).pdf发那科机器人焊接应用的IO配置(总线型).pdf发那科机器人焊接应用的IO配置(总线型).pdf...
提高Java IO操作的性能 虽然抱怨Java程序性能不佳的呼声由来已久,但实际上,如果开发者在整个开发周期内都能够关注性能问题,Java程序完全可以和C/C++程序一样快。本文分析了Java IO应用中一些常见的性能问题。
公司的DELL R720服务做了raid 5,安装了windows server 2012 发现服务器运行很慢,怀疑了磁盘IO问题,故此做了性能监控和分析,发现确实为磁盘IO问题。此为分析报告,对windows服务器性能监控有指导意义。后来咨询...
90c51IO口的应用。 1.通过LED 灯实验熟悉51 系列单片机IO 口控制原理。 2.以STC90C51 为例简述原理。 3.我使用的是东流电子HOT-51 的板子。
linux下IO性能查找命令 集
虚拟化项目中的存储IO性能估算
WMI磁盘IO性能监控.rar WMI磁盘IO性能监控.rar WMI磁盘IO性能监控.rar WMI磁盘IO性能监控.rar WMI磁盘IO性能监控.rar WMI磁盘IO性能监控.rar
性能指标-IO纤细阐述IO相关性能测试指标
io方面的例子,提供给大家参考参考,希望对各位有帮助。