Chinaunix首页 | 论坛 | 博客
  • 博客访问: 7894331
  • 博文数量: 701
  • 博客积分: 2150
  • 博客等级: 上尉
  • 技术积分: 13233
  • 用 户 组: 普通用户
  • 注册时间: 2011-06-29 16:28
个人简介

天行健,君子以自强不息!

文章分类

全部博文(701)

文章存档

2019年(2)

2018年(12)

2017年(76)

2016年(120)

2015年(178)

2014年(129)

2013年(123)

2012年(61)

分类: 大数据

2014-04-14 11:55:03

一、现象
运行了使用NFS文件系统的应用程序后,内存缓慢泄漏,
最后导致整个服务器的内存全部耗尽,系统调起多个pdflush进程,并占到CPU的99%,
这时整个系统系统变得处理速度极慢,那怕是敲个命令都慢得不行;

二、检查流程
1. 查看系统最耗内存的进程
# top -m
Tasks: 428 total,   1 running, 427 sleeping,   0 stopped,   0 zombie
Cpu(s):  5.4%us,  0.1%sy,  0.0%ni, 94.4%id,  0.0%wa,  0.0%hi,  0.0%si,  0.0%st
Mem:  32915200k total,  1576064k used, 31339136k free,   284588k buffers
Swap:  8385920k total,        0k used,  8385920k free,   317440k cached


  PID USER      PR  NI  VIRT  RES  SHR S %CPU %MEM    TIME+  COMMAND                                                                                       
14099 root      15   0  144m  96m 2160 S  0.0  0.3 309:57.67 your_program 

发现最耗内存的就是使用NFS的应用程序;

2. 查看进程占用的内存
# pmap 进程号
...
00007fffbebfd000     12K r-x--    [ anon ]
ffffffffff600000   8192K -----    [ anon ]
 total           154604K

但应用程序实际使用的内存并不多,这时就开始怀疑是系统的原因;

3. 系统内存查看
每两秒统计一次内存使用情况,看内存的使用速度
# vmstat 2
procs -----------memory---------- ---swap-- -----io---- --system-- -----cpu------
 r  b   swpd   free   buff  cache   si   so    bi    bo   in   cs us sy id wa st
 0  0      0 31317192 284620 337800    0    0     0     0    0    1  5  0 94  0  0
...

接着看到底是什么占用了这么多内存,先看内核空间的
# vmstat -m 
Cache                       Num  Total   Size  Pages
nfs_direct_cache              0      0    136     28
nfs_write_data              189    207    832      9
nfs_read_data                32     40    768      5
nfs_inode_cache          1027389 1027389   1032      3
nfs_page                    304    360    128     30
...
kmem_cache                  144    144   2688      1

发现了是nfs_inode_cache异常,占用了大量的内存;

3. 使用slabtop命令查看内核slab 缓冲区信息
# slabtop -s c | head 
 Active / Total Objects (% used)    : 3318152 / 3333777 (99.5%)
 Active / Total Slabs (% used)      : 561213 / 561243 (100.0%)
 Active / Total Caches (% used)     : 92 / 145 (63.4%)
 Active / Total Size (% used)       : 1848724.93K / 1851100.14K (99.9%)
 Minimum / Average / Maximum Object : 0.02K / 0.55K / 128.00K


  OBJS ACTIVE  USE OBJ SIZE  SLABS OBJ/SLAB CACHE SIZE NAME                   
1014219 1014219 100%    1.01K 338073        3   1352292K nfs_inode_cache

1021475 1021475 100%    0.52K 145925        7    583700K radix_tree_node
#

我们看到 nfs_inode_cache 占用了大概 1.3GB,
在正常情况下,nfs_inode_cache 应该 30 MiB 左右。所以 nfs_inode_cache 在这里是异常的。

三、原因
Redhat官方的解释:

《nfs_inode_cache usage is high compared to older kernels on RHEL 5 and RHEL 6,
 and possibly system hangs with pdflush / flush consuming CPU》

Issue 
. nfs_inode_cache usage is high compared to older kernels. 
. pdflush or flush processes consuming 100% CPU, or soft lockups with pdflush or flush process running in nfs_flush_inode 
. nfs_inode_cache grows uncontrolled and memory pressure does not release the memory. 
. Under certain type of load the NFS performance from RHEL 6.1 client becomes very slow. 
  The case scenario: after writing a large number of small sized files in a sequence, 
  the write speed for large sized files becomes very slow, around 5 MB/sec or even less.
  When writing large sized files is not preceded by a sequence of writing large number of small sized files 
  the speed is normal - around 200 MB/sec. 
. nfs_inode_cache getting very big and eating the total amount of RAM 

Environment
Red Hat Enteprise Linux 5.7 (2.6.18-274) 
Red Hat Enteprise Linux 6.1 (2.6.32-131.0.15) 
NFS client 

所以是内核的bug引起的;

四、解决办法
1. 内核升级
可以参见我写的《linux内核升级图文攻略》;

2. 给系统打补丁
# wget
--2014-03-31 16:28:20--  
Resolving mirror.centos.org... 94.46.0.18
Connecting to mirror.centos.org|94.46.0.18|:80... connected.
HTTP request sent, awaiting response... 200 OK
Length: 20779178 (20M) [application/x-rpm]
Saving to: `kernel-2.6.18-371.el5.i686.rpm'

100%[==================================================>] 20,779,178  74.1K/s   in 4m 9s   
2014-03-31 16:32:31 (81.5 KB/s) - `kernel-2.6.18-371.el5.i686.rpm' saved [20779178/20779178]

# rpm -Uvh kernel-2.6.18-371.el5.i686.rpm 
# uname -r

3. 定期手动释放内存
/proc是一个虚拟文件系统,我们可以通过对它的读写操作做为与kernel实体间进行通信的一种手段。
也就是说可以通过修改/proc中的文件,来对当前kernel的行为做出调整。
那么我们可以通过调整/proc/sys/vm/drop_caches来释放内存。
操作如下:
# cat /proc/sys/vm/drop_caches               【首先,/proc/sys/vm/drop_caches的值,默认为0。】
0
# sync                                       【手动执行sync命令(描述:sync 命令运行 sync 子例程。
                                               如果必须停止系统,则运行sync 命令以确保文件系统的完整性。
                                               sync 命令将所有未写的系统缓冲区写到磁盘中,
                                               包含已修改的 i-node、已延迟的块 I/O 和读写映射文件)
# echo 2 > /proc/sys/vm/drop_caches          【将/proc/sys/vm/drop_caches值设为2】
# cat /proc/sys/vm/drop_caches
2
# free -m
     total used free shared buffers cached
Mem:  249   66   182      0     0    11
-/+ buffers/cache: 55 194
Swap: 511 0 511

再来运行free命令,会发现现在的used为66MB,free为182MB,buffers为0MB,cached为11MB。
那么有效的释放了buffer和cache。

可以设置成定时任务
# crontab -e
0 */4 * * * sync&&echo 2 >/proc/sys/vm/drop_caches










阅读(4138) | 评论(0) | 转发(2) |
给主人留下些什么吧!~~