Chinaunix首页 | 论坛 | 博客
  • 博客访问: 1423743
  • 博文数量: 185
  • 博客积分: 0
  • 博客等级: 民兵
  • 技术积分: 2664
  • 用 户 组: 普通用户
  • 注册时间: 2016-07-01 13:46
个人简介

鸟在笼中,恨关羽不能张飞;Survival of the fittest

文章分类

全部博文(185)

分类: LINUX

2014-09-10 10:51:02

linux控制内存的内核参数,大多放在在/proc/sys/vm目录下,主要分为几类:  
控制内存cache 
 
   1、dirty_background_bytes/dirty_background_ratio 
     当dirty cache到了多少的时候,就启动pdflush进程,将dirty cache写回磁盘     当有dirty_background_bytes存在的时候,dirty_background_ratio是被自动计算的 
     2、dirty_bytes/dirty_ratio 
     当一个进程的dirty cache到了多少的时候,启动pdflush进程,将dirty cache写     回磁盘 
     当dirty_bytes存在的时候,dirty_ratio是被自动计算的  
     3、dirty_expire_centisecs 
     当dirty cache存在多久以后(单位为百分之一秒),下次的pdflush会将该缓存写
回磁盘  
     4、dirty_writeback_centisecs 
     pdflush每隔多久,自动运行一次(单位是百分之一秒)  
     5、drop_caches 
     这个不能读,只能写,写的方式为 echo 1 > /proc/sys/vm/drop_caches,写入的时
候,内核会清空缓存,腾出内存来,相当于sync      写1的时候,会清空页缓存,就是文件      写2的时候,会清空inode和目录树      写3的时候,都清空  
     6、nr_pdflush_threads 
     当前pdflush的线程数,必要的时候,pdflush会每隔一秒创建一个线程,这个数就
会增加,一直到nr_pdflush_threads_max  
     7、page-cluster 
     每次swap in或者swap out操作多少内存页 
     为2的指数,当为0的时候,为1页,为1的时候,2页,2的时候4页  
     8、vfs_cache_pressure      控制内核回收cache的 
     值越低,内核越懒得去回收cache,更容易造成OOM,值越高,内核会越加频繁的回收
cache 
    




       
  




控制内存页的 
 
所谓的hugepages,是指内存页,普通的内存页是4K,hugepages的内存页是2M  
     1、hugepages_treat_as_movable  
     2、hugetlb_shm_group 
     哪些用户组可以在hugepages上创建共享内存  
     3、legacy_va_layout 
     非0的时候,就禁止32位的mmap映射方式,采用legacy(2.4)的映射方式  
     4、lowmem_reserve_ratio 
     Low memory/high memory/dma是linux对内存进行的分类      DMA:0x00000000 - 0x00999999 (0-16M) 
     LowMem:0x01000000 - 0x03799999 (16M - 896M)      HighMem:0x03800000 - ... 
     用户用的内存一般是high memory,low memory是给内核用的。low memory享有某些特权,例如无法被写入swap等等,但是当low memory用光的时候,系统就完蛋了,因此,low memory要省着点用,这个选项就是来调节这个的,调节内核对于low memory的吝啬程度  
     5、lower_zone_protection 
     和lowmem_reserve_ratio一样的功能,保留low memory中的连续内存,单位是M,
默认是0的时候,为16M,可以设置大一点。  
     6、max_map_count: 
     定义了一个进程能拥有的最多的内存区域,默认为65536 
 
内存异常处理 
 
   1、memory_failure_early_kill 
     控制在某个内核无法处理的内存错误发生的时候,如何去杀掉这个进程。当这些页有
swap镜像的时候,内核会很好的处理这个错误,不会影响任何应用程序,但是如果没有的话,内核会把进程杀掉,避免内存错误的扩大 
     为1的时候,在发现内存错误的时候,就会把所有拥有内存错误的进程都杀掉 
     为0的时候,只是对这部分页进行unmap,然后把第一个试图进入这个页的进程杀掉 
     2、memory_failure_recovery      是否开启内存错误恢复机制      为1的时候,开启 
     为0的时候,一旦出现内存错误,就panic 






  




 
     3、min_free_kbytees 
     内核在low memory的zone中保留的空间,是靠这个值来计算的 
     如果设的太小,那系统就三天两头的崩溃,如果设的太大,那就会引发OOM  
     4、mmap_min_addr  
     5、oom_dump_tasks 
     当oom killer被引发的时候,将进程的信息输出,包括pid、uid、tgid、vm、rss、
cpu等      默认为0  
     6、oom_kill_allocating_task 
     决定在oom的时候,oom killer杀哪些东西  
     非0的时候,它会扫描进程队列,然后将可能导致内存溢出的进程杀掉,也就是占用
内存最大的那个,但是设置为0的时候,它只杀掉导致oom的那个进程,避免了进程队列的扫描,但是释放的内存大小有限  
     7、overcommit_memory      是否允许内存的过量分配  
     当为0的时候,当用户申请内存的时候,内核会去检查是否有这么大的内存空间      当为1的时候,内核始终认为,有足够大的内存空间,直到它用完了为止      当为2的时候,内核禁止任何形式的过量分配内存  
     8、overcommit_ratio      内存可过量分配的百分比  
     9、panic_on_oom 
     当OOM的时候,是否panic  
     当值为0的时候,在OOM的时候会调用OOM Killer,大部分情况下,会杀掉导致OOM
的进程,然后系统恢复 
     当值为1的时候,发生了OOM以后,如果有mempolicy/cpusets的进程限制,而这些
nodes导致了内存问题的时候,OOM Killer会干掉这些中的一个,系统也会恢复      当值为2的时候,OOM后必然panic
阅读(3015) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~