Chinaunix首页 | 论坛 | 博客
  • 博客访问: 295644
  • 博文数量: 44
  • 博客积分: 10
  • 博客等级: 民兵
  • 技术积分: 1354
  • 用 户 组: 普通用户
  • 注册时间: 2012-04-08 15:38
个人简介

人生像是在跑马拉松,能够完赛的都是不断地坚持向前迈进;人生就是像在跑马拉松,不断调整步伐,把握好分分秒秒;人生还是像在跑马拉松,能力决定了能跑短程、半程还是全程。人生其实就是一场马拉松,坚持不懈,珍惜时间。

文章分类

分类: LINUX

2014-12-11 08:35:57

传统的计算机结构中,整个物理内存都是一条线上的,CPU访问整个内存空间所需要的时间都是相同的。这种内存结构被称之为UMAUniform Memory Architecture,一致存储结构)。但是随着计算机的发展,一些新型的服务器结构中,尤其是多CPU的情况下,物理内存空间的访问就难以控制所需的时间相同了。在多CPU的环境下,系统只有一条总线,有多个CPU都链接到上面,而且每个CPU都有自己本地的物理内存空间,但是也可以通过总线去访问别的CPU物理内存空间,同时也存在着一些多CPU都可以共同访问的公共物理内存空间。于是乎这就出现了一个新的情况,由于各种物理内存空间所处的位置不同,于是访问它们的时间长短也就各异,没法保证一致。对于这种情况的内存结构,被称之为NUMANon-Uniform Memory Architecture,非一致存储结构)。事实上也没有完全的UMA,比如常见的单CPU电脑,RAMROM等物理存储空间的访问时间并非一致的,只是纯粹对RAM而言,是UMA的。此外还有一种称之为MPP的结构(Massive Parallel Processing,大规模并行处理系统),是由多个SMP服务器通过一定的节点互联网络进行连接,协同工作,完成相同的任务。从外界使用者看来,它是一个服务器系统。

回归正题,着重看一下NUMA。由于NUMA存储结构的引入,这就需要相应的管理机制来支持, linux 2.4版本就已经开始对其支持了。随着新增管理机制的支持,也随之引入了Node的概念(存储节点),把访问时间相同的存储空间归结为一个存储节点。于是当前分析的3.14.12版本,linux的物理内存管理机制将物理内存划分为三个层次来管理,依次是:Node(存储节点)、Zone(管理区)和Page(页面)。

 

    存储节点的数据结构为pg_data_t,每个NUMA节点都有一个pg_data_t负责记载该节点的内存布局信息。其中pg_data_t结构体中存储管理区信息的为node_zones成员,其数据结构为zone,每个pg_data_t都有多个node_zones,通常是三个:ZONE_DMAZONE_NORMALZONE_HIGHMEM

ZONE_DMA区通常是由于计算机中部分设备无法直接访问全部内存空间而特地划分出来给该部分设备使用的区,x86环境中,该区通常小于16M

ZONE_NORMAL区位于ZONE_DMA后面,这个区域被内核直接映射到线性地址的高端部分,x86环境中,该区通常为16M-896M

ZONE_HIGHMEM区则是系统除了ZONE_DMAZONE_NORMAL区后剩下的物理内存,这个区不能直接被内核映射,x86环境中,该区通常为896M以后的内存。

为什么要有高端内存的存在?通常都知道内核空间的大小为1G(线性空间为:3-4G)。那么映射这1G内存需要多少页全局目录项?很容易可以算出来是256项,内核有这么多线程在其中,1G够吗?很明显不够,如果要使用超出1G的内存空间怎么办?如果要使用内存,很明显必须要做映射,那么腾出几个页全局目录项出来做映射?Bingo,就是这样,那么腾出多少来呢?linux内核的设计就是腾出32个页全局目录项,2561/8。那么32个页全局目录项对应多大的内存空间?算一下可以知道是128M,也就是说直接映射的内存空间是896M。使用超过896M的内存空间视为高端内存,一旦使用的时候,就需要做映射转换,这是一件很耗资源的事情。所以不要常使用高端内存,就是这么一个由来。

    接着看一下内存管理框架的初始化实现,initmem_init()

  1. 【file:/arch/x86/mm/init_32.c】
  2. #ifndef CONFIG_NEED_MULTIPLE_NODES
  3. void __init initmem_init(void)
  4. {
  5. #ifdef CONFIG_HIGHMEM
  6.     highstart_pfn = highend_pfn = max_pfn;
  7.     if (max_pfn > max_low_pfn)
  8.         highstart_pfn = max_low_pfn;
  9.     printk(KERN_NOTICE "%ldMB HIGHMEM available.\n",
  10.         pages_to_mb(highend_pfn - highstart_pfn));
  11.     high_memory = (void *) __va(highstart_pfn * PAGE_SIZE - 1) + 1;
  12. #else
  13.     high_memory = (void *) __va(max_low_pfn * PAGE_SIZE - 1) + 1;
  14. #endif
  15.  
  16.     memblock_set_node(0, (phys_addr_t)ULLONG_MAX, &memblock.memory, 0);
  17.     sparse_memory_present_with_active_regions(0);
  18.  
  19. #ifdef CONFIG_FLATMEM
  20.     max_mapnr = IS_ENABLED(CONFIG_HIGHMEM) ? highend_pfn : max_low_pfn;
  21. #endif
  22.     __vmalloc_start_set = true;
  23.  
  24.     printk(KERN_NOTICE "%ldMB LOWMEM available.\n",
  25.             pages_to_mb(max_low_pfn));
  26.  
  27.     setup_bootmem_allocator();
  28. }
  29. #endif /* !CONFIG_NEED_MULTIPLE_NODES */


high_memory初始化为低端内存页框max_low_pfn对应的地址大小,接着调用memblock_set_node,根据函数命名,可以推断出该函数用于给早前建立的memblock算法设置node节点信息。

memblock_set_node的实现:

  1. 【file:/mm/memblock.c】
  2. /**
  3.  * memblock_set_node - set node ID on memblock regions
  4.  * @base: base of area to set node ID for
  5.  * @size: size of area to set node ID for
  6.  * @type: memblock type to set node ID for
  7.  * @nid: node ID to set
  8.  *
  9.  * Set the nid of memblock @type regions in [@base,@base+@size) to @nid.
  10.  * Regions which cross the area boundaries are split as necessary.
  11.  *
  12.  * RETURNS:
  13.  * 0 on success, -errno on failure.
  14.  */
  15. int __init_memblock memblock_set_node(phys_addr_t base, phys_addr_t size,
  16.                       struct memblock_type *type, int nid)
  17. {
  18.     int start_rgn, end_rgn;
  19.     int i, ret;
  20.  
  21.     ret = memblock_isolate_range(type, base, size, &start_rgn, &end_rgn);
  22.     if (ret)
  23.         return ret;
  24.  
  25.     for (i = start_rgn; i < end_rgn; i++)
  26.         memblock_set_region_node(&type->regions[i], nid);
  27.  
  28.     memblock_merge_regions(type);
  29.     return 0;
  30. }


memblock_set_node主要调用了三个函数做相关操作:memblock_isolate_rangememblock_set_region_nodememblock_merge_regions

其中memblock_isolate_range

  1. 【file:/mm/memblock.c】
  2. /**
  3.  * memblock_isolate_range - isolate given range into disjoint memblocks
  4.  * @type: memblock type to isolate range for
  5.  * @base: base of range to isolate
  6.  * @size: size of range to isolate
  7.  * @start_rgn: out parameter for the start of isolated region
  8.  * @end_rgn: out parameter for the end of isolated region
  9.  *
  10.  * Walk @type and ensure that regions don't cross the boundaries defined by
  11.  * [@base,@base+@size). Crossing regions are split at the boundaries,
  12.  * which may create at most two more regions. The index of the first
  13.  * region inside the range is returned in *@start_rgn and end in *@end_rgn.
  14.  *
  15.  * RETURNS:
  16.  * 0 on success, -errno on failure.
  17.  */
  18. static int __init_memblock memblock_isolate_range(struct memblock_type *type,
  19.                     phys_addr_t base, phys_addr_t size,
  20.                     int *start_rgn, int *end_rgn)
  21. {
  22.     phys_addr_t end = base + memblock_cap_size(base, &size);
  23.     int i;
  24.  
  25.     *start_rgn = *end_rgn = 0;
  26.  
  27.     if (!size)
  28.         return 0;
  29.  
  30.     /* we'll create at most two more regions */
  31.     while (type->cnt + 2 > type->max)
  32.         if (memblock_double_array(type, base, size) < 0)
  33.             return -ENOMEM;
  34.  
  35.     for (i = 0; i < type->cnt; i++) {
  36.         struct memblock_region *rgn = &type->regions[i];
  37.         phys_addr_t rbase = rgn->base;
  38.         phys_addr_t rend = rbase + rgn->size;
  39.  
  40.         if (rbase >= end)
  41.             break;
  42.         if (rend <= base)
  43.             continue;
  44.  
  45.         if (rbase < base) {
  46.             /*
  47.              * @rgn intersects from below. Split and continue
  48.              * to process the next region - the new top half.
  49.              */
  50.             rgn->base = base;
  51.             rgn->size -= base - rbase;
  52.             type->total_size -= base - rbase;
  53.             memblock_insert_region(type, i, rbase, base - rbase,
  54.                            memblock_get_region_node(rgn),
  55.                            rgn->flags);
  56.         } else if (rend > end) {
  57.             /*
  58.              * @rgn intersects from above. Split and redo the
  59.              * current region - the new bottom half.
  60.              */
  61.             rgn->base = end;
  62.             rgn->size -= end - rbase;
  63.             type->total_size -= end - rbase;
  64.             memblock_insert_region(type, i--, rbase, end - rbase,
  65.                            memblock_get_region_node(rgn),
  66.                            rgn->flags);
  67.         } else {
  68.             /* @rgn is fully contained, record it */
  69.             if (!*end_rgn)
  70.                 *start_rgn = i;
  71.             *end_rgn = i + 1;
  72.         }
  73.     }
  74.  
  75.     return 0;
  76. }


该函数主要做分割操作,在memblock算法建立时,只是判断了flags是否相同,然后将连续内存做合并操作,而此时建立node节点,则根据入参basesize标记节点内存范围将内存划分开来。如果memblock中的region恰好以该节点内存范围末尾划分开来的话,那么则将region的索引记录至start_rgn,索引加1记录至end_rgn返回回去;如果memblock中的region跨越了该节点内存末尾分界,那么将会把当前的region边界调整为node节点内存范围边界,另一部分通过memblock_insert_region()函数插入到memblock管理regions当中,以完成拆分。

顺便看一下memblock_insert_region()函数:

  1. 【file:/mm/memblock.c】
  2. /**
  3.  * memblock_insert_region - insert new memblock region
  4.  * @type: memblock type to insert into
  5.  * @idx: index for the insertion point
  6.  * @base: base address of the new region
  7.  * @size: size of the new region
  8.  * @nid: node id of the new region
  9.  * @flags: flags of the new region
  10.  *
  11.  * Insert new memblock region [@base,@base+@size) into @type at @idx.
  12.  * @type must already have extra room to accomodate the new region.
  13.  */
  14. static void __init_memblock memblock_insert_region(struct memblock_type *type,
  15.                            int idx, phys_addr_t base,
  16.                            phys_addr_t size,
  17.                            int nid, unsigned long flags)
  18. {
  19.     struct memblock_region *rgn = &type->regions[idx];
  20.  
  21.     BUG_ON(type->cnt >= type->max);
  22.     memmove(rgn + 1, rgn, (type->cnt - idx) * sizeof(*rgn));
  23.     rgn->base = base;
  24.     rgn->size = size;
  25.     rgn->flags = flags;
  26.     memblock_set_region_node(rgn, nid);
  27.     type->cnt++;
  28.     type->total_size += size;
  29. }


这里一个memmove()将后面的region信息往后移,另外调用memblock_set_region_node()将原regionnode节点号保留在被拆分出来的region当中。

memblock_set_region_node()函数实现仅是赋值而已:

  1. 【file:/mm/memblock.h】
  2. static inline void memblock_set_region_node(struct memblock_region *r, int nid)
  3. {
  4.     r->nid = nid;
  5. }


对应的memblock_get_region_node()则是获取node节点号:

  1. 【file:/mm/memblock.h】
  2. static inline int memblock_get_region_node(const struct memblock_region *r)
  3. {
  4.     return r->nid;
  5. }


至此,回到memblock_set_node()函数,里面接着memblock_isolate_range()被调用的memblock_set_region_node()已知是获取node节点号,而memblock_merge_regions()则前面已经分析过了,是用于将region合并的。

最后回到initmem_init()函数中,memblock_set_node()返回后,接着调用的函数为sparse_memory_present_with_active_regions()

这里sparse memory涉及到linux的一个内存模型概念。linux内核有三种内存模型:Flat memoryDiscontiguous memorySparse memory。其分别表示:

Flat memory:顾名思义,物理内存是平坦连续的,整个系统只有一个node节点。

Discontiguous memory:物理内存不连续,内存中存在空洞,也因而系统将物理内存分为多个节点,但是每个节点的内部内存是平坦连续的。值得注意的是,该模型不仅是对于NUMA环境而言,UMA环境上同样可能存在多个节点的情况。

Sparse memory:物理内存是不连续的,节点的内部内存也可能是不连续的,系统也因而可能会有一个或多个节点。此外,该模型是内存热插拔的基础。

看一下sparse_memory_present_with_active_regions()的实现:

  1. 【file:/mm/page_alloc.c】
  2. /**
  3.  * sparse_memory_present_with_active_regions - Call memory_present for each active range
  4.  * @nid: The node to call memory_present for. If MAX_NUMNODES, all nodes will be used.
  5.  *
  6.  * If an architecture guarantees that all ranges registered with
  7.  * add_active_ranges() contain no holes and may be freed, this
  8.  * function may be used instead of calling memory_present() manually.
  9.  */
  10. void __init sparse_memory_present_with_active_regions(int nid)
  11. {
  12.     unsigned long start_pfn, end_pfn;
  13.     int i, this_nid;
  14.  
  15.     for_each_mem_pfn_range(i, nid, &start_pfn, &end_pfn, &this_nid)
  16.         memory_present(this_nid, start_pfn, end_pfn);
  17. }


 里面的for_each_mem_pfn_range()是一个旨在循环的宏定义,而memory_present()由于实验环境中没有定义CONFIG_HAVE_MEMORY_PRESENT,所以是个空函数。暂且搁置不做深入研究。

最后看一下initmem_init()退出前调用的函数setup_bootmem_allocator()

  1. 【file:/arch/x86/mm/init_32.c】
  2. void __init setup_bootmem_allocator(void)
  3. {
  4.     printk(KERN_INFO " mapped low ram: 0 - %08lx\n",
  5.          max_pfn_mapped<<PAGE_SHIFT);
  6.     printk(KERN_INFO " low ram: 0 - %08lx\n", max_low_pfn<<PAGE_SHIFT);
  7. }


     原来该函数是用来初始化bootmem管理算法的,但现在x86的环境已经使用了memblock管理算法,这里仅作保留打印部分信息。
阅读(3133) | 评论(0) | 转发(2) |
给主人留下些什么吧!~~