Chinaunix首页 | 论坛 | 博客
  • 博客访问: 148725
  • 博文数量: 38
  • 博客积分: 1315
  • 博客等级: 准尉
  • 技术积分: 850
  • 用 户 组: 普通用户
  • 注册时间: 2011-01-06 16:19
文章分类

全部博文(38)

文章存档

2011年(38)

分类: LINUX

2011-04-25 11:18:08

 

    本节介绍如何创建一个slub分配器的cache。

 

kmem_cache_create

    创建某对象的cache,即slub模型最顶层的cache节点。在slub模型初始化完成之后才能使用此API,这点与slab模型不同。因为此函数中调用了kmalloc,必须要在kmalloc所用cache初始化完成之后才能使用。

参数:

1)        namecache的名字。

2)        size:对象的大小。

3)        align:对齐方式。

4)        flags:标志。

5)        ctor:构造函数指针。

 

阅读这部分代码之前,有必要了解一下struct kmem_cache的几个属性:

1)        objsize:对象的实际大小。

2)        inuse:包括对象实际大小、word对齐大小。

3)        offset:空闲对象指针的偏移

4)        sizeslab内一个对象的总大小,包括对象实际大小、word对齐大小、空闲对象指针大小、obj对齐大小。

       slab块内的对象是一个挨一个存放的,每个对象占用的空间主要包含两部分:对象本身和下一个空闲对象指针。依据空闲对象指针的位置,对象可分为两种:外置式和内置式。

    先看外置式对象,如下图所示。指针位于对象的后面。对象还包括两个对齐用空间,word对齐是为了使后面的指针是word对齐的,obj对齐是为了使后面的对象按指定方式对齐。

    再来看内置式对象,如下图所示。指针位于对象的头部,与对象共用存储空间。这是因为对象被分配出去之前,其存储空间是空闲的可用状态,可用于存放空闲对象指针。对象被分配出去后,也不再需要这个指针了,可以被对象内容覆盖。同理,对象释放时,不再使用对象内容,其空间可以用于存放指针。

如果在分配之前或释放之后,使用了对象的存储空间,那么就不能使用内置式指针,必须使用外置式指针,比如:

1)  对象构造函数不为空:这样调用构造函数时,对象的存储空间被构造函数初始化。

2)  使能了某些调试标记位:比如__OBJECT_POISON标记位,这样对象的存储空间会被初始化为固定的值,以利于调试。

 

 

struct kmem_cache *kmem_cache_create(const char *name, size_t size,

              size_t align, unsigned long flags, void (*ctor)(void *))

{

       struct kmem_cache *s;

       char *n;

 

       if (WARN_ON(!name))

              return NULL;

 

       down_write(&slub_lock);

       /* 是否能复用已有的cache,能复用的都是内置式对象 */

       s = find_mergeable(size, align, flags, name, ctor);

       if (s) {

/* cache引用计数加一,表示又多了一种对象使用此cache */

              s->refcount++;

              /*

               * Adjust the object sizes so that we clear

               * the complete object on kzalloc.

               */

              /* 新的对象实际大小为较大对象的实际大小 */

              s->objsize = max(s->objsize, (int)size);

              /* inuse包括对象实际大小、word对齐大小 */

              s->inuse = max_t(int, s->inuse, ALIGN(size, sizeof(void *)));

              /* 添加一个sysfs的别名 */

              if (sysfs_slab_alias(s, name)) {

                     s->refcount--;

                     goto err;

              }

              up_write(&slub_lock);

              return s;

       }

       /* 走到这说明不能合并,需要创建一个新的cache */

       /* 拷贝cache */

       n = kstrdup(name, GFP_KERNEL);

       if (!n)

              goto err;

/* 分配节点使用的struct kmem_cache对象,注意这里与slab模型不同,没有通过kmem_cache_allocstruct kmem_cache cache分配,而是根据大小从kmalloc cache中分配。事实上只有struct kmem_cache_nodestruct kmem_cachekmalloc[3-13]这些slub模型初始化阶段创建的cache,其cache节点使用的struct kmem_cache对象是从struct kmem_cache cache分配的,slub初始化完成后再创建cache时,其struct kmem_cache对象都是从kmalloc cache中分配的。*/

       s = kmalloc(kmem_size, GFP_KERNEL);

       if (s) {

              /* 初始化struct kmem_cache对象 */

              if (kmem_cache_open(s, n,

                            size, align, flags, ctor)) {

                     /* 加入到全局cache链表中 */

                     list_add(&s->list, &slab_caches);

                     /* 加入到sysfs */

                     if (sysfs_slab_add(s)) {

                            list_del(&s->list);

                            kfree(n);

                            kfree(s);

                            goto err;

                     }

                     up_write(&slub_lock);

                     return s;

              }

              kfree(n);

              kfree(s);

       }

err:

       up_write(&slub_lock);

 

       if (flags & SLAB_PANIC)

              panic("Cannot create slabcache %s\n", name);

       else

              s = NULL;

       return s;

}

 

find_mergeable

    遍历已有的cache,看待创建的cache是否能和已有的cache合并。

static struct kmem_cache *find_mergeable(size_t size,

              size_t align, unsigned long flags, const char *name,

              void (*ctor)(void *))

{

       struct kmem_cache *s;

       /* SLUB_NEVER_MERGE定义了一些不允许cache复用的标记 */

       if (slub_nomerge || (flags & SLUB_NEVER_MERGE))

              return NULL;

/* 构造函数非空的对象不能复用cache。与SLUB_NEVER_MERGE一起将外置式对象的cache排除在外,此类cache如果复用,空闲对象指针的位置无法确定 */

       if (ctor)

              return NULL;

/* 计算word对齐后的对象大小*/

       size = ALIGN(size, sizeof(void *));

       /* 计算obj对齐大小 */

       align = calculate_alignment(flags, align, size);

/* 得到对象的总对齐大小,包括word对齐与obj对齐。由于走到这的都是内置式,指针不占用空间,所以对齐大小也就是总大小。*/

       size = ALIGN(size, align);

       flags = kmem_cache_flags(size, flags, name, NULL);

       /* 遍历现有的cache节点 */

       list_for_each_entry(s, &slab_caches, list) {

              /* cache不能合并,跳过 */

              if (slab_unmergeable(s))

                     continue;

              /* 已有cache的对象总大小小于待创建cache的对象总大小,跳过 */

              if (size > s->size)

                     continue;

              /* 标志位不符,跳过 */

              if ((flags & SLUB_MERGE_SAME) != (s->flags & SLUB_MERGE_SAME))

                            continue;

              /*

               * Check if alignment is compatible.

               * Courtesy of Adrian Drzewiecki

               */

              /* 对象大小不满足对齐要求,跳过 */

              if ((s->size & ~(align - 1)) != s->size)

                     continue;

              /* 已有cache的对象总大小过大,跳过 */

              if (s->size - size >= sizeof(void *))

                     continue;

/* 层层筛查之后,终于找到了意中人:已有cache的对象总大小大于等于待创建cache的对象总大小,并且相差不超过sizeof(void *) */

              return s;

       }

       return NULL;

}

 

slab_unmergeable

    检查一个cache是否可以复用。

static int slab_unmergeable(struct kmem_cache *s)

{

       /* 外置式对象指针的cache不允许复用 */

       if (slub_nomerge || (s->flags & SLUB_NEVER_MERGE))

              return 1;

 

       if (s->ctor)

              return 1;

 

       /*

        * We may have set a slab to be unmergeable during bootstrap.

        */

       /* boot阶段创建的cache,不允许复用 */

       if (s->refcount < 0)

              return 1;

 

       return 0;

}

 

kmem_cache_open

    初始化struct kmem_cache对象。

    参数:

1)        s:待初始化的struct kmem_cache对象

2)        namecache的名字

3)        size:对象大小

4)        align:对齐方式

5)        flags:标志

6)        ctor:构造函数指针

 

static int kmem_cache_open(struct kmem_cache *s,

              const char *name, size_t size,

              size_t align, unsigned long flags,

              void (*ctor)(void *))

{

       /* 初始化struct kmem_cache对象 */

       memset(s, 0, kmem_size);

       s->name = name;

       s->ctor = ctor;

       /* objsize保存对象实际大小 */

       s->objsize = size;

       /* 对齐方式 */

       s->align = align;

       /* 标志 */

       s->flags = kmem_cache_flags(size, flags, name, ctor);

       /* 计算此对象slab页块order及对象个数 */

       if (!calculate_sizes(s, -1))

              goto error;

       if (disable_higher_order_debug) {

              ……

       }

 

       /*

        * The larger the object size is, the more pages we want on the partial

        * list to avoid pounding the page allocator excessively.

        */

/* 依据对象大小计算部分满slab链中slab的最少数目。对象越大,部分满slab链所需页面越多,以保证对象数目,避免因对象不足,过多的调用页分配器 */

       set_min_partial(s, ilog2(s->size));

/* cache的引用计数初始化为1slub引入了cache复用机制,不同类型的对象,只要大小相差不大,符合一定的要求,就可以复用一个cache,这个refcount记录cache中有多少种对象,即此cache被多少种对象复用了 */

       s->refcount = 1;

#ifdef CONFIG_NUMA

       s->remote_node_defrag_ratio = 1000;

#endif

       /* 分配struct kmem_cache_node对象,即slab双链 */

       if (!init_kmem_cache_nodes(s))

              goto error;

       /* 分配struct kmem_cache_cpu对象 */

       if (alloc_kmem_cache_cpus(s))

              /* 分配成功,返回 */

              return 1;

       /* 前面分配失败,释放资源 */

       free_kmem_cache_nodes(s);

error:

       if (flags & SLAB_PANIC)

              panic("Cannot create slab %s size=%lu realsize=%u "

                     "order=%u offset=%u flags=%lx\n",

                     s->name, (unsigned long)size, s->size, oo_order(s->oo),

                     s->offset, flags);

       return 0;

}

 

calculate_sizes

    计算每个slab页块的order以及每个slab中对象个数。

    参数:

1)        scache指针

2)        forced_order:小于0时,使用计算的order,大于等于0时,使用此参数指定的order

 

static int calculate_sizes(struct kmem_cache *s, int forced_order)

{

       unsigned long flags = s->flags;

       unsigned long size = s->objsize;

       unsigned long align = s->align;

       int order;

 

       /*

        * Round up object size to the next word boundary. We can only

        * place the free pointer at word boundaries and this determines

        * the possible location of the free pointer.

        */

/* word对齐。对象后面需存放下一个空闲对象的指针,该指针的地址必须是word对齐的 */

       size = ALIGN(size, sizeof(void *));

 

#ifdef CONFIG_SLUB_DEBUG

       /*

        * Determine if we can poison the object itself. If the user of

        * the slab may touch the object after free or before allocation

        * then we should never poison the object itself.

        */

       if ((flags & SLAB_POISON) && !(flags & SLAB_DESTROY_BY_RCU) &&

                     !s->ctor)

              /* 通过填充标识出对象位置,调试用。此类对象必须采用外置式存放指针 */

              s->flags |= __OBJECT_POISON;

       else

              s->flags &= ~__OBJECT_POISON;

 

 

       /*

        * If we are Redzoning then check if there is some space between the

        * end of the object and the free pointer. If not then add an

        * additional word to have some bytes to store Redzone information.

        */

       /* Redzone需要一个额外的word空间 */

       if ((flags & SLAB_RED_ZONE) && size == s->objsize)

              size += sizeof(void *);

#endif

       /*

        * With that we have determined the number of bytes in actual use

        * by the object. This is the potential offset to the free pointer.

        */

/* inuse包括对象实际大小、word对齐大小,对于外置式对象而言,即空闲对象指针的偏移 */

       s->inuse = size;

 

       if (((flags & (SLAB_DESTROY_BY_RCU | SLAB_POISON)) ||

              s->ctor)) {

              /*

               * Relocate free pointer after the object if it is not

               * permitted to overwrite the first word of the object on

               * kmem_cache_free.

               *

               * This is the case if we do RCU, have a constructor or

               * destructor or are poisoning the objects.

               */

              /* 外置式对象,空闲对象指针的偏移 */

              s->offset = size;

              /* 对象总大小加上指针大小 */

              size += sizeof(void *);

       }

 

#ifdef CONFIG_SLUB_DEBUG

       if (flags & SLAB_STORE_USER)

              /*

               * Need to store information about allocs and frees after

               * the object.

               */

              size += 2 * sizeof(struct track);

 

       if (flags & SLAB_RED_ZONE)

              /*

               * Add some empty padding so that we can catch

               * overwrites from earlier objects rather than let

               * tracking information or the free pointer be

               * corrupted if a user writes before the start

               * of the object.

               */

              size += sizeof(void *);

#endif

       /*

        * Determine the alignment based on various parameters that the

        * user specified and the dynamic determination of cache line size

        * on bootup.

        */

       /* 计算对象的obj对齐大小 */

       align = calculate_alignment(flags, align, s->objsize);

       s->align = align;

 

       /*

        * SLUB stores one object immediately after another beginning from

        * offset 0. In order to align the objects we have to simply size

        * each object to conform to the alignment.

        */

       /* 叠加obj对齐后的对象总大小 */

       size = ALIGN(size, align);

/* 保存对象总大小 */

       s->size = size;

       if (forced_order >= 0)

              /* 使用指定的order */

              order = forced_order;

       else

/*计算slab页块的order */

              order = calculate_order(size);

 

       if (order < 0)

              return 0;

 

       s->allocflags = 0;

       if (order)

              /* 多于一个页面,采用大页面方式 */

              s->allocflags |= __GFP_COMP;

 

       if (s->flags & SLAB_CACHE_DMA)

              s->allocflags |= SLUB_DMA;

 

       if (s->flags & SLAB_RECLAIM_ACCOUNT)

              s->allocflags |= __GFP_RECLAIMABLE;

 

       /*

        * Determine the number of objects per slab

        */

       /* oo成员的高位保存页块order,低位保存对象个数 */

       s->oo = oo_make(order, size);

       /* 按一个对象大小计算页面order,此为最小order */

       s->min = oo_make(get_order(size), size);

       /* 更新最大order */

       if (oo_objects(s->oo) > oo_objects(s->max))

              s->max = s->oo;

 

       return !!oo_objects(s->oo);

 

}

 

calculate_order

    计算每个slab由多少个页面组成。

static inline int calculate_order(int size)

{

       int order;

       int min_objects;

       int fraction;

       int max_objects;

 

       /*

        * Attempt to find best configuration for a slab. This

        * works by first attempting to generate a layout with

        * the best configuration and backing off gradually.

        *

        * First we reduce the acceptable waste in a slab. Then

        * we reduce the minimum objects required in a slab.

        */

       /* 全局变量slub_min_objects保存配置的slab内最小对象数 */

       min_objects = slub_min_objects;

       /* 如果没有配置,依据CPU个数计算之 */

       if (!min_objects)

              min_objects = 4 * (fls(nr_cpu_ids) + 1);

/* 全局变量slub_max_order保存slab页块最大order数,依据它计算某对象的最大对象数 */

       max_objects = (PAGE_SIZE << slub_max_order)/size;

       /* 最小对象数当然要取两者中最小的那个 */

       min_objects = min(min_objects, max_objects);

       /* 首先依据最小对象数计算每个slab包含多少页面 */

       while (min_objects > 1) {

              /* fraction为计算碎片大小的基数,取值越小,条件越宽,碎片越多 */

              fraction = 16;

              /* 不断放宽碎片大小的限制 */

              while (fraction >= 4) {

                     /* 计算页面order */

                     order = slab_order(size, min_objects,

                                          slub_max_order, fraction);

                     /* 如果order小于最大order,符合条件,返回 */

                     if (order <= slub_max_order)

                            return order;

                     /* 超过了最大order,减少碎片计算基数 */

                     fraction /= 2;

              }

              /* 放宽最小对象数的限制,重新计算 */

              min_objects--;

       }

 

       /*

        * We were unable to place multiple objects in a slab. Now

        * lets see if we can place a single object there.

        */

/* 走到这,说明前面无法找到一个合适的页块order,看看能不能只放下一个对象。碎片基数为1,表示忽略碎片方面的限制 */

       order = slab_order(size, 1, slub_max_order, 1);

       if (order <= slub_max_order)

              return order;

 

       /*

        * Doh this slab cannot be placed using slub_max_order.

        */

       /* 还不行,只能提高order的上限了,MAX_ORDER定义了最大order */

       order = slab_order(size, 1, MAX_ORDER, 1);

       if (order < MAX_ORDER)

              return order;

       /* 还不行,返回错误 */

       return -ENOSYS;

}

 

slab_order

    计算每个slab由多少个页面组成。

    参数:

1)        size:对象对齐后大小。

2)        min_objectsslab至少放下多少个对象。

3)        max_order:每个slab最多包含2max_order个页面。

4)        fract_leftover:检查碎片时的基数

 

static inline int slab_order(int size, int min_objects,

                            int max_order, int fract_leftover)

{

       int order;

       int rem;

/* 全局变量slub_min_order保存配置的最小order */

       int min_order = slub_min_order;

/* MAX_OBJS_PER_PAGE指一个slab1或多个页组成的大页面)内最多对象数,值为65535,因为struct pageobjects成员为u16类型。如果对象数超出这个上限, 根据上限计算order*/

       if ((PAGE_SIZE << min_order) / size > MAX_OBJS_PER_PAGE)

              /* get_order将页面大小转换成页面order */

              return get_order(size * MAX_OBJS_PER_PAGE) - 1;

/* min_order 为配置的最小orderfls(min_objects * size - 1) - PAGE_SHIFT 为依据参数计算的最小order,取二者中较大的为最小order,以同时满足限定条件 */

       for (order = max(min_order,

                            fls(min_objects * size - 1) - PAGE_SHIFT);

                     order <= max_order; order++) {

 

              unsigned long slab_size = PAGE_SIZE << order;

/* 不满足min_objects的要求,尝试更高一级order。规定一个slab内最小对象数,以避免产生过多的部分满slab */

              if (slab_size < min_objects * size)

                     continue;

              /* 计算碎片大小 */

              rem = slab_size % size;

/* 依据基数检查碎片大小,比如基数为16,那么碎片小于等于slab总大小的116时碎片满足要求,跳出 */

              if (rem <= slab_size / fract_leftover)

                     break;

 

       }

 

       return order;

}

 

init_kmem_cache_nodes

    分配struct kmem_cache_node对象,即slab双链。

static int init_kmem_cache_nodes(struct kmem_cache *s)

{

       int node;

       /* 初始化每个内存节点的struct kmem_cache_node */

       for_each_node_state(node, N_NORMAL_MEMORY) {

              struct kmem_cache_node *n;

/* slub分配器还未完成初始化,意味着struct kmem_cache_node 所在的cache还未建立,还不能使用kmem_cache_alloc函数分配对象 */

              if (slab_state == DOWN) {

                     /* 初始化阶段分配一个struct kmem_cache_node对象 */

                     early_kmem_cache_node_alloc(node);

                     continue;

              }

/* struct kmem_cache_node 所在的cache(由全局变量kmem_cache_node保存)已经初始化好,直接从里面分配一个空闲对象 */

              n = kmem_cache_alloc_node(kmem_cache_node,

                                          GFP_KERNEL, node);

 

              if (!n) {

                     free_kmem_cache_nodes(s);

                     return 0;

              }

/* struct kmem_cache对象的node指针指向刚分配的struct kmem_cache_node对象 */

              s->node[node] = n;

              /* 初始化struct kmem_cache_node对象 */

              init_kmem_cache_node(n, s);

       }

       return 1;

}

 

early_kmem_cache_node_alloc

    初始化阶段分配一个struct kmem_cache_node对象。

static void early_kmem_cache_node_alloc(int node)

{

       struct page *page;

       struct kmem_cache_node *n;

       unsigned long flags;

 

       BUG_ON(kmem_cache_node->size < sizeof(struct kmem_cache_node));

       /* 创建struct kmem_cache_node对象cache的一个slab */

       page = new_slab(kmem_cache_node, GFP_NOWAIT, node);

 

       BUG_ON(!page);

       /* 创建的slab不在本内存节点 */

       if (page_to_nid(page) != node) {

              printk(KERN_ERR "SLUB: Unable to allocate memory from "

                            "node %d\n", node);

              printk(KERN_ERR "SLUB: Allocating a useless per node structure "

                            "in order to be able to continue\n");

       }

       /* 获得本slab第一个空闲对象的指针 */

       n = page->freelist;

       BUG_ON(!n);

       /* 提取第一个空闲对象,指针记录下一个空闲对象 */

       page->freelist = get_freepointer(kmem_cache_node, n);

       /* 分配对象数加一 */

       page->inuse++;

       /* 设置cacheslab双链的指针 */

       kmem_cache_node->node[node] = n;

#ifdef CONFIG_SLUB_DEBUG

       /* 填充对象,调试用 */

       init_object(kmem_cache_node, n, SLUB_RED_ACTIVE);

       init_tracking(kmem_cache_node, n);

#endif

       /* 初始化struct kmem_cache_node对象 */

       init_kmem_cache_node(n, kmem_cache_node);

       /* 更新cacheslab数和对象数 */

       inc_slabs_node(kmem_cache_node, node, page->objects);

 

       /*

        * lockdep requires consistent irq usage for each lock

        * so even though there cannot be a race this early in

        * the boot sequence, we still disable irqs.

        */

       local_irq_save(flags);

       /* 将新创建的slab加入部分满链 */

       add_partial(n, page, 0);

       local_irq_restore(flags);

}

 

init_kmem_cache_node

    初始化struct kmem_cache_node对象,即slab双链。

static void

init_kmem_cache_node(struct kmem_cache_node *n, struct kmem_cache *s)

{

       /* 部分满slab数目清0 */

       n->nr_partial = 0;

       spin_lock_init(&n->list_lock);

       /* 初始化部分满slab链表头 */

       INIT_LIST_HEAD(&n->partial);

#ifdef CONFIG_SLUB_DEBUG

       /* 初始化slab数和对象数 */

       atomic_long_set(&n->nr_slabs, 0);

       atomic_long_set(&n->total_objects, 0);

/* 初始化满slab链表头。可见只有调试时,才需要满slab */

       INIT_LIST_HEAD(&n->full);

#endif

}

 

alloc_kmem_cache_cpus

    分配struct kmem_cache_cpu对象,即local slab

static inline int alloc_kmem_cache_cpus(struct kmem_cache *s)

{

       BUILD_BUG_ON(PERCPU_DYNAMIC_EARLY_SIZE <

                     SLUB_PAGE_SHIFT * sizeof(struct kmem_cache_cpu));

       /* 为每个cpu分配struct kmem_cache_cpu对象作为该cpulocal slab */

       s->cpu_slab = alloc_percpu(struct kmem_cache_cpu);

 

       return s->cpu_slab != NULL;

}

 

 

 

 

阅读(4354) | 评论(0) | 转发(3) |
给主人留下些什么吧!~~