Chinaunix首页 | 论坛 | 博客
  • 博客访问: 807550
  • 博文数量: 118
  • 博客积分: 2067
  • 博客等级: 大尉
  • 技术积分: 1751
  • 用 户 组: 普通用户
  • 注册时间: 2009-07-17 14:27
文章存档

2016年(1)

2013年(1)

2012年(3)

2011年(26)

2010年(47)

2009年(40)

分类: LINUX

2010-08-03 10:48:19

Linux cgroup机制分析之框架分析

来源: ChinaUnix博客  日期: 2008.12.23 16:15 (共有0条评论)
 

------------------------------------------
本文系本站原创,欢迎转载!
转载请注明出处:http://ericxiao.cublog.cn/
------------------------------------------
一: 前言
前段时间,一直在写操作系统和研究Solaris kernel.从而对linux kernel关心甚少.不久前偶然收到富士通的面试,由于诸多原因推辞掉了这次机会.不过招聘要求给我留下了较深的印像.其中涉及到了cgroup机 制.cgroup对我来说并不陌生,在LKML上看到过它的path.在2008 AKA大会上也有人对它做为专题分析.不过一直都没有深入代码研究.这段时间打算将kernel中新加的功能整理一下,就先从cgroup开始吧.
Cgroup是近代linux kernel出现的.它为进程和其后续的子进程提供了一种性能控制机制.在这里不打算对cgroup的作用和使用做过多的描述.本文从linux kernel的源代码出发分析cgroup机制的相关实现.在本节中,主要分析cgroup的框架实现.在后续的部份再来详细分析kernel中的几个重 要的subsystem.关于cgroup的使用和介绍可以查看linux-2.6.28-rc7/Documentation/cgroups /cgroup.txt.另外,本文的源代码分析基于linux kernel 2.6.28版本.分析的源文件基本位于inux-2.6.28-rc7/kernel/cgroup.c和inux-2.6.28-rc7 /kernel/debug_cgroup.c中.
二:cgroup中的概念
在深入到cgroup的代码分析之前.先来了解一下cgroup中涉及到的几个概念:
1:cgroup: 它的全称为control group.即一组进程的行为控制.比如,我们限制进程/bin/sh的CPU使用为20%.我们就可以建一个cpu占用为20%的cgroup.然后将 /bin/sh进程添加到这个cgroup中.当然,一个cgroup可以有多个进程.
2:subsystem: 它类似于我们在netfilter中的过滤hook.比如上面的CPU占用率就是一个subsystem.简而言之.subsystem就是cgroup 中可添加删除的模块.在cgroup架构的封装下为cgroup提供多种行为控制.subsystem在下文中简写成subsys.
3: hierarchy: 它是cgroup的集合.可以把它理解成cgroup的根.cgroup是hierarchy的结点.还是拿上面的例子: 整个cpu占用为100%.这就是根,也就是hierarchy.然后,cgroup A设置cpu占用20%,cgroup B点用50%,cgroup A和cgroup B就是它下面的子层cgroup.
三:cgroup中的重要数据结构
我们先来看cgroup的使用.有三面一个例子:
[root@localhost cgroups]# mount -t cgroup cgroup -o debug /dev/cgroup
[root@localhost cgroups]# mkdir /dev/cgroup/eric_test
如上所示,用debug subsystem做的一个测试. /dev/cgroup是debug subsys的挂载点.也就是我们在上面所分析的hierarchy.然后在hierarchy下又创建了一个名为eric_test的cgroup.
在kernel的源代码中.挂载目录,也就是cgroup的根目录用数据结构struct cgroupfs_root表示.而cgroup用struct cgroup表示.
分别来看一下这两个结构的含义,struct cgroupfs_root定义如下:
struct cgroupfs_root {
//cgroup文件系统的超级块
   struct super_block *sb;

    /*
     * The bitmask of subsystems intended to be attached to this
     * hierarchy
     */
     //hierarchy相关联的subsys 位图
    unsigned long subsys_bits;

    /* The bitmask of subsystems currently attached to this hierarchy */
    //当前hierarchy 中的subsys位图
    unsigned long actual_subsys_bits;

    /* A list running through the attached subsystems */
    //hierarchy中的subsys链表
    struct list_head subsys_list;

    /* The root cgroup for this hierarchy */
    //hierarchy中的顶层cgroup
    struct cgroup top_cgroup;

    /* Tracks how many cgroups are currently defined in hierarchy.*/
    //hierarchy中cgroup的数目
    int number_of_cgroups;

    /* A list running through the mounted hierarchies */
    //用来链入全局链表roots
    struct list_head root_list;

    /* Hierarchy-specific flags */
    //hierarchy的标志
    unsigned long flags;

    /* The path to use for release notifications. */
    char release_agent_path[PATH_MAX];
};
注意cgroupfs_root中有个struct cgroup结构的成员:top_cgroup.即在每个挂载点下面都会有一个总的cgroup.而通过mkdir创建的cgroup是它的子结点.
其中,release_agent_path[ ]的成员含义.我们在后面再来详细分析.

Struct cgroup的定义如下:
struct cgroup {
    //cgroup的标志
    unsigned long flags;        /* "unsigned long" so bitops work */

    /* count users of this cgroup. >0 means busy, but doesn't
     * necessarily indicate the number of tasks in the
     * cgroup */
     //引用计数
    atomic_t count;

    /*
     * We link our 'sibling' struct into our parent's 'children'.
     * Our children link their 'sibling' into our 'children'.
     */
     //用来链入父结点的children链表
    struct list_head sibling;   /* my parent's children */
    //子结点链表
    struct list_head children;  /* my children */
    //cgroup的父结点
    struct cgroup *parent;  /* my parent */
    //cgroup所处的目录
    struct dentry *dentry;      /* cgroup fs entry */

    /* Private pointers for each registered subsystem */
    struct cgroup_subsys_state *subsys[CGROUP_SUBSYS_COUNT];
    //cgroup所属的cgroupfs_root
    struct cgroupfs_root *root;
    //挂载目录下的最上层cgroup
    struct cgroup *top_cgroup;
    ……
……
}
上面并没有将cgroup的结构全部都列出来.其它的全部我们等遇到的时候再来进行分析.
其实,struct cgroupfs_root和struct cgroup就是表示了一种空间层次关系,它就对应着挂着点下面的文件示图.

在上面说过了,cgroup表示进程的行为控制.因为subsys必须要知道进程是位于哪一个cgroup.
所以.在struct task_struct和cgroup中存在一种映射.
Cgroup在struct task_struct中增加了两个成员,如下示:
struct task_struct {
    ……
    ……
#ifdef CONFIG_CGROUPS
    /* Control Group info protected by css_set_lock */
    struct css_set *cgroups;
    /* cg_list protected by css_set_lock and tsk->alloc_lock */
    struct list_head cg_list;
#endif
    ……
    ……
}
注意struct task_struct中并没有一个直接的成员指向cgroup,而是指向了css_set.css_set的结构如下:
struct css_set {
    //css_set引用计数
    atomic_t refcount;
//哈希指针.指向css_set_table[ ]
    struct hlist_node hlist;
//与css_set关联的task链表
    struct list_head tasks;
    //与css_set关联的cg_cgroup_link链表
    struct list_head cg_links;
//一组subsystem states.由subsys->create()创建而成
    struct cgroup_subsys_state *subsys[CGROUP_SUBSYS_COUNT];
}
那从css_set怎么转换到cgroup呢? 再来看一个辅助的数据结构.struct cg_cgroup_link.它的定义如下:
struct cg_cgroup_link {
    /*
     * List running through cg_cgroup_links associated with a
     * cgroup, anchored on cgroup->css_sets
     */
    struct list_head cgrp_link_list;
    /*
     * List running through cg_cgroup_links pointing at a
     * single css_set object, anchored on css_set->cg_links
     */
    struct list_head cg_link_list;
    struct css_set *cg;
};
如上所示.它的cgrp_link_list链入到了cgroup->css_sets. Cg_link_list链入到css_set->cg_links.
其中.cg就是批向cg_link_list所指向的css_set.

上面分析的几个数据结构关系十分复杂.联系也十分紧密.下面以图示的方式直观将各结构的联系表示如下:


注意上图中的css_set_table[ ].它是一个哈希数组.用来存放struct css_set.它的哈希函数为css_set_hash().所有的冲突项都链入数组对应项的hlist.

四:cgroup初始化
Cgroup的初始化包括两个部份.即cgroup_init_early()和cgroup_init().分别表示在系统初始时的初始化和系统初始化完成时的初始化.分为这两个部份是因为有些subsys是要在系统刚启动的时候就必须要初始化的.

4.1: cgroup_init_early()
先看cgroup_init_early()的代码:
int __init cgroup_init_early(void)
{
    int i;
    //初始化全局量init_css_set
    atomic_set(&init_css_set.refcount, 1);
    INIT_LIST_HEAD(&init_css_set.cg_links);
    INIT_LIST_HEAD(&init_css_set.tasks);
    INIT_HLIST_NODE(&init_css_set.hlist);
    //css_set_count:系统中struct css_set计数
    css_set_count = 1;
    //初始化全局变量rootnode
    init_cgroup_root(&rootnode);
    //将全局变量rootnode添加到roots链表
    list_add(&rootnode.root_list, &roots);
    root_count = 1;
    //使系统的初始化进程cgroup指向init_css_set
    init_task.cgroups = &init_css_set;
    //将init_css_set和rootnode.top_cgroup关联起来
    init_css_set_link.cg = &init_css_set;
    list_add(&init_css_set_link.cgrp_link_list,
         &rootnode.top_cgroup.css_sets);
    list_add(&init_css_set_link.cg_link_list,
         &init_css_set.cg_links);
    //初始化css_set_table[ ]
    for (i = 0; i
        INIT_HLIST_HEAD(&css_set_table);
    //对一些需要在系统启动时初始化的subsys进行初始化
    for (i = 0; i
        struct cgroup_subsys *ss = subsys;

        BUG_ON(!ss->name);
        BUG_ON(strlen(ss->name) > MAX_CGROUP_TYPE_NAMELEN);
        BUG_ON(!ss->create);
        BUG_ON(!ss->destroy);
        if (ss->subsys_id != i) {
            printk(KERN_ERR "cgroup: Subsys %s id == %d\n",
                   ss->name, ss->subsys_id);
            BUG();
        }

        if (ss->early_init)
            cgroup_init_subsys(ss);
    }
    return 0;
}
这里主要是初始化init_task.cgroup结构.伴随着它的初始化.相继需要初始化rootnode和init_css_set.接着,又需要初 始化init_css_set_link将rootnode.top_cgroup和init_css_set关联起来.
接着初始化了哈希数组css_set_table[]并且将一些需要在系统刚启动时候需要初始化的subsys进行初始化.
从上面的代码可以看到.系统中的cgroup subsystem都存放在subsys[].定义如下:
static struct cgroup_subsys *subsys[] = {
#include
}
即所有的subsys都定义在linux/cgroup_subsys.h中.

对照之前分析的数据结构,应该不难理解这段代码.下面来分析一下里面所遇到的一些重要的子函数.

Init_cgroup_root()代码如下:
static void init_cgroup_root(struct cgroupfs_root *root)
{
    struct cgroup *cgrp = &root->top_cgroup;
    INIT_LIST_HEAD(&root->subsys_list);
    INIT_LIST_HEAD(&root->root_list);
    root->number_of_cgroups = 1;
    cgrp->root = root;
    cgrp->top_cgroup = cgrp;
    init_cgroup_housekeeping(cgrp);
}
它先初始化root中的几条链表.因为root中有一个top_cgroup.因此将root->number_of_cgroups置为1.然 后,对root->top_cgroup进行初始化.使root->top_cgroup.root指向root. root->top_cgroup.top_cgroup指向它的本身.因为root->top_cgroup就是目录下的第一个 cgroup.
最后在init_cgroup_housekeeping()初始化cgroup的链表和读写锁.

Cgroup_init_subsys()代码如下:
static void __init cgroup_init_subsys(struct cgroup_subsys *ss)
{
    struct cgroup_subsys_state *css;

    printk(KERN_INFO "Initializing cgroup subsys %s\n", ss->name);

    /* Create the top cgroup state for this subsystem */
    ss->root = &rootnode;
    css = ss->create(ss, dummytop);
    /* We don't handle early failures gracefully */
    BUG_ON(IS_ERR(css));
    init_cgroup_css(css, ss, dummytop);

    /* Update the init_css_set to contain a subsys
     * pointer to this state - since the subsystem is
     * newly registered, all tasks and hence the
     * init_css_set is in the subsystem's top cgroup. */
    init_css_set.subsys[ss->subsys_id] = dummytop->subsys[ss->subsys_id];

    need_forkexit_callback |= ss->fork || ss->exit;
    need_mm_owner_callback |= !!ss->mm_owner_changed;

    /* At system boot, before all subsystems have been
     * registered, no tasks have been forked, so we don't
     * need to invoke fork callbacks here. */
    BUG_ON(!list_empty(&init_task.tasks));

    ss->active = 1;
}
dummytop定义如下:
#define dummytop (&rootnode.top_cgroup)
在这个函数中:
1):将每个要注册的subsys->root都指向rootnode.
2):调用subsys->create()生成一个cgroup_subsys_state.
3):调用init_cgroup_css()将dummytop.subsys设置成ss->create()生成的cgroup_subsys_state
4):更新init_css_set->subsys()对应项的值.
5):将ss->active设为1.表示它已经初始化了.

4.2: cgroup_init()
cgroup_init()是cgroup的第二阶段的初始化.代码如下:
int __init cgroup_init(void)
{
    int err;
    int i;
    struct hlist_head *hhead;

    err = bdi_init(&cgroup_backing_dev_info);
    if (err)
        return err;
    //将剩下的(不需要在系统启动时初始化的subsys)的subsys进行初始化
    for (i = 0; i
        struct cgroup_subsys *ss = subsys;
        if (!ss->early_init)
            cgroup_init_subsys(ss);
    }

    /* Add init_css_set to the hash table */
    //将init_css_set添加到css_set_table[ ]
    hhead = css_set_hash(init_css_set.subsys);
    hlist_add_head(&init_css_set.hlist, hhead);
    //注册cgroup文件系统
    err = register_filesystem(&cgroup_fs_type);
    if (err
        goto out;
    //在proc文件系统的根目录下创建一个名为cgroups的文件
    proc_create("cgroups", 0, NULL, &proc_cgroupstats_operations);

out:
    if (err)
        bdi_destroy(&cgroup_backing_dev_info);

    return err;
}
这个函数比较简单.首先.它将剩余的subsys初始化.然后将init_css_set添加进哈希数组css_set_table[ ]中.在上面的代码中css_set_hash()是css_set_table的哈希函数.它是css_set->subsys为哈希键值,到 css_set_table[ ]中找到对应项.然后调用hlist_add_head()将init_css_set添加到冲突项中.
然后,注册了cgroup文件系统.这个文件系统也是我们在用户空间使用cgroup时必须挂载的.
最后,在proc的根目录下创建了一个名为cgroups的文件.用来从用户空间观察cgroup的状态.

经过cgroup的两个阶段的初始化, init_css_set, rootnode,subsys已经都初始化完成.表面上看起来它们很复杂,其实,它们只是表示cgroup的初始化状态而已.例如,如果 subsys->root等于rootnode,那表示subsys没有被其它的cgroup所使用.
五:父子进程之间的cgroup关联
在上面看到的代码中.将init_task.cgroup设置为了init_css_set.我们知道,init_task是系统的第一个进程.所有的过 程都是由它创建的.init_task.cgroup到底会在它后面的子进程造成什么样的影响呢?接下来我们就来分析这个问题.
5.1:创建进程时的父子进程cgroup关联
在进程创建的时候,有:do_fork()àcopy_process(),有如下代码片段:
static struct task_struct *copy_process(unsigned long clone_flags,
                    unsigned long stack_start,
                    struct pt_regs *regs,
                    unsigned long stack_size,
                    int __user *child_tidptr,
                    struct pid *pid,
                    int trace)
{
    ……
    ……
    cgroup_fork(p);
    ……
    cgroup_fork_callbacks(p);
    ……
    cgroup_post_fork(p);
    ……
}
上面的代码片段是创建新进程的时候与cgroup关联的函数.挨个分析如下:
void cgroup_fork(struct task_struct *child)
{
    task_lock(current);
    child->cgroups = current->cgroups;
    get_css_set(child->cgroups);
    task_unlock(current);
    INIT_LIST_HEAD(&child->cg_list);
}
如上面代码所示,子进程和父进程指向同一个cgroups.并且由于增加了一次引用.所以要调用get_css_set()来增加它的引用计数.最后初始化child->cg_list链表.
如代码注释上说的,这里就有一个问题了:在dup_task_struct()为子进程创建struct task_struct的时候不是已经复制了父进程的cgroups么?为什么这里还要对它进行一次赋值呢?这里因为在 dup_task_struct()中没有持有保护锁.而这里又是一个竞争操作.因为在cgroup_attach_task()中可能会更改进程的 cgroups指向.因此通过cgroup_attach_task()所得到的cgroups可能是一个无效的指向.在递增其引用计数的时候就会因为它 是一个无效的引用而发生错误.所以,这个函数在加锁的情况下进行操作.确保了父子进程之间的同步.

cgroup_fork_callbacks()代码如下,
void cgroup_fork_callbacks(struct task_struct *child)
{
    if (need_forkexit_callback) {
        int i;
        for (i = 0; i
            struct cgroup_subsys *ss = subsys;
            if (ss->fork)
                ss->fork(ss, child);
        }
    }
}
它主要是在进程创建时调用subsys中的跟踪函数:subsys->fork().
首先来跟踪一下need_forkexita_callback这个变量.在如下代码片段中:
static void __init cgroup_init_subsys(struct cgroup_subsys *ss)
{
    ……
    need_forkexit_callback |= ss->fork || ss->exit;
    ……
}
从这段代码中我们可以看到,如果有subsys定义了fork和exit函数,就会调need_forkexit_callback设置为1.
回到cgroup_fork_callback()这个函数中.我们发现.进程会跟所有定义了fork的subsys进行这次操作.就算进程没有在这个subsys中,也会有这个操作.

Cgroup_pos_fork()如下所示:
void cgroup_post_fork(struct task_struct *child)
{
    if (use_task_css_set_links) {
        write_lock(&css_set_lock);
        if (list_empty(&child->cg_list))
            list_add(&child->cg_list, &child->cgroups->tasks);
        write_unlock(&css_set_lock);
    }
在use_task_css_set_link为1的情况下.就将子进程链入到它所指向的css_set->task链表.
那什么时候会将use_task_css_set_link设置为1呢?实际上,当你往cgroup中添加进程的时候就会将其置1了.
例如我们之前举的一个例子中:
echo $$ > /dev/cgroup/eric_task/tasks
这个过程就会将use_task_css_set_link置1了.这个过程我们之后再来详细分析.

5.2:子进程结束时的操作
子进程结束的时候,有:
Do_exit() à cgroup_exit().
Cgroup_exit()代码如下:
void cgroup_exit(struct task_struct *tsk, int run_callbacks)
{
    int i;
    struct css_set *cg;

    if (run_callbacks && need_forkexit_callback) {
        for (i = 0; i
            struct cgroup_subsys *ss = subsys;
            if (ss->exit)
                ss->exit(ss, tsk);
        }
    }

    /*
     * Unlink from the css_set task list if necessary.
     * Optimistically check cg_list before taking
     * css_set_lock
     */
    if (!list_empty(&tsk->cg_list)) {
        write_lock(&css_set_lock);
        if (!list_empty(&tsk->cg_list))
            list_del(&tsk->cg_list);
        write_unlock(&css_set_lock);
    }

    /* Reassign the task to the init_css_set. */
    task_lock(tsk);
    cg = tsk->cgroups;
    tsk->cgroups = &init_css_set;
    task_unlock(tsk);
    if (cg)
        put_css_set_taskexit(cg);
}
这个函数的代码逻辑比较清晰.首先,如果以1为调用参数(run_callbacks为1),且有定义了exit操作的subsys.就调用这个subsys的exit操作.
然后断开task->cg_list链表.将其从所指向的css_set->task链上断开.
最后,断开当前的cgroup指向.将其指向init_css_set.也就是将其回复到初始状态.最后,减少旧指向css_set的引用计数.

在这个函数中,我们来跟踪分析put_css_set_taskexit(),代码如下:
static inline void put_css_set_taskexit(struct css_set *cg)
{
    __put_css_set(cg, 1);
}

跟踪到__put_css_set()中:
static void __put_css_set(struct css_set *cg, int taskexit)
{
    int i;
    /*
     * Ensure that the refcount doesn't hit zero while any readers
     * can see it. Similar to atomic_dec_and_lock(), but for an
     * rwlock
     */
    if (atomic_add_unless(&cg->refcount, -1, 1))
        return;
    write_lock(&css_set_lock);
    if (!atomic_dec_and_test(&cg->refcount)) {
        write_unlock(&css_set_lock);
        return;
    }
    unlink_css_set(cg);
    write_unlock(&css_set_lock);

    rcu_read_lock();
    for (i = 0; i
        struct cgroup *cgrp = cg->subsys->cgroup;
        if (atomic_dec_and_test(&cgrp->count) &&
            notify_on_release(cgrp)) {
            if (taskexit)
                set_bit(CGRP_RELEASABLE, &cgrp->flags);
            check_for_release(cgrp);
        }
    }
    rcu_read_unlock();
    kfree(cg);
}
atomic_add_unless(v,a,u)表示如果v的值不为u就加a.返回1.如果v的值等于u就返回0
因此,这个函数首先减小css_set的引用计数.如果css_set的引用计数为1.就会将css_set释放掉了. 要释放css_set.首先要释放css_set上挂载的链表.再释放css_set结构本身所占空间.
释放css_set上的挂载链表是在unlink_css_set()中完成的.代码如下:
static void unlink_css_set(struct css_set *cg)
{
    struct cg_cgroup_link *link;
    struct cg_cgroup_link *saved_link;

    hlist_del(&cg->hlist);
    css_set_count--;

    list_for_each_entry_safe(link, saved_link, &cg->cg_links,
                 cg_link_list) {
        list_del(&link->cg_link_list);
        list_del(&link->cgrp_link_list);
        kfree(link);
    }
}
它首先将cg->hlist断开,也就是将其从css_set_table[ ]中删除.然后减小css_set_count计数.最后遍历删除与css_set关联的cg_cgroup_link.
另外,在这个函数中还涉及到了notify_on_release的操作.在后面再来详细分析这一过程.这里先把它放一下.
六:cgroup文件系统的挂载
Cgroup文件系统定义如下:
static struct file_system_type cgroup_fs_type = {
    .name = "cgroup",
    .get_sb = cgroup_get_sb,
    .kill_sb = cgroup_kill_sb,
}
根据我们之前有关linux文件系统系列的文析.在挂载文件系统的时候,流程会流入file_system_type.get_sb().也就是cgroup_get_sb().由于该代码较长.分段分析如下:
static int cgroup_get_sb(struct file_system_type *fs_type,
             int flags, const char *unused_dev_name,
             void *data, struct vfsmount *mnt)
{
    struct cgroup_sb_opts opts;
    int ret = 0;
    struct super_block *sb;
    struct cgroupfs_root *root;
    struct list_head tmp_cg_links;

    /* First find the desired set of subsystems */
    //解析挂载参数
    ret = parse_cgroupfs_options(data, &opts);
    if (ret) {
        if (opts.release_agent)
            kfree(opts.release_agent);
        return ret;
    }
在这一部份,解析挂载的参数,并将解析的结果存放到opts.opts-> subsys_bits表示指定关联的subsys位图,opts->flags:挂载的标志: opts->release_agent表示指定的release_agent路径.

    //分配并初始化cgroufs_root
    root = kzalloc(sizeof(*root), GFP_KERNEL);
    if (!root) {
        if (opts.release_agent)
            kfree(opts.release_agent);
        return -ENOMEM;
    }

    init_cgroup_root(root);
    /*root->subsys_bits: 该hierarchy上关联的subsys*/
    root->subsys_bits = opts.subsys_bits;
    root->flags = opts.flags;
    /*如果带了release_agent参数,将其copy到root0
    if (opts.release_agent) {
        strcpy(root->release_agent_path, opts.release_agent);
        kfree(opts.release_agent);
    }

    /*初始化一个super block*/
    sb = sget(fs_type, cgroup_test_super, cgroup_set_super, root);

    /*如果发生错误*/
    if (IS_ERR(sb)) {
        kfree(root);
        return PTR_ERR(sb);
    }
在这一部份,主要分配并初始化了一个cgroupfs_root结构.里面的子函数init_cgroup_root()我们在之前已经分析过,这里不再 赘述.其实的初始化包括:设置与之关联的subsys位图,挂载标志和release_agent路径.然后再调用sget()生成一个 super_block结构.调用cgroup_test_super来判断系统中是否有机同的cgroups_root.调用 cgroup_set_super来对super_block进行初始化.
在cgroup_set_super()中,将sb->s_fs_info 指向了cgroutfs_root,cgroufs_root.sb指向生成的super_block.
类似的.如果找到的super_block相关联的cgroupfs_root所表示的subsys_bits和flags与当前cgroupfs_root相同的话,就表示是一个相同的super_block.因为它们的挂载参数是一样的.
举个例子来说明一下有重复super_block的情况:
[root@localhost ~]# mount -t cgroup cgroup -o debug /dev/cgroup/
[root@localhost ~]# mount -t cgroup cgroup -o debug /dev/eric_cgroup/
在上面的例子中,在挂载到/dev/eric_cgroup目录的时候,就会找到一个相同的super_block.这样实例上两者的操作是一样的.这两 个不同挂载点所代码的vfsmount会找到同一个super_block.也就是说对其中一个目录的操作都会同表现在另一个目录中.

    /*重复挂载*/
    if (sb->s_fs_info != root) {
        /* Reusing an existing superblock */
        BUG_ON(sb->s_root == NULL);
        kfree(root);
        root = NULL;
    } else {
        /* New superblock */
        struct cgroup *cgrp = &root->top_cgroup;
        struct inode *inode;
        int i;

        BUG_ON(sb->s_root != NULL);
        /*初始化super_block对应的dentry和inode*/
        ret = cgroup_get_rootdir(sb);
        if (ret)
            goto drop_new_super;
        inode = sb->s_root->d_inode;

        mutex_lock(&inode->i_mutex);
        mutex_lock(&cgroup_mutex);

        /*
         * We're accessing css_set_count without locking
         * css_set_lock here, but that's OK - it can only be
         * increased by someone holding cgroup_lock, and
         * that's us. The worst that can happen is that we
         * have some link structures left over
         */
         /*分配css_set_count个cg_cgroup_link并将它们链入到tmp_cg_links*/
        ret = allocate_cg_links(css_set_count, &tmp_cg_links);
        if (ret) {
            mutex_unlock(&cgroup_mutex);
            mutex_unlock(&inode->i_mutex);
            goto drop_new_super;
        }
        /*bind subsys 到hierarchy*/
        ret = rebind_subsystems(root, root->subsys_bits);
        if (ret == -EBUSY) {
            mutex_unlock(&cgroup_mutex);
            mutex_unlock(&inode->i_mutex);
            goto drop_new_super;
        }

        /* EBUSY should be the only error here */
        BUG_ON(ret);
        /*将root添加到roots链入.增加root_count计数*/
        list_add(&root->root_list, &roots);
        root_count++;

        /*将挂载根目录dentry的私有结构d_fsdata反映向root->top_cgroup*/
        /*将root->top_cgroup.dentry指向挂载的根目录*/
        sb->s_root->d_fsdata = &root->top_cgroup;
        root->top_cgroup.dentry = sb->s_root;

        /* Link the top cgroup in this hierarchy into all
         * the css_set objects */
         /*将所有的css_set都和root->top_cgroup关联起来*/
        write_lock(&css_set_lock);
        for (i = 0; i
            struct hlist_head *hhead = &css_set_table;
            struct hlist_node *node;
            struct css_set *cg;

            hlist_for_each_entry(cg, node, hhead, hlist) {
                struct cg_cgroup_link *link;

                BUG_ON(list_empty(&tmp_cg_links));
                link = list_entry(tmp_cg_links.next,
                          struct cg_cgroup_link,
                          cgrp_link_list);
                list_del(&link->cgrp_link_list);
                link->cg = cg;
                list_add(&link->cgrp_link_list,
                     &root->top_cgroup.css_sets);
                list_add(&link->cg_link_list, &cg->cg_links);
            }
        }
        write_unlock(&css_set_lock);
        /*释放tmp_cg_links的多余项*/
        free_cg_links(&tmp_cg_links);

        BUG_ON(!list_empty(&cgrp->sibling));
        BUG_ON(!list_empty(&cgrp->children));
        BUG_ON(root->number_of_cgroups != 1);
        /*在root->top_cgroup下面创建一些文件,包括cgroup共有的和subsys私有的文件*/  
        cgroup_populate_dir(cgrp);
        mutex_unlock(&inode->i_mutex);
        mutex_unlock(&cgroup_mutex);
    }
    /*将vfsmount和super_block关联起来*/
    return simple_set_mnt(mnt, sb);

drop_new_super:
    up_write(&sb->s_umount);
    deactivate_super(sb);
    free_cg_links(&tmp_cg_links);
    return ret;
}
这一部份,首先判断找到的super_block是不是之前就存在的.如果是已经存在的,那就用不着再初始化一个cgroupfs_root结构了.将之 前分配的结构释放掉.然后调用simple_set_mnt()将取得的super_block和vfsmount相关联后退出.
如果super_block是一个新建的.那么就必须要继续初始化cgroupfs_root了.
首先,调用cgroup_get_rootdir()初始化super_block对应的dentry和inode.
然后,调用rebind_subsystems()将需要关联到hierarchy的subsys和root->top_cgroup绑定起来.
最后,将所有的css_set都和root->top_cgroup关联起来.这样就可以从root->top_cgroup找到所有的进程 了.再调用cgroup_populate_dir()在挂载目录下创建一些文件,然后,调用simple_set_mnt()将取得的 super_block和vfsmount相关联后退出.

这个函数的流程还算简单.下面来分析一下里面涉及到的重要的子函数:
6.1: parse_cgroupfs_options()函数分析
这个函数主要是对挂载的参数进行解析.函数代码如下:
static int parse_cgroupfs_options(char *data,
                     struct cgroup_sb_opts *opts)
{
    /*如果挂载的时候没有带参数,将o设为"all".表示将所有
      *的subsys都与之关联
      */
    char *token, *o = data ?: "all";

    opts->subsys_bits = 0;
    opts->flags = 0;
    opts->release_agent = NULL;

    /*各参数是以","分隔的*/
    while ((token = strsep(&o, ",")) != NULL) {
        if (!*token)
            return -EINVAL;
        /*如果为all.表示关联所有的subsys*/
        if (!strcmp(token, "all")) {
            /* Add all non-disabled subsystems */
            int i;
            opts->subsys_bits = 0;
            for (i = 0; i
                struct cgroup_subsys *ss = subsys;
                if (!ss->disabled)
                    opts->subsys_bits |= 1ul
            }
        }
        /*如果指定参数noprefix.设定ROOT_NOPREFIX标志*/
        /*在指定noprefix的情况下.subsys创建的文件不会带subsys名称的前缀*/
        else if (!strcmp(token, "noprefix")) {
            set_bit(ROOT_NOPREFIX, &opts->flags);
        }
        /*如果指定了release_agent.分opt->release_agent分配内存,并将参数copy到里面*/
        else if (!strncmp(token, "release_agent=", 14)) {
            /* Specifying two release agents is forbidden */
            if (opts->release_agent)
                return -EINVAL;
            opts->release_agent = kzalloc(PATH_MAX, GFP_KERNEL);
            if (!opts->release_agent)
                return -ENOMEM;
            strncpy(opts->release_agent, token + 14, PATH_MAX - 1);
            opts->release_agent[PATH_MAX - 1] = 0;
        }
         /*其它情况下,将所带参数做为一个susys名处理.到sussys[]找到
           *对应的subsys.然后将opts->subsys_bits中的位置1
           */
        else {
            struct cgroup_subsys *ss;
            int i;
            for (i = 0; i
                ss = subsys;
                if (!strcmp(token, ss->name)) {
                    if (!ss->disabled)
                        set_bit(i, &opts->subsys_bits);
                    break;
                }
            }
            if (i == CGROUP_SUBSYS_COUNT)
                return -ENOENT;
        }
    }

    /* We can't have an empty hierarchy */
    /*如果没有关联到subsys.错误*/
    if (!opts->subsys_bits)
        return -EINVAL;

    return 0;
}
对照代码中添加的注释应该很容易看懂.这里就不再做详细分析了.

6.2: rebind_subsystems()函数分析
rebind_subsystems()用来将cgroupfs_root和subsys绑定.代码如下:
static int rebind_subsystems(struct cgroupfs_root *root,
                  unsigned long final_bits)
{
    unsigned long added_bits, removed_bits;
    struct cgroup *cgrp = &root->top_cgroup;
    int i;

    /*root->actual_subsys_bits表示当进root中所关键的subsys位图*/
     /*如果在root->actual_subsys_bits中.但没有在final_bits中.表示这是
    *一次remonut的操作.需要将旧的subsys移除.如果在final_bits中
    *存在,但没有在root->actual_subsys_bits中,表示是需要添加的.
    */
    removed_bits = root->actual_subsys_bits & ~final_bits;
    added_bits = final_bits & ~root->actual_subsys_bits;
    /* Check that any added subsystems are currently free */
     /*如果要关联的subsys已经在其它的hierarchy中了.失败.
    *如果ss->root != &rootnode表示ss已经链入了其它的cgroupfs_root
    */
    for (i = 0; i
        unsigned long bit = 1UL
        struct cgroup_subsys *ss = subsys;
        if (!(bit & added_bits))
            continue;
        if (ss->root != &rootnode) {
            /* Subsystem isn't free */
            return -EBUSY;
        }
    }

    /* Currently we don't handle adding/removing subsystems when
     * any child cgroups exist. This is theoretically supportable
     * but involves complex error handling, so it's being left until
     * later */
     /*如果root->top_cgroup->children不为空.表示该hierarchy还要其它的cgroup
    *是不能被remount的.(新挂载的root->top_cgroup在初始化的时候将children置空了)
    */
    if (!list_empty(&cgrp->children))
        return -EBUSY;

    /* Process each subsystem */
    for (i = 0; i
        struct cgroup_subsys *ss = subsys;
        unsigned long bit = 1UL
        /*添加subsys的情况*/
        if (bit & added_bits) {
            /* We're binding this subsystem to this hierarchy */
            /* 添加情况下.将cgrp->subsys指向dummytop->subsys
              * 并更新dummytop->subsys->root.将其指向要添加的root
              * 最后调用subsys->bind()操作
              */
            BUG_ON(cgrp->subsys);
            BUG_ON(!dummytop->subsys);
            BUG_ON(dummytop->subsys->cgroup != dummytop);
            cgrp->subsys = dummytop->subsys;
            cgrp->subsys->cgroup = cgrp;
            list_add(&ss->sibling, &root->subsys_list);
            rcu_assign_pointer(ss->root, root);
            if (ss->bind)
                ss->bind(ss, cgrp);

        }
        /*移除subsys的情况*/
        else if (bit & removed_bits) {
            /* 移除操作,将对应的cgroup_subsys_state回归到原来的样子.并且也需要
              * 将与其subsys bind
              */
            /* We're removing this subsystem */
            BUG_ON(cgrp->subsys != dummytop->subsys);
            BUG_ON(cgrp->subsys->cgroup != cgrp);
            if (ss->bind)
                ss->bind(ss, dummytop);
            dummytop->subsys->cgroup = dummytop;
            cgrp->subsys = NULL;
            rcu_assign_pointer(subsys->root, &rootnode);
            list_del(&ss->sibling);
        } else if (bit & final_bits) {
            /* Subsystem state should already exist */
            BUG_ON(!cgrp->subsys);
        } else {
            /* Subsystem state shouldn't exist */
            BUG_ON(cgrp->subsys);
        }
    }
    /*更新root的位图*/
    root->subsys_bits = root->actual_subsys_bits = final_bits;
    synchronize_rcu();

    return 0;
}
从这个函数也可以看出来.rootnode就是起一个参照的作用.用来判断subsys是否处于初始化状态.

6.3: cgroup_populate_dir()函数分析
cgroup_populate_dir()用来在挂载目录下创建交互文件.代码如下:
static int cgroup_populate_dir(struct cgroup *cgrp)
{
    int err;
    struct cgroup_subsys *ss;

    /* First clear out any existing files */
    /*先将cgrp所在的目录清空*/
    cgroup_clear_directory(cgrp->dentry);

    /*创建files所代码的几个文件*/
    err = cgroup_add_files(cgrp, NULL, files, ARRAY_SIZE(files));
    if (err
        return err;
    /*如果是顶层top_cgroup.创建cft_release_agent所代码的文件*/
    if (cgrp == cgrp->top_cgroup) {
        if ((err = cgroup_add_file(cgrp, NULL, &cft_release_agent))
            return err;
    }

    /*对所有与cgrp->root关联的subsys都调用populate()*/
    for_each_subsys(cgrp->root, ss) {
        if (ss->populate && (err = ss->populate(ss, cgrp))
            return err;
    }

    return 0;
}
这个函数比较简单.跟踪cgroup_add_file().如下:
nt cgroup_add_file(struct cgroup *cgrp,
               struct cgroup_subsys *subsys,
               const struct cftype *cft)
{
    struct dentry *dir = cgrp->dentry;
    struct dentry *dentry;
    int error;

    char name[MAX_CGROUP_TYPE_NAMELEN + MAX_CFTYPE_NAME + 2] = { 0 };
    /*如果有指定subsys.且没有使用ROOT_NOPREFIX标志.需要在名称前加上
     *subsys的名称
     */
    if (subsys && !test_bit(ROOT_NOPREFIX, &cgrp->root->flags)) {
        strcpy(name, subsys->name);
        strcat(name, ".");
    }
    /*将cft->name链接到name代表的字串后面*/
    strcat(name, cft->name);
    BUG_ON(!mutex_is_locked(&dir->d_inode->i_mutex));
    /*到cgroup所在的目录下寻找name所表示的dentry,如果不存在,则新建之*/
    dentry = lookup_one_len(name, dir, strlen(name));
    if (!IS_ERR(dentry)) {
        /*创建文件inode*/
        error = cgroup_create_file(dentry, 0644 | S_IFREG,
                        cgrp->root->sb);
        /*使dentry->d_fsdata指向文件所代表的cftype*/
        if (!error)
            dentry->d_fsdata = (void *)cft;
        dput(dentry);
    } else
        error = PTR_ERR(dentry);
    return error;
}

cgroup_create_file()函数代码如下:
static int cgroup_create_file(struct dentry *dentry, int mode,
                struct super_block *sb)
{
    static struct dentry_operations cgroup_dops = {
        .d_iput = cgroup_diput,
    };

    struct inode *inode;

    if (!dentry)
        return -ENOENT;
    if (dentry->d_inode)
        return -EEXIST;
    /*分配一个inode*/
    inode = cgroup_new_inode(mode, sb);
    if (!inode)
        return -ENOMEM;
    /*如果新建的是目录*/
    if (S_ISDIR(mode)) {
        inode->i_op = &cgroup_dir_inode_operations;
        inode->i_fop = &simple_dir_operations;

        /* start off with i_nlink == 2 (for "." entry) */
        inc_nlink(inode);

        /* start with the directory inode held, so that we can
         * populate it without racing with another mkdir */
        mutex_lock_nested(&inode->i_mutex, I_MUTEX_CHILD);
    }
    /*新建一般文件*/
    else if (S_ISREG(mode)) {
        inode->i_size = 0;
        inode->i_fop = &cgroup_file_operations;
    }
    dentry->d_op = &cgroup_dops;
    /*将dentry和inode关联起来*/
    d_instantiate(dentry, inode);
    dget(dentry);   /* Extra count - pin the dentry in core */
    return 0;
}
从这个函数我们可以看到.如果是目录的话,对应的操作集为simple_dir_operations和 cgroup_dir_inode_operations.它与cgroup_get_rootdir()中对根目录对应的inode所设置的操作集是一 样的.如果是一般文件,它的操作集为cgroup_file_operations.
在这里,先将cgroup中的文件操作放到一边,我们在之后再来详细分析这个过程.
现在.我们已经将cgroup文件系统的挂载分析完成.接下来看它下面子层cgroup的创建.

七:创建子层cgroup
在目录下通过mkdir调用就可以创建一个子层cgroup.下面就分析这一过程:
经过上面的分析可以得知,cgroup中目录的操作集为: cgroup_dir_inode_operations.结构如下:
static struct inode_operations cgroup_dir_inode_operations = {
    .lookup = simple_lookup,
    .mkdir = cgroup_mkdir,
    .rmdir = cgroup_rmdir,
    .rename = cgroup_rename,
};
从上面看到,对应mkdir的入口为cgroup_mkdir().代码如下:
static int cgroup_mkdir(struct inode *dir, struct dentry *dentry, int mode)
{
    /*找到它的上一级cgroup*/
    struct cgroup *c_parent = dentry->d_parent->d_fsdata;

    /* the vfs holds inode->i_mutex already */
    /*调用cgroup_create创建cgroup*/
    return cgroup_create(c_parent, dentry, mode | S_IFDIR);
}
跟踪cgroup_create().代码如下:
static long cgroup_create(struct cgroup *parent, struct dentry *dentry,
                 int mode)
{
    struct cgroup *cgrp;
    struct cgroupfs_root *root = parent->root;
    int err = 0;
    struct cgroup_subsys *ss;
    struct super_block *sb = root->sb;
    /*分配并初始化一个cgroup*/
    cgrp = kzalloc(sizeof(*cgrp), GFP_KERNEL);
    if (!cgrp)
        return -ENOMEM;

    /* Grab a reference on the superblock so the hierarchy doesn't
     * get deleted on unmount if there are child cgroups.  This
     * can be done outside cgroup_mutex, since the sb can't
     * disappear while someone has an open control file on the
     * fs */
    atomic_inc(&sb->s_active);

    mutex_lock(&cgroup_mutex);

    init_cgroup_housekeeping(cgrp);

    /*设置cgrp的层次关系*/
    cgrp->parent = parent;
    cgrp->root = parent->root;
    cgrp->top_cgroup = parent->top_cgroup;

    /*如果上一级cgroup设置了CGRP_NOTIFY_ON_RELEASE.那cgrp也设置这个标志*/
    if (notify_on_release(parent))
        set_bit(CGRP_NOTIFY_ON_RELEASE, &cgrp->flags);

    /*调用subsys_create()生成cgroup_subsys_state.并与cgrp相关联*/
    for_each_subsys(root, ss) {
        struct cgroup_subsys_state *css = ss->create(ss, cgrp);
        if (IS_ERR(css)) {
            err = PTR_ERR(css);
            goto err_destroy;
        }
        init_cgroup_css(css, ss, cgrp);
    }

    /*将cgrp添加到上一层cgroup的children链表*/
    list_add(&cgrp->sibling, &cgrp->parent->children);
    /*增加root的cgroups数目计数*/
    root->number_of_cgroups++;
    /*在当前目录生成一个目录*/
    err = cgroup_create_dir(cgrp, dentry, mode);
    if (err
        goto err_remove;

    /* The cgroup directory was pre-locked for us */
    BUG_ON(!mutex_is_locked(&cgrp->dentry->d_inode->i_mutex));
    /*在cgrp下创建几个交互文件*/
    err = cgroup_populate_dir(cgrp);
    /* If err

    mutex_unlock(&cgroup_mutex);
    mutex_unlock(&cgrp->dentry->d_inode->i_mutex);

    return 0;

err_remove:

    list_del(&cgrp->sibling);
    root->number_of_cgroups--;

err_destroy:

    for_each_subsys(root, ss) {
        if (cgrp->subsys[ss->subsys_id])
            ss->destroy(ss, cgrp);
    }

    mutex_unlock(&cgroup_mutex);

    /* Release the reference count that we took on the superblock */
    deactivate_super(sb);

    kfree(cgrp);
    return err;
}
在这个函数中,主要分配并初始化了一个cgroup结构.并且将它和它的上一层目录以及整个cgroupfs_root构成一个空间层次关系.然后,再调用subsys>create()操作函数.来让subsys知道已经创建了一个cgroup结构.
为了理顺这一部份.将前面分析的cgroup文件系统挂载和cgroup的创建.以及接下来要分析的attach_task()操作总结成一个图.如下示:
Click here to open new window
CTRL+Mouse wheel to zoom in/out
八:cgroup中文件的操作
接下来,就来看cgroup文件的操作.在上面曾分析到:文件对应的操作集为cgroup_file_operations.如下所示:
static struct file_operations cgroup_file_operations = {
    .read = cgroup_file_read,
    .write = cgroup_file_write,
    .llseek = generic_file_llseek,
    .open = cgroup_file_open,
    .release = cgroup_file_release,
}

7.1:cgrou文件的open操作
对应的函数为cgroup_file_open().代码如下:
static int cgroup_file_open(struct inode *inode, struct file *file)
{
    int err;
    struct cftype *cft;

    err = generic_file_open(inode, file);
    if (err)
        return err;

    /*取得文件对应的struct cftype*/
    cft = __d_cft(file->f_dentry);
    if (!cft)
        return -ENODEV;
    /*如果定义了read_map或者是read_seq_string*/
    if (cft->read_map || cft->read_seq_string) {
        struct cgroup_seqfile_state *state =
            kzalloc(sizeof(*state), GFP_USER);
        if (!state)
            return -ENOMEM;
        state->cft = cft;
        state->cgroup = __d_cgrp(file->f_dentry->d_parent);
        file->f_op = &cgroup_seqfile_operations;
        err = single_open(file, cgroup_seqfile_show, state);
        if (err
            kfree(state);
    }
    /*否则调用cft->open()*/
    else if (cft->open)
        err = cft->open(inode, file);
    else
        err = 0;

    return err;
}
有两种情况.一种是定义了read_map或者是read_seq_string的情况.这种情况下,它对应的操作集为 cgroup_seqfile_operations.如果是其它的情况.调用cftype的open()函数.第一种情况,我们等以后遇到了这样的情况 再来详细分析.

7.2:cgroup文件的read操作
对应函数为cgroup_file_read().代码如下:
static ssize_t cgroup_file_read(struct file *file, char __user *buf,
                   size_t nbytes, loff_t *ppos)
{
    struct cftype *cft = __d_cft(file->f_dentry);
    struct cgroup *cgrp = __d_cgrp(file->f_dentry->d_parent);

    if (!cft || cgroup_is_removed(cgrp))
        return -ENODEV;

    if (cft->read)
        return cft->read(cgrp, cft, file, buf, nbytes, ppos);
    if (cft->read_u64)
        return cgroup_read_u64(cgrp, cft, file, buf, nbytes, ppos);
    if (cft->read_s64)
        return cgroup_read_s64(cgrp, cft, file, buf, nbytes, ppos);
    return -EINVAL;
}
如上代码所示.read操作会转入到cftype的read()或者read_u64或者read_s64的函数中.

7.3:cgroup文件的wirte操作
对应的操作函数是cgroup_file_write().如下示:
static ssize_t cgroup_file_write(struct file *file, const char __user *buf,
                        size_t nbytes, loff_t *ppos)
{
    struct cftype *cft = __d_cft(file->f_dentry);
    struct cgroup *cgrp = __d_cgrp(file->f_dentry->d_parent);

    if (!cft || cgroup_is_removed(cgrp))
        return -ENODEV;
    if (cft->write)
        return cft->write(cgrp, cft, file, buf, nbytes, ppos);
    if (cft->write_u64 || cft->write_s64)
        return cgroup_write_X64(cgrp, cft, file, buf, nbytes, ppos);
    if (cft->write_string)
        return cgroup_write_string(cgrp, cft, file, buf, nbytes, ppos);
    if (cft->trigger) {
        int ret = cft->trigger(cgrp, (unsigned int)cft->private);
        return ret ? ret : nbytes;
    }
    return -EINVAL;
}
从上面可以看到.最终的操作会转入到cftype的write或者wirte_u64或者wirte_string或者trigger函数中.

7.4:debug subsytem分析
以debug subsystem为例来说明cgroup中的文件操作
Debug subsys定义如下:
struct cgroup_subsys debug_subsys = {
    .name = "debug",
    .create = debug_create,
    .destroy = debug_destroy,
    .populate = debug_populate,
    .subsys_id = debug_subsys_id,
}
在cgroup_init_subsys()中,会以dummytop为参数调用debug.create().对应函数为debug_create().代码如下:
static struct cgroup_subsys_state *debug_create(struct cgroup_subsys *ss,
                           struct cgroup *cont)
{
    struct cgroup_subsys_state *css = kzalloc(sizeof(*css), GFP_KERNEL);

    if (!css)
        return ERR_PTR(-ENOMEM);

    return css;
}
这里没啥好说的,就是分配了一个cgroup_subsys_state结构.

然后,将cgroup挂载.指令如下:
[root@localhost ~]# mount -t cgroup cgroup -o debug /dev/cgroup/
在rebind_subsystems()中,会调用subsys的bind函数.但在debug中无此接口.故不需要考虑.
然后在cgroup_populate_dir()中会调用populate接口.对应函数为debug_populate().代码如下:
static int debug_populate(struct cgroup_subsys *ss, struct cgroup *cont)
{
    return cgroup_add_files(cont, ss, files, ARRAY_SIZE(files));
}
Debug中的files定义如下:
static struct cftype files[] =  {
    {
        .name = "cgroup_refcount",
        .read_u64 = cgroup_refcount_read,
    },
    {
        .name = "taskcount",
        .read_u64 = taskcount_read,
    },

    {
        .name = "current_css_set",
        .read_u64 = current_css_set_read,
    },

    {
        .name = "current_css_set_refcount",
        .read_u64 = current_css_set_refcount_read,
    },

    {
        .name = "releasable",
        .read_u64 = releasable_read,
    },
}
来观察一下 /dev/cgroup下的文件:
[root@localhost ~]# tree /dev/cgroup/
/dev/cgroup/
|-- debug.cgroup_refcount
|-- debug.current_css_set
|-- debug.current_css_set_refcount
|-- debug.releasable
|-- debug.taskcount
|-- notify_on_release
|-- release_agent
`-- tasks

0 directories, 8 files
上面带debug字样的文件是从debug subsys中创建的.其它的是cgroup.c的files中创建的.
我们先来分析每一个subsys共有的文件.即tasks,release_agent和notify_on_release.

7.5:task文件操作
Tasks文件对应的cftype结构如下:
static struct cftype files[] = {
    {
        .name = "tasks",
        .open = cgroup_tasks_open,
        .write_u64 = cgroup_tasks_write,
        .release = cgroup_tasks_release,
        .private = FILE_TASKLIST,
    }

7.5.1:task文件的open操作
当打开文件时,流程就会转入cgroup_tasks_open().代码如下:
static int cgroup_tasks_open(struct inode *unused, struct file *file)
{
    /*取得该文件所在层次的cgroup*/
    struct cgroup *cgrp = __d_cgrp(file->f_dentry->d_parent);
    pid_t *pidarray;
    int npids;
    int retval;

    /* Nothing to do for write-only files */
    /*如果是只写的文件系统*/
    if (!(file->f_mode & FMODE_READ))
        return 0;

    /*
     * If cgroup gets more users after we read count, we won't have
     * enough space - tough.  This race is indistinguishable to the
     * caller from the case that the additional cgroup users didn't
     * show up until sometime later on.
     */
     /*得到该层cgroup所关联的进程个数*/
    npids = cgroup_task_count(cgrp);
    /*为npids个进程的pid存放分配空间*/
    pidarray = kmalloc(npids * sizeof(pid_t), GFP_KERNEL);
    if (!pidarray)
        return -ENOMEM;
    /* 将与cgroup关联进程的pid存放到pid_array_load数组.
      * 并且按照从小到大的顺序排列
     */
    npids = pid_array_load(pidarray, npids, cgrp);
    sort(pidarray, npids, sizeof(pid_t), cmppid, NULL);

    /*
     * Store the array in the cgroup, freeing the old
     * array if necessary
     */
     /* 将npids,pidarray信息存放到cgroup中.如果cgroup之前
       * 就有task_pids.将其占放的空间释放
       */
    down_write(&cgrp->pids_mutex);
    kfree(cgrp->tasks_pids);
    cgrp->tasks_pids = pidarray;
    cgrp->pids_length = npids;
    cgrp->pids_use_count++;
    up_write(&cgrp->pids_mutex);

    /*将文件对应的操作集更改为cgroup_task_operations*/
    file->f_op = &cgroup_tasks_operations;

    retval = seq_open(file, &cgroup_tasks_seq_operations);
    /*如果操作失败,将cgroup中的pid信息释放*/
    if (retval) {
        release_cgroup_pid_array(cgrp);
        return retval;
    }
    ((struct seq_file *)file->private_data)->private = cgrp;
    return 0;
}
首先,我们来思考一下这个问题:怎么得到与cgroup关联的进程呢?
回到在上面列出来的数据结构关系图.每个进程都会指向一个css_set.而与这个css_set关联的所有进程都会链入到 css_set->tasks链表.而cgroup又可能通过一个中间结构cg_cgroup_link来寻找所有与之关联的所有css_set. 从而可以得到与cgroup关联的所有进程.
在上面的代码中,通过调用cgroup_task_count()来得到与之关联的进程数目,代码如下:
int cgroup_task_count(const struct cgroup *cgrp)
{
    int count = 0;
    struct cg_cgroup_link *link;

    read_lock(&css_set_lock);
    list_for_each_entry(link, &cgrp->css_sets, cgrp_link_list) {
        count += atomic_read(&link->cg->refcount);
    }
    read_unlock(&css_set_lock);
    return count;
}
它就是遍历cgro->css_sets.并调其转换为cg_cgroup_link.再从这个link得到css_set.这个css_set的引用计数就是与这个指向这个css_set的task数目.

在代码中,是通过pid_array_load()来得到与cgroup关联的task,并且将进程的pid写入数组pidarray中.代码如下:
static int pid_array_load(pid_t *pidarray, int npids, struct cgroup *cgrp)
{
    int n = 0;
    struct cgroup_iter it;
    struct task_struct *tsk;
    cgroup_iter_start(cgrp, &it);
    while ((tsk = cgroup_iter_next(cgrp, &it))) {
        if (unlikely(n == npids))
            break;
        pidarray[n++] = task_pid_vnr(tsk);
    }
    cgroup_iter_end(cgrp, &it);
    return n;
}
我们在这里遇到了一个新的结构:struct cgroup_iter.它是cgroup的一个迭代器,通过它可以遍历取得与cgroup关联的task.它的使用方法为:
1:调用cgroup_iter_start()来初始化这个迭代码.
2:调用cgroup_iter_next()用来取得cgroup中的下一个task
3:使用完了,调用cgroup_iner_end().
下面来分析这三个过程:
Cgroup_iter_start()代码如下:
void cgroup_iter_start(struct cgroup *cgrp, struct cgroup_iter *it)
{
    /*
     * The first time anyone tries to iterate across a cgroup,
     * we need to enable the list linking each css_set to its
     * tasks, and fix up all existing tasks.
     */
    if (!use_task_css_set_links)
        cgroup_enable_task_cg_lists();

    read_lock(&css_set_lock);
    it->cg_link = &cgrp->css_sets;
    cgroup_advance_iter(cgrp, it);
}
我们在这里再次遇到了use_task_css_set_links变量.在之前分析cgroup_post_fork()中的时候,我们曾说过,只有在 use_task_css_set_link设置为1的时候,才会调task->cg_list链入到css_set->tasks中.
所以,在这个地方,如果use_task_css_set_link为0.那就必须要将之前所有的进程都链入到它所指向的 css_set->tasks链表.这个过程是在cgroup_enable_task_cg_lists()完成的,这个函数相当简单,就是一个 task的遍历,然后就是链表的链入,在这里就不再详细分析了.请自行阅读它的代码.*^_^*
然后,将it->cg_link指向cgrp->css_sets.我们在前面说过,可以通过cgrp->css_sets就可以得得所有的与cgroup关联的css_set.
到这里,这个迭代器里面还是空的,接下来往里面填充数据.这个过程是在cgroup_advance_iter()中完成,代码如下示:
static void cgroup_advance_iter(struct cgroup *cgrp,
                  struct cgroup_iter *it)
{
struct list_head *l = it->cg_link;
struct cg_cgroup_link *link;
struct css_set *cg;

/* Advance to the next non-empty css_set */
do {
    l = l->next;
    if (l == &cgrp->css_sets) {
        it->cg_link = NULL;
        return;
    }
   link = list_entry(l, struct cg_cgroup_link, cgrp_link_list);
    cg = link->cg;
} while (list_empty(&cg->tasks));
it->cg_link = l;
it->task = cg->tasks.next;
}
通过前面的分析可得知,可通过it->cg_link找到与之关联的css_set,然后再通过css_set找到与它关联的task链表.因此每 次往cgroup迭代器里填充数据,就是找到一个tasks链表不为空的css_set.取数据就从css_set->tasks中取.如果数据取 完了,就找下一个tasks链表不为空的css_set.
这样,这个函数的代码就很简单了.它就是找到it->cg_link上tasks链表不为空的css_set项.

cgroup_iter_next()的代码如下:
struct task_struct *cgroup_iter_next(struct cgroup *cgrp,
                    struct cgroup_iter *it)
{
    struct task_struct *res;
    struct list_head *l = it->task;

    /* If the iterator cg is NULL, we have no tasks */
    if (!it->cg_link)
        return NULL;
    res = list_entry(l, struct task_struct, cg_list);
    /* Advance iterator to find next entry */
    l = l->next;
    if (l == &res->cgroups->tasks) {
        /* We reached the end of this task list - move on to
         * the next cg_cgroup_link */
        cgroup_advance_iter(cgrp, it);
    } else {
        it->task = l;
    }
    return res;
}
如果it->cg_link为空表示it->cg_link已经遍历完了,也就不存放在task了.否则,从it->task中取得 task.如果已经是最后一个task就必须要调用cgroup_advance_iter()填充迭代器里面的数据.最后将取得的task返回.

cgroup_iter_end()用来对迭代码进行收尾的工作,代码如下:
void cgroup_iter_end(struct cgroup *cgrp, struct cgroup_iter *it)
{
    read_unlock(&css_set_lock);
}
它就是释放了在cgroup_iter_start()中持有的锁.

回到cgroup_tasks_open()中.我们接下来会遇到kernel为sequential file提供的一组接口.首先在代码遇到的是seq_open().代码如下:
int seq_open(struct file *file, const struct seq_operations *op)
{
    struct seq_file *p = file->private_data;

    if (!p) {
        p = kmalloc(sizeof(*p), GFP_KERNEL);
        if (!p)
            return -ENOMEM;
        file->private_data = p;
    }
    memset(p, 0, sizeof(*p));
    mutex_init(&p->lock);
    p->op = op;
    file->f_version = 0;
    /* SEQ files support lseek, but not pread/pwrite */
    file->f_mode &= ~(FMODE_PREAD | FMODE_PWRITE);
    return 0;
}
从代码中可以看出,它就是初始化了一个struct seq_file结构.并且将其关联到file->private_data.在这里要注意将seq_file->op设置成了参数op.在 我们分析的这个情景中,也就是cgroup_tasks_seq_operations.这个在我们分析文件的读操作的时候会用到的.

7.5.2:task文件的read操作
从上面的代码中可看到.在open的时候,更改了file->f_op.将其指向了cgroup_tasks_operations.该结构如下:
static struct file_operations cgroup_tasks_operations = {
    .read = seq_read,
    .llseek = seq_lseek,
    .write = cgroup_file_write,
    .release = cgroup_tasks_release,
}
相应的,read操作就会转入到seq_read()中.由于该函数篇幅较大,这里就不列出了.感兴趣的可以自己跟踪看一下,其它就是循环调用 seq_file->op->start() à seq_file->op->show() à seq_file->op->next() à seq_file->op->stop()的过程.
我们在上面分析task文件的open操作的时候,曾经提配过,seq_file->op被指向了cgroup_tasks_seq_operations.定义如下:
static struct seq_operations cgroup_tasks_seq_operations = {
    .start = cgroup_tasks_start,
    .stop = cgroup_tasks_stop,
    .next = cgroup_tasks_next,
    .show = cgroup_tasks_show,
}
Cgroup_tasks_start()代码如下:
static void *cgroup_tasks_start(struct seq_file *s, loff_t *pos)
{
    /*
     * Initially we receive a position value that corresponds to
     * one more than the last pid shown (or 0 on the first call or
     * after a seek to the start). Use a binary-search to find the
     * next pid to display, if any
     */
    struct cgroup *cgrp = s->private;
    int index = 0, pid = *pos;
    int *iter;

    down_read(&cgrp->pids_mutex);
    if (pid) {
        int end = cgrp->pids_length;

        while (index
            int mid = (index + end) / 2;
            if (cgrp->tasks_pids[mid] == pid) {
                index = mid;
                break;
            } else if (cgrp->tasks_pids[mid]
                index = mid + 1;
            else
                end = mid;
        }
    }
    /* If we're off the end of the array, we're done */
    if (index >= cgrp->pids_length)
        return NULL;
    /* Update the abstract position to be the actual pid that we found */
    iter = cgrp->tasks_pids + index;
    *pos = *iter;
    return iter;
}
它以二分法从cgrp->tasks_pids[ ]中去寻找第一个大于或者等于参数*pos值的项.如果找到了,返回该项.如果没找到.返回NULL.

cgroup_tasks_show()代码如下:
static int cgroup_tasks_show(struct seq_file *s, void *v)
{
    return seq_printf(s, "%d\n", *(int *)v);
}
它就是将pid转换为了字符串.

cgroup_tasks_next()就是找到数组中的下一项.代码如下:
static void *cgroup_tasks_next(struct seq_file *s, void *v, loff_t *pos)
{
    struct cgroup *cgrp = s->private;
    int *p = v;
    int *end = cgrp->tasks_pids + cgrp->pids_length;

    /*
     * Advance to the next pid in the array. If this goes off the
     * end, we're done
     */
    p++;
    if (p >= end) {
        return NULL;
    } else {
        *pos = *p;
        return p;
    }
}

cgroup_tasks_stop()代码如下:
static void cgroup_tasks_stop(struct seq_file *s, void *v)
{
    struct cgroup *cgrp = s->private;
    up_read(&cgrp->pids_mutex);
}
它只是释放了在cgroup_tasks_start()中持有的读写锁.

7.5.3:task文件的close操作
Task文件close时,调用的相应接口为cgroup_tasks_release().代码如下:
static int cgroup_tasks_release(struct inode *inode, struct file *file)
{
    struct cgroup *cgrp = __d_cgrp(file->f_dentry->d_parent);

    if (!(file->f_mode & FMODE_READ))
        return 0;

    release_cgroup_pid_array(cgrp);
    return seq_release(inode, file);
}
它就是将cgroup中的pid信息与seqfile信息释放掉.

到这里,我们已经分析完了task文件的open,read,close操作.我们现在就可以实现一下,看上面的分析是否正确.
在前面已经分析中cgroupfs_root.top_cgroup会将系统中的所有css_set与之关联起来,那么通过 cgroupfs_root_top_cgroup找到的进程应该是系统当前的所有进程.那么相应的,在挂载目录的task文件的内容.应该是系统中所有 进程的pid.
如下所示:
[root@localhost cgroup]# cat tasks
1
2
3
………
………
2578
其实,这样做是cgroup子系统开发者特意设置的.它表示所有的进程都在hierarchy的控制之下.
反过来,当我们在挂载目录mkdir一个目录,它下面的task文件内容应该是空的.因为在mkdir后,它对应的cgroup并没有关联任何task.
如下所示:
[root@localhost cgroup]# mkdir eric
[root@localhost cgroup]# cat eric/tasks
[root@localhost cgroup]#
下面我们来看一下task文件的写操作,也就是怎样将进程添加进cgroup.

7.5.4:task文件的write操作
根据上面的文件,可得知task文件的write操作对应的函数为int cgroup_tasks_write().代码如下:
static int cgroup_tasks_write(struct cgroup *cgrp, struct cftype *cft, u64 pid)
{
    int ret;
    /*如果cgroup已经被移除了,非法*/
    if (!cgroup_lock_live_group(cgrp))
        return -ENODEV;
    /*将PID为pid的进程与cgroup关联*/
    ret = attach_task_by_pid(cgrp, pid);
    cgroup_unlock();
    return ret;
}
Attach_task_by_pid()的代码如下:
static int attach_task_by_pid(struct cgroup *cgrp, u64 pid)
{
    struct task_struct *tsk;
    int ret;

    /*如果pid不为0.寻找PID为pid的task.并增加其引用计数*/
    if (pid) {
        rcu_read_lock();
        tsk = find_task_by_vpid(pid);
        if (!tsk || tsk->flags & PF_EXITING) {
            rcu_read_unlock();
            return -ESRCH;
        }
        get_task_struct(tsk);
        rcu_read_unlock();

        if ((current->euid) && (current->euid != tsk->uid)
            && (current->euid != tsk->suid)) {
            put_task_struct(tsk);
            return -EACCES;
        }
    }
    /*如果pid为0.表示是将当前进程添加进cgroup*/
    else {
        tsk = current;
        get_task_struct(tsk);
    }
    /*将cgroup与task相关联*/
    ret = cgroup_attach_task(cgrp, tsk);
    /*操作完成,减少其引用计数*/
    put_task_struct(tsk);
    return ret;
}
如果写入的是一个不这0的数,表示的是进程的PID值.如果是写入0,表示是将当前进程.这个操作的核心操作是cgroup_attach_task().代码如下:
int cgroup_attach_task(struct cgroup *cgrp, struct task_struct *tsk)
{
    int retval = 0;
    struct cgroup_subsys *ss;
    struct cgroup *oldcgrp;
    struct css_set *cg = tsk->cgroups;
    struct css_set *newcg;
    struct cgroupfs_root *root = cgrp->root;
    int subsys_id;

    /*得到与cgroup关联的第一个subsys的序号*/
    get_first_subsys(cgrp, NULL, &subsys_id);

    /* Nothing to do if the task is already in that cgroup */
    /*找到这个进程之前所属的cgroup*/
    oldcgrp = task_cgroup(tsk, subsys_id);
    /*如果已经在这个cgrp里面了.*/
    if (cgrp == oldcgrp)
        return 0;
   
    /* 遍历与hierarchy关联的subsys
      * 如果subsys定义了can_attach函数,就调用它
      */
    for_each_subsys(root, ss) {
        if (ss->can_attach) {
            retval = ss->can_attach(ss, cgrp, tsk);
            if (retval)
                return retval;
        }
    }

    /*
     * Locate or allocate a new css_set for this task,
     * based on its final set of cgroups
     */
     /*找到这个task所关联的css_set.如果不存在,则新建一个*/
    newcg = find_css_set(cg, cgrp);
    if (!newcg)
        return -ENOMEM;

    task_lock(tsk);
   
    /*如果task正在执行exit操作*/
    if (tsk->flags & PF_EXITING) {
        task_unlock(tsk);
        put_css_set(newcg);
        return -ESRCH;
    }
    /*将tak->cgroup指向这个css_set*/
    rcu_assign_pointer(tsk->cgroups, newcg);
    task_unlock(tsk);

    /* Update the css_set linked lists if we're using them */
    /*更改task->cg_list*/
    write_lock(&css_set_lock);
    if (!list_empty(&tsk->cg_list)) {
        list_del(&tsk->cg_list);
        list_add(&tsk->cg_list, &newcg->tasks);
    }
    write_unlock(&css_set_lock);

    /* 遍历与hierarchy关联的subsys
      * 如果subsys定义了attach 函数,就调用它
      */
    for_each_subsys(root, ss) {
        if (ss->attach)
            ss->attach(ss, cgrp, oldcgrp, tsk);
    }
    set_bit(CGRP_RELEASABLE, &oldcgrp->flags);
    synchronize_rcu();
    /*减小旧指向的引用计数*/
put_css_set(cg);
    return 0;
}
这个函数逻辑很清楚,它就是初始化task->cgroup.然后将它和subsys相关联.可自行参照代码中的注释进行分析.这里就不再赘述了.
在这里,详细分析一下find_css_set()函数,这个函数有点意思.代码如下:
static struct css_set *find_css_set(
    struct css_set *oldcg, struct cgroup *cgrp)
{
    struct css_set *res;
    struct cgroup_subsys_state *template[CGROUP_SUBSYS_COUNT];
    int i;

    struct list_head tmp_cg_links;
    struct cg_cgroup_link *link;

    struct hlist_head *hhead;

    /* First see if we already have a cgroup group that matches
     * the desired set */
    read_lock(&css_set_lock);
    /*寻找从oldcg转换为cgrp的css_set.如果不存在,返回NULL */
    res = find_existing_css_set(oldcg, cgrp, template);
    /*如果css_set已经存在,增加其引用计数后退出*/
    if (res)
        get_css_set(res);
    read_unlock(&css_set_lock);

    if (res)
        return res;
这一部份,先从哈希数组中搜索从oldcg转换cgrp的css_set.如果不存在,返回NULL.如果在哈希数组中存放,增加其引用计数返回即可.
Find_existing_css_set()的代码如下:
static struct css_set *find_existing_css_set(
    struct css_set *oldcg,
    struct cgroup *cgrp,
    struct cgroup_subsys_state *template[])
{
    int i;
    struct cgroupfs_root *root = cgrp->root;
    struct hlist_head *hhead;
    struct hlist_node *node;
    struct css_set *cg;

    /* Built the set of subsystem state objects that we want to
     * see in the new css_set */
    for (i = 0; i
        if (root->subsys_bits & (1UL
            /* Subsystem is in this hierarchy. So we want
             * the subsystem state from the new
             * cgroup */
            template = cgrp->subsys;
        } else {
            /* Subsystem is not in this hierarchy, so we
             * don't want to change the subsystem state */
            template = oldcg->subsys;
        }
    }

    hhead = css_set_hash(template);
    hlist_for_each_entry(cg, node, hhead, hlist) {
        if (!memcmp(template, cg->subsys, sizeof(cg->subsys))) {
            /* All subsystems matched */
            return cg;
        }
    }

    /* No existing cgroup group matched */
    return NULL;
}
如果subsys与新的cgroup相关联,那么它指向新的cgroup->subsys[]中的对应项.否则指向旧的cgrop的对应项.这样做主要是因为,该进程可能还被关联在其它的hierarchy中.所以要保持它在其它hierarchy中的信息.
最后,在css_set_table[ ]中寻找看是否有与template相等的项.有的话返回该项.如果没有.返回NULL.

    /*分配一个css_set*/
    res = kmalloc(sizeof(*res), GFP_KERNEL);
    if (!res)
        return NULL;

    /* Allocate all the cg_cgroup_link objects that we'll need */
    /*分配root_count项cg_cgroup_link*/
    if (allocate_cg_links(root_count, &tmp_cg_links)
        kfree(res);
        return NULL;
    }

    /* 初始化刚分配的css_set */
    atomic_set(&res->refcount, 1);
    INIT_LIST_HEAD(&res->cg_links);
    INIT_LIST_HEAD(&res->tasks);
    INIT_HLIST_NODE(&res->hlist);

    /* Copy the set of subsystem state objects generated in
     * find_existing_css_set() */
     /*设置css_set->subsys*/
    memcpy(res->subsys, template, sizeof(res->subsys));
运行到这里的话.表示没有从css_set_table[ ]中找到相应项.因此需要分配并初始化一个css_set结构.并且设置css_set的subsys域.

    write_lock(&css_set_lock);
    /* Add reference counts and links from the new css_set. */
    /*遍历所有的subsys以及css_set 中的subsys[ ].
     *建立task所在的cgroup到css_set的引用
     */
    for (i = 0; i
        struct cgroup *cgrp = res->subsys->cgroup;
        struct cgroup_subsys *ss = subsys;
        atomic_inc(&cgrp->count);
        /*
         * We want to add a link once per cgroup, so we
         * only do it for the first subsystem in each
         * hierarchy
         */
        if (ss->root->subsys_list.next == &ss->sibling) {
            BUG_ON(list_empty(&tmp_cg_links));
            link = list_entry(tmp_cg_links.next,
                      struct cg_cgroup_link,
                      cgrp_link_list);
            list_del(&link->cgrp_link_list);
            list_add(&link->cgrp_link_list, &cgrp->css_sets);
            link->cg = res;
            list_add(&link->cg_link_list, &res->cg_links);
        }
    }
   
    /*似乎没有地方会更改rootnode.subsys_list.?这里的判断大部份情况是满足的*/
    if (list_empty(&rootnode.subsys_list)) {
        /*建立这个css_set到dumytop的引用*/
        /* 这样做,是为了让新建的hierarchy能够关联到所有的进程*/
        link = list_entry(tmp_cg_links.next,
                  struct cg_cgroup_link,
                  cgrp_link_list);
        list_del(&link->cgrp_link_list);
        list_add(&link->cgrp_link_list, &dummytop->css_sets);
        link->cg = res;
        list_add(&link->cg_link_list, &res->cg_links);
    }
    BUG_ON(!list_empty(&tmp_cg_links));
这一部份的关键操作都在代码中添加了相应的注释.如果系统中存在多个hierarchy.那么这个进程肯定也位于其它的hierarchy所对应的cgroup中.因此需要在新分配的css_set中保存这些信息,也就是建立从cgroup到css_set的引用.
另外,关于ist_empty(&rootnode.subsys_list)的操作.似乎没看到有什么地方会更改rootnode.subsys_list.不过,如果rootnode.subsys_list不为空的话,也会在它前面的for循环中检测出来.
总而言之.系统中有root_count个hierarchy.上述的引用保存过程就会进行root_count次.因此.到最后.tmp_cg_links肯定会空了.如果不为空.说明某处发生了错误.

    /*增加css_set计数*/
    css_set_count++;

    /* Add this cgroup group to the hash table */
    /*将其添加到全局哈希数组: css_set_table[ ]*/
    hhead = css_set_hash(res->subsys);
    hlist_add_head(&res->hlist, hhead);

    write_unlock(&css_set_lock);

    return res;
}
最后,将生成的css_set添加到哈希数组css_set_table[ ]中.
到这里,task文件的操作已经分析完了.

7.6: notify_on_release文件操作
notify_on_release文件对应的cftype结构如下:
{
        .name = "notify_on_release",
        .read_u64 = cgroup_read_notify_on_release,
        .write_u64 = cgroup_write_notify_on_release,
        .private = FILE_NOTIFY_ON_RELEASE,
}

从此得知.文件的读操作接口为cgroup_read_notify_on_release().代码如下:
static u64 cgroup_read_notify_on_release(struct cgroup *cgrp,
                        struct cftype *cft)
{
    return notify_on_release(cgrp);
}
继续跟进notify_on_release().如下示:
static int notify_on_release(const struct cgroup *cgrp)
{
    return test_bit(CGRP_NOTIFY_ON_RELEASE, &cgrp->flags);
}
从此可以看到,如果当前cgroup设置了CGRP_NOTIFY_ON_RELEASE标志.就会返回1.否则.就是为0.
从当前系统中测试一下,如下:
[root@localhost cgroup]# cat notify_on_release
0
[root@localhost cgroup]#
文件内容为零.因为top_cgroup上没有设置CGRP_NOTIFY_ON_RELEASE的标志.

notify_on_release文件读操作接口为cgroup_write_notify_on_release().代码如下:
static int cgroup_write_notify_on_release(struct cgroup *cgrp,
                      struct cftype *cft,
                      u64 val)
{
    clear_bit(CGRP_RELEASABLE, &cgrp->flags);
    if (val)
        set_bit(CGRP_NOTIFY_ON_RELEASE, &cgrp->flags);
    else
        clear_bit(CGRP_NOTIFY_ON_RELEASE, &cgrp->flags);
    return 0;
}
从上面的代码可以看到.如果我们写入的是1.就会设置cgroup标志的CGRP_NOTIFY_ON_RELEASE位.否则.清除CGRP_NOTIFY_ON_RELEASE位.测试如下:
[root@localhost cgroup]# echo 1 > notify_on_release
[root@localhost cgroup]# cat notify_on_release
1
[root@localhost cgroup]# echo 0 > notify_on_release
[root@localhost cgroup]# cat notify_on_release
0
[root@localhost cgroup]#

7.7: release_agent文件操作
release_agent只有在顶层目录才会有.它所代表的cftype结构如下:
static struct cftype cft_release_agent = {
    .name = "release_agent",
    .read_seq_string = cgroup_release_agent_show,
    .write_string = cgroup_release_agent_write,
    .max_write_len = PATH_MAX,
    .private = FILE_RELEASE_AGENT,
};

由此可以看到.读文件的接口为cgroup_release_agent_show.代码如下:
static int cgroup_release_agent_show(struct cgroup *cgrp, struct cftype *cft,
                     struct seq_file *seq)
{
    if (!cgroup_lock_live_group(cgrp))
        return -ENODEV;
    seq_puts(seq, cgrp->root->release_agent_path);
    seq_putc(seq, '\n');
    cgroup_unlock();
    return 0;
}
从代码中可以看到.就是打印出root的release_agent_path.

写文件的接口为cgroup_release_agent_write().如下示:
static int cgroup_release_agent_write(struct cgroup *cgrp, struct cftype *cft,
                      const char *buffer)
{
    BUILD_BUG_ON(sizeof(cgrp->root->release_agent_path)
    if (!cgroup_lock_live_group(cgrp))
        return -ENODEV;
    strcpy(cgrp->root->release_agent_path, buffer);
    cgroup_unlock();
    return 0;
}
由此得知.往这个文件中写内容,就是设置root的release_agent_path.如下做个测试:
[root@localhost cgroup]# cat release_agent

[root@localhost cgroup]# echo /bin/ls > release_agent
[root@localhost cgroup]# cat release_agent
/bin/ls
[root@localhost cgroup]#

7.8:debug创建的文件分析
下面分析一下debug subsys中的文件.由于我们挂载的时候没有带noprefix.因为.debug生成的文件都带了一个”debug_”前缀.由debug创建的文件如下示:
debug.cgroup_refcount  debug.current_css_set_refcount  debug.taskcount debug.current_css_set  debug.releasable
挨个分析如下:
7.8.1: cgroup_refcount文件操作
Cgroup_refcount所代表的cftype结构如下示:
    {
        .name = "cgroup_refcount",
        .read_u64 = cgroup_refcount_read,
    },
可以看到,该文件不能写,只能读.读操作接口为cgroup_refcount_read().代码如下:
static u64 cgroup_refcount_read(struct cgroup *cont, struct cftype *cft)
{
    return atomic_read(&cont->count);
}
它就是显示出当前cgroup的引用计数.
测试如下:
[root@localhost cgroup]# cat debug.cgroup_refcount
0
[root@localhost cgroup]#
顶层的cgroup是位于cgroupfs_root.top_cgroup.它的引用计数为0.
接下来,我们在下层创建一个子层cgroup.如下示:
[root@localhost cgroup]# mkdir /dev/cgroup/eric
[root@localhost cgroup]# cat /dev/cgroup/eric/debug.cgroup_refcount
0
[root@localhost cgroup]#
可见创建子层cgroup不会增加其引用计数.因为它只是与它的上一层cgroup构成指针指向关系.
现在我们让子层cgroup关联一个进程
[root@localhost cgroup]# echo 1673 > /dev/cgroup/eric/tasks
[root@localhost cgroup]# cat /dev/cgroup/eric/debug.cgroup_refcount
1
[root@localhost cgroup]#
可以看到.它的计数比为了1.这里在关联进程的css_set和所在的cgroup时增加的.

7.8.2: current_css_set文件操作
current_css_set对应的cftype结构如下示:
    {
        .name = "current_css_set",
        .read_u64 = current_css_set_read,
    },
可看出.它也是一个只读的.读接口为current_css_set_read().代码如下:
static u64 current_css_set_read(struct cgroup *cont, struct cftype *cft)
{
    return (u64)(long)current->cgroups;
}
它就是显示了当前进程关联的css_set的地址.
测试如下:
[root@localhost cgroup]# cat debug.current_css_set
18446744072645980768

7.8.3: current_css_set_refcount文件操作
current_css_set_refcount文件对应的ctype结构如下:
    {
        .name = "current_css_set_refcount",
        .read_u64 = current_css_set_refcount_read,
    },
照例.它也是只读的.接口如下:
static u64 current_css_set_refcount_read(struct cgroup *cont,
                       struct cftype *cft)
{
    u64 count;

    rcu_read_lock();
    count = atomic_read(¤t->cgroups->refcount);
    rcu_read_unlock();
    return count;
}
它就是显示出与当前进程关联的css_set的引用计数.
测试如下:
[root@localhost cgroup]# cat debug.current_css_set_refcount
56
表示已经有56个进程关联到这个css_set了.

7.8.3: taskcount文件操作
Taskcount文件对应cftype结构如下:
    {
        .name = "taskcount",
        .read_u64 = taskcount_read,
    },
只读文件.接口如下:
static u64 taskcount_read(struct cgroup *cont, struct cftype *cft)
{
    u64 count;

    cgroup_lock();
    count = cgroup_task_count(cont);
    cgroup_unlock();
    return count;
}
其中,子函数cgroup_task_count()我们在之前已经分析过了.它就是计算与当前cgroup关联的进程数目.这里就不再分析了.测试如下:
[root@localhost cgroup]# cat debug.taskcount
56

7.8.4: releasable文件操作
Releasable文件对应的ctype结构如下示:
    {
        .name = "releasable",
        .read_u64 = releasable_read,
    },
只读,读接口代码如下:
static u64 releasable_read(struct cgroup *cgrp, struct cftype *cft)
{
    return test_bit(CGRP_RELEASABLE, &cgrp->flags);
}
它用来查看当前cgroup是否有CGRP_RELEASABLE标志.如果有.显示为1.否则显示为0.
测试如下:
[root@localhost cgroup]# cat debug.releasable
0
经过上面的分析.可以知道.如果往cgroup中删除一个关联进程,就会将其设置CGRP_RELEASABLE标志.有下面测试:
[root@localhost cgroup]# mkdir eric
[root@localhost cgroup]# cat eric/debug.releasable
0
[root@localhost cgroup]# echo 1650 > eric/tasks
[root@localhost cgroup]# echo 1701 > eric/tasks     
[root@localhost cgroup]# cat eric/debug.releasable
0
[root@localhost cgroup]# echo 1650 >tasks
[root@localhost cgroup]# cat eric/debug.releasable
1

到这里为止,各subsys共有的文件和debug中的文件操作就已经分析完了.其它的subsys远远比debug要复杂.之后再给出专题分析.详情请关注本站更新.*^_^*

九: notify_on_release操作
下面我们来分析在之前一直在忽略的一个问题.也就是涉及到CGRP_NOTIFY_ON_RELEASE标志和root-> release_agent_path[]部份.
它的重用,就是在cgroup中最后的一个进程离开(包括进程退出.进程关联到其它同类型的cgroup),或者是在最后一个子层cgroup被移除的时 候.就会调用用户空间的一个程序.这个程序的路径是在root-> release_agent_path[]中指定的.
下面我们从代码的角度来跟踪一下.

9.1:进程退出
我们在之前在分析父子进程之间的cgroup关系的时候.忽略掉了__put_css_set函数中的一个部份.现在是时候来剥开它了.
次__put_css_set()被忽略的代码片段列出,如下:
static void __put_css_set(struct css_set *cg, int taskexit)
{
    ......
    ......
    for (i = 0; i
        struct cgroup *cgrp = cg->subsys->cgroup;
        if (atomic_dec_and_test(&cgrp->count) &&
            notify_on_release(cgrp)) {
            if (taskexit)
                set_bit(CGRP_RELEASABLE, &cgrp->flags);
            check_for_release(cgrp);
        }
    }
    ......
    ......
}
首先,进程退出时,调用__put_css_set时.taskexit参数是为1的,因此在这里,它会将cgroup的flag的CGRP_RELEASABLE位置1.
atomic_dec_and_test(&cgrp->count)返回为真的话,说明进程所属的cgroup中已经没有其它的进程了.因此即将要退出的子进程就是cgroup中的最后一个进程.
notify_on_release(cgrp)代码如下:
static int notify_on_release(const struct cgroup *cgrp)
{
    return test_bit(CGRP_NOTIFY_ON_RELEASE, &cgrp->flags);
}
它用来判断cgroup有没有设定CGRP_NOTIFY_ON_RELEASE标志
综合上面的分析.如果cgroup中最后一个进程退出.且cgroup设定了CGRP_NOTIFY_ON_RELEASE标志.流程就会转到check_for_release()中.该函数代码如下:
static void check_for_release(struct cgroup *cgrp)
{
    /* All of these checks rely on RCU to keep the cgroup
     * structure alive */
    if (cgroup_is_releasable(cgrp) && !atomic_read(&cgrp->count)
        && list_empty(&cgrp->children) && !cgroup_has_css_refs(cgrp)) {
        /* Control Group is currently removeable. If it's not
         * already queued for a userspace notification, queue
         * it now */
        int need_schedule_work = 0;
        spin_lock(&release_list_lock);
        if (!cgroup_is_removed(cgrp) &&
            list_empty(&cgrp->release_list)) {
            list_add(&cgrp->release_list, &release_list);
            need_schedule_work = 1;
        }
        spin_unlock(&release_list_lock);
        if (need_schedule_work)
            schedule_work(&release_agent_work);
    }
}
首先,在这里必须要满足以下四个条件才能继续下去:
1:cgroup_is_releasable()返回1.
代码如下:
static int cgroup_is_releasable(const struct cgroup *cgrp)
{
    const int bits =
        (1
        (1
    return (cgrp->flags & bits) == bits;
}
它表示当前cgroup是含含有CGRP_RELEASABLE和CGRP_NOTIFY_ON_RELEASE标志.结合我们在上面分析的. CGRP_RELEASABLE标志是进程在退出是就会设置的.

2:cgroup的引用计数为0
3:cgroup没有子层cgroup
4: cgroup_has_css_refs()返回0.代码如下:
static int cgroup_has_css_refs(struct cgroup *cgrp)
{
    int i;
    for (i = 0; i
        struct cgroup_subsys *ss = subsys;
        struct cgroup_subsys_state *css;
        /* Skip subsystems not in this hierarchy */
        if (ss->root != cgrp->root)
            continue;
        css = cgrp->subsys[ss->subsys_id];
        if (css && atomic_read(&css->refcnt))
            return 1;
    }
    return 0;
}
也就是说,cgroup关联的css_set引用计数必须要为0

满足上面几个条件之后.就说明该cgroup是可以释放的.因此将cgroup链接到了release_list.接着调度了工作队列.在工作队列中会完成余下的工作.
下面跟踪看看这个工作队列是怎么处理余下任务的.
release_agent_work定义如下:
static DECLARE_WORK(release_agent_work, cgroup_release_agent);
该工作队列对应的处理函数为cgroup_release_agent().代码如下:
static void cgroup_release_agent(struct work_struct *work)
{
    BUG_ON(work != &release_agent_work);
    mutex_lock(&cgroup_mutex);
    spin_lock(&release_list_lock);
    /*遍历链表,直到其为空*/
    while (!list_empty(&release_list)) {
        char *argv[3], *envp[3];
        int i;
        char *pathbuf = NULL, *agentbuf = NULL;
        /*取得链表项对应的cgroup*/
        struct cgroup *cgrp = list_entry(release_list.next,
                            struct cgroup,
                            release_list);
        /*将cgroup从release_list中断开*/
        list_del_init(&cgrp->release_list);
        spin_unlock(&release_list_lock);
        /*将cgroup的路径存放到pathbuf中*/
        pathbuf = kmalloc(PAGE_SIZE, GFP_KERNEL);
        if (!pathbuf)
            goto continue_free;
        if (cgroup_path(cgrp, pathbuf, PAGE_SIZE)
            goto continue_free;
        /*agentbuf存放release_agent_path的内容*/
        agentbuf = kstrdup(cgrp->root->release_agent_path, GFP_KERNEL);
        if (!agentbuf)
            goto continue_free;
        /*初始化运行参数和环境变量*/
        i = 0;
        argv[i++] = agentbuf;
        argv[i++] = pathbuf;
        argv = NULL;

        i = 0;
        /* minimal command environment */
        envp[i++] = "HOME=/";
        envp[i++] = "PATH=/sbin:/bin:/usr/sbin:/usr/bin";
        envp = NULL;

        /* Drop the lock while we invoke the usermode helper,
         * since the exec could involve hitting disk and hence
         * be a slow process */
         /*调用用户空间的进程*/
        mutex_unlock(&cgroup_mutex);
        call_usermodehelper(argv[0], argv, envp, UMH_WAIT_EXEC);
        mutex_lock(&cgroup_mutex);
continue_free:
        kfree(pathbuf);
        kfree(agentbuf);
        spin_lock(&release_list_lock);
    }
    spin_unlock(&release_list_lock);
    mutex_unlock(&cgroup_mutex);
}
该函数遍历release_list中的cgroup.然后以其路径做为参数.调用root->release_agent_path对应的程序.
我们来做如下的实验:
为了配合这次实验.必须要写两个测试的程序.代码如下:
Test.c

#include
#include

main()
{
        int i = 30;
        while(i){
                i--;
                sleep(1);
        }
}

这个进程睡眠30s之后退出.编译成test

另外一个程序代码如下:
Main.c
#include
#include

int main(int argc,char *argv[])
{
        char buf[125] = "";
        int i = 0;

        sprintf(buf,"rm -f /var/eric_test");
        system(buf);

        while(i
                sprintf(buf,"echo %s >> /var/eric_test",argv);
                system(buf);
                i++;
        }

}
它就是将调用参数输出到/var/eric_test下面.
下面就可以开始我们的测试了.挂载目录下已经有一个子层cgroup.如下示:
.
|-- debug.cgroup_refcount
|-- debug.current_css_set
|-- debug.current_css_set_refcount
|-- debug.releasable
|-- debug.taskcount
|-- eric
|   |-- debug.cgroup_refcount
|   |-- debug.current_css_set
|   |-- debug.current_css_set_refcount
|   |-- debug.releasable
|   |-- debug.taskcount
|   |-- notify_on_release
|   `-- tasks
|-- notify_on_release
|-- release_agent
`-- tasks

接下来设置realesse_agent_path和CGRP_NOTIFY_ON_RELEASE标志,指令如下:
[root@localhost cgroup]# echo /root/main > release_agent
[root@localhost cgroup]# echo 1 > eric/notify_on_release
下面往子层cgroup中添加一个进程.指令如下:
[root@localhost cgroup]# /root/test &
[1] 4350
[root@localhost cgroup]# echo 4350 > eric/tasks
[root@localhost cgroup]#
[1]+  Done                    /root/test
等/root/test运行完之后.就会进行notify_on_release的操作了.印证一下:
[root@localhost cgroup]# cat /var/eric_test
/root/main
/eric
一切都如我们上面分析的一样

9.2:取消进程与cgroup的关联
当cgroup中的最后一个进程取消关联的时候,也会有notify_on_release过程.见下面的代码片段:
int cgroup_attach_task(struct cgroup *cgrp, struct task_struct *tsk)
{
    int retval = 0;
    struct cgroup_subsys *ss;
    struct cgroup *oldcgrp;
    struct css_set *cg = tsk->cgroups;
    ......
    ......
    set_bit(CGRP_RELEASABLE, &oldcgrp->flags);
    synchronize_rcu();
    put_css_set(cg);
}
这个函数我们在之前分析过,不过也把notify_on_release的过程去掉了.现在也把它加上.
代码中的cg是指向进程原本所引用的css_set
Oldcgrp是过程之前所在的cgroup
在代码中,会将oldcgrp标志设为CGRP_RELEASABLE.之后也会调用put_css_set().put_css_set()就是我们在上面分析的过程了.如果cgroup为空的话,就会产生notify_on_release的操作.
同样做个测试:
接着上面的测试环境.我们先来看下环境下的相关文件内容:
[root@localhost cgroup]# cat release_agent
/root/main
[root@localhost cgroup]# cat eric/tasks
[root@localhost cgroup]# cat eric/notify_on_release
1
[root@localhost cgroup]# pwd
/dev/cgroup
好了,测试开始了:
[root@localhost cgroup]# rm -rf /var/eric_test
[root@localhost cgroup]# echo 1701 > eric/tasks
[root@localhost cgroup]# echo 1701 >tasks
[root@localhost cgroup]# cat /var/eric_test
/root/main
/eric
在上面的测试过程中.为了避免影响测试效果.先将/var/eric_test文件删了.然后将进程1701关联到eric所表示的cgroup.然后再 把1701再加最上层cgroup.这样就会造成eric下关联进程为空.相应的会发生notify_on_release过程.上面的测试也印证了这一 说话.

9.3:移除cgroup
当移除cgroup下的最后一个子层cgroup时.也会发生notify_on_release.
看一下移除cgroup时的代码片段:
static int cgroup_rmdir(struct inode *unused_dir, struct dentry *dentry)
{
    ......
    ......
    set_bit(CGRP_RELEASABLE, &parent->flags);
    check_for_release(parent);
    ......
}
代码中,parent表示cgroup的上一层.在移除cgroup时,会设置上一层的cgroup标志的CGRP_RELEASABLE位.然后流程同 样会转入到check_for_release().这样,如果上一层cgroup是空的话.就会生notify_on_release操作了.
测试如下:
还是用上层的测试环境.先来看一下初始环境:
[root@localhost cgroup]# pwd
/dev/cgroup
[root@localhost cgroup]# cat release_agent
/root/main
[root@localhost cgroup]# cat eric/notify_on_release
1
在eric下面再加一层cgroup.
[root@localhost cgroup]# mkdir eric/test
[root@localhost cgroup]# tree
.
|-- debug.cgroup_refcount
|-- debug.current_css_set
|-- debug.current_css_set_refcount
|-- debug.releasable
|-- debug.taskcount
|-- eric
|   |-- debug.cgroup_refcount
|   |-- debug.current_css_set
|   |-- debug.current_css_set_refcount
|   |-- debug.releasable
|   |-- debug.taskcount
|   |-- notify_on_release
|   |-- tasks
|   `-- test
|       |-- debug.cgroup_refcount
|       |-- debug.current_css_set
|       |-- debug.current_css_set_refcount
|       |-- debug.releasable
|       |-- debug.taskcount
|       |-- notify_on_release
|       `-- tasks
|-- notify_on_release
|-- release_agent
`-- tasks

2 directories, 22 files
接着运行如下指令:
[root@localhost cgroup]# rm -rf /var/eric_test
[root@localhost cgroup]# rmdir eric/test/
[root@localhost cgroup]# cat /var/eric_test
/root/main
/eric
如上所示.把eric下的唯一一个cgroup移除的时候.就发生了notity_on_release过程.

十:cgroup的proc节点
10.1:/proce/cgroups
在前面分析cgroup初始化的时候.在cgroup_init()中有下面代码片段:
int __init cgroup_init(void)
{
    ......
    ......
    proc_create("cgroups", 0, NULL, &proc_cgroupstats_operations)
    ......
    ......
}
也就是说.会在proc根目录下创建一个名为cgroups的文件.如下示:
[root@localhost cgroup]# ls /proc/cgroups  
/proc/cgroups
接下来就来分析这个文件的操作.
该文件对应的操作集为
proc_cgroupstats_operations.定义如下:
static struct file_operations proc_cgroupstats_operations = {
    .open = cgroupstats_open,
    .read = seq_read,
    .llseek = seq_lseek,
    .release = single_release,
}
从上面看到,这个文件是只读的.
先来看open时的操作,对应接口为cgroupstats_open.代码如下:
static int cgroupstats_open(struct inode *inode, struct file *file)
{
    return single_open(file, proc_cgroupstats_show, NULL);
}
Single_open()函数十分简单.它也是sequences file中提供的一个接口.有关sequences file部份我们在上面已经分析过了. 这里就不再详细分析了.它将seq_file的show操作指向了proc_cgroupstats_show.
我们在上面的proc_cgroupstats_operations结构中可看到,它提供的read操作为seq_read().它就是调用 seq_file中的相关操作.在open的时候,已经将seq_file的show接口指向了proc_cgroupstats_show().代码如 下:
static int proc_cgroupstats_show(struct seq_file *m, void *v)
{
    int i;

    seq_puts(m, "#subsys_name\thierarchy\tnum_cgroups\tenabled\n");
    mutex_lock(&cgroup_mutex);
    for (i = 0; i
        struct cgroup_subsys *ss = subsys;
        seq_printf(m, "%s\t%lu\t%d\t%d\n",
               ss->name, ss->root->subsys_bits,
               ss->root->number_of_cgroups, !ss->disabled);
    }
    mutex_unlock(&cgroup_mutex);
    return 0;
}
从代码中看到,它就是将系统中每subsys名称.所在hierarchy的位码. Hierarchy下面的cgroup数目和subsys的启用状态.
测试如下:
[root@localhost cgroup]# cat /proc/cgroups
#subsys_name    hierarchy       num_cgroups     enabled
cpuset  0       1       1
debug   2       2       1
ns      0       1       1
cpuacct 0       1       1
memory  0       1       1
devices 0       1       1
freezer 0       1       1
从这里可以看到所有的subsys和hierarchy的情况.在上面显示的debug和其它的subsys不同.是因为用的是之前测试notify_on_release的环境.如下示:
[root@localhost cgroup]# tree ../cgroup/
../cgroup/
|-- debug.cgroup_refcount
|-- debug.current_css_set
|-- debug.current_css_set_refcount
|-- debug.releasable
|-- debug.taskcount
|-- eric
|   |-- debug.cgroup_refcount
|   |-- debug.current_css_set
|   |-- debug.current_css_set_refcount
|   |-- debug.releasable
|   |-- debug.taskcount
|   |-- notify_on_release
|   `-- tasks
|-- notify_on_release
|-- release_agent
`-- tasks

1 directory, 15 files

10.2:proc下进程镜像中的cgroup
除了在proc顶层目录创建cgroup外.另外在每个进程镜像下都有一个cgroup的文件.如下示:
[root@localhost cgroup]# ls /proc/648/cgroup
/proc/648/cgroup

来看一下这个文件对应的操作,如下示:
static const struct pid_entry tid_base_stuff[] = {
    ......
    ......
#ifdef CONFIG_CGROUPS
    REG("cgroup",  S_IRUGO, cgroup),
#endif
......
}

#define REG(NAME, MODE, OTYPE)              \
    NOD(NAME, (S_IFREG|(MODE)), NULL,       \
        &proc_##OTYPE##_operations, {})
从上面可以看到.Cgroup对应的操作为&proc_cgroup_operations
定义如下:
struct file_operations proc_cgroup_operations = {
    .open       = cgroup_open,
    .read       = seq_read,
    .llseek     = seq_lseek,
    .release    = single_release,
};
Open对应的操作为cgroup_open.定义如下:
static int cgroup_open(struct inode *inode, struct file *file)
{
    struct pid *pid = PROC_I(inode)->pid;
    return single_open(file, proc_cgroup_show, pid);
}
又见到single_open()了.如上面的分析一样,read操作的时候会转入到proc_cgroup_show().代码如下:
static int proc_cgroup_show(struct seq_file *m, void *v)
{
    struct pid *pid;
    struct task_struct *tsk;
    char *buf;
    int retval;
    struct cgroupfs_root *root;

    retval = -ENOMEM;
    buf = kmalloc(PAGE_SIZE, GFP_KERNEL);
    if (!buf)
        goto out;

    retval = -ESRCH;
    pid = m->private;
    tsk = get_pid_task(pid, PIDTYPE_PID);
    if (!tsk)
        goto out_free;

    retval = 0;

    mutex_lock(&cgroup_mutex);

    /*遍历所有的cgroupfs_root*/
    for_each_root(root) {
        struct cgroup_subsys *ss;
        struct cgroup *cgrp;
        int subsys_id;
        int count = 0;

        /* Skip this hierarchy if it has no active subsystems */
        /*如果hierarchy中没有subsys.就继续下一个rootnode就是这样的情况*/
        if (!root->actual_subsys_bits)
            continue;
        /*打印hierarchy中的subsys位图*/
        seq_printf(m, "%lu:", root->subsys_bits);
        /*打印hierarchy中的subsys名称*/
        for_each_subsys(root, ss)
            seq_printf(m, "%s%s", count++ ? "," : "", ss->name);
        seq_putc(m, ':');
        /*进程所在cgroup的path*/
        get_first_subsys(&root->top_cgroup, NULL, &subsys_id);
        cgrp = task_cgroup(tsk, subsys_id);
        retval = cgroup_path(cgrp, buf, PAGE_SIZE);
        if (retval
            goto out_unlock;
        seq_puts(m, buf);
        seq_putc(m, '\n');
    }

out_unlock:
    mutex_unlock(&cgroup_mutex);
    put_task_struct(tsk);
out_free:
    kfree(buf);
out:
    return retval;
}
它的核心操作在这个for循环中,它的操作在注释中已经详细的说明了.在这里不做详细分析.
我将虚拟机重启了 *^_^*,所以现在的环境不是我们之前的测试环境了
测试一下:
[root@localhost ~]# cat /proc/646/cgroup
[root@localhost ~]#
说明当前系统中还没有hierarchy.
接下来挂载上一个:
[root@localhost ~]# mkdir /dev/cgroup
[root@localhost ~]# mount -t cgroup cgroup -o debug /dev/cgroup/
[root@localhost ~]# cat /proc/6
6/   609/ 646/
[root@localhost ~]# cat /proc/646/cgroup
2:debug:/
[root@localhost ~]#
从上面可以看到.系统已经有一个hierarchy.且绑定的是debug subsys.当前进程是位于它的顶层.
继续测试:
[root@localhost ~]# mkdir /dev/cgroup/eric
[root@localhost ~]# echo 646 > /dev/cgroup/eric/tasks
[root@localhost ~]# cat /proc/646/cgroup                        
2:debug:/eric
[root@localhost ~]#
可以看到,当前进程是位于eric这个cgroup中.

十一:小结
在这一节里,用大篇幅详细的描述了整个cgroup的框架.cgroup框架并不复杂,只是其中的数据结构和大量的全局变量弄的头昏眼花.因此理顺这些数 据结构和变量是阅读cgroup代码的关键.另外在cgroup中对于RCU和rw_mutex的使用也有值得推敲的地方.不过由于篇幅关系,就不再分析 这一部份.在接下来专题里.以cgroup框架为基础来分析几个重要的subsys.


本文来自ChinaUnix博客,如果查看原文请点:http://blog.chinaunix.net/u1/51562/showart_1736813.html
阅读(3129) | 评论(0) | 转发(3) |
给主人留下些什么吧!~~