Chinaunix首页 | 论坛 | 博客
  • 博客访问: 41920
  • 博文数量: 18
  • 博客积分: 10
  • 博客等级: 民兵
  • 技术积分: 12
  • 用 户 组: 普通用户
  • 注册时间: 2011-09-25 20:27
文章分类
文章存档

2013年(18)

我的朋友

分类: LINUX

2013-05-23 15:32:08

我看slab算法中"着色"[cachep->colour_off]的物理意义

文章来源:http://gliethttp.cublog.cn[转载请声明出处]

  对于arm9处理器,当使用指令控制协处理器cp15打开数据缓存(DCache),arm9内部的
数据总线上的数据就都会被缓存到arm9内部的物理cache中,对于arm9处理器at91rm9200来说,dcache大小为16k,
物理分布情况是这样的:"每条cpu物理cache缓存线数据大小为32字节,一共512条,即:16K",
cpu访问cpu内部dcache区的速度远远高于访问外部sdram,此时,arm9处理器操作的所有数据将直接来自于
dcache-16k的cpu内部高速物理缓存,处理器将只与处理器内部的dcache打交道,dcache将外设物理内存中的数据读到dcache中,同时将dcache中原有的数据回写到相应地址对应的物理内存中,只有其他物理内存地址使用相应高速缓存线发生冲突时,相应缓存线上的数据才会回写到相应地址对应的物理内存,否则一旦读入dcache,所有读写操作都将只在dcache中进行,不会对物理内存操作,直到因为高速缓存线发生冲突时,才将高速缓存线上的数据回写的物理内存,那么仅仅16k的dcache又是怎么和几十M的外设物理内存进行一一映射的呢?
那就是:"16K一组",对于at91rm9200来说,外设物理内存被分成一个个16k的段,
每个段相对于该段的偏移内存,将共用一根cpu物理cache缓存线,
:arm9处理器有512条物理cache缓存线,每条缓存线32字节,数据按块传输,一次传输一条缓存线大小字节,
  0,    16k,    32k,    48k,    64k,...使用第0根cpu物理cache缓存线
 32, 16k+32, 32K+32, 48k+32, 64k+32,...使用第1根cpu物理cache缓存线
 64, 16k+64, 32K+64, 48k+64, 64k+64,...使用第2根cpu物理cache缓存线
...
16k-64,16k+16k-64,32k+16k-64,48k+16k-64,64k+16k-64,...使用第510根cpu物理cache缓存线
16k-32,16k+16k-32,32k+16k-32,48k+16k-32,64k+16k-32,...使用第511根cpu物理cache缓存线
举例说明一下:
物理内存地址:0x20000000,0x20000003,0x20000020,0x20000030,0x20004000,0x20004003,0x20004020,0x20004030
如果对如上地址有数据读、写操作,那么cpu将自动正这些物理地址数据映射到arm9内部的dcache
对应的缓存线的32字节上,那怎么运算的呢,来看看,
//1.物理内存0x20000000
相对16k的地址 :A=0x20000000%(512*32)=0
第几根缓存线号:B=A/32=0
第几个缓存字节:C=A%32=0
解释:内存0x20000000将和第0根cpu物理cache缓存线的第0个字节进行数据交互
//2.物理内存0x20000003
相对16k的地址 :A=0x20000003%(512*32)=3
第几根缓存线号:B=A/32=0
第几个缓存字节:C=A%32=3
解释:内存0x20000003将和第0根cpu物理cache缓存线的第3个字节进行数据交互
//3.物理内存0x20000020
相对16k的地址 :A=0x20000020%(512*32)=0x20
第几根缓存线号:B=A/32=1
第几个缓存字节:C=A%32=0
解释:内存0x20000020将和第1根cpu物理cache缓存线的第0个字节进行数据交互
//4.物理内存0x20000030
相对16k的地址 :A=0x20000030%(512*32)=0x30
第几根缓存线号:B=A/32=1
第几个缓存字节:C=A%32=0x10
解释:内存0x20000030将和第1根cpu物理cache缓存线的第16个字节进行数据交互

因为缓存线是块传输,所以位于第0根cpu物理cache缓存线上的32个字节数据,
如有有一个字节发生了读、写操作,那么和它处在第0根cpu物理cache缓存线上的其他数据也将
一并将物理内存上对应的数据读、写到该缓存线的32字节上.[gliethttp]

//5.物理内存0x20004000
相对16k的地址 :A=0x20004000%(512*32)=0
第几根缓存线号:B=A/32=0
第几个缓存字节:C=A%32=0
解释:内存0x20004000将和第0根cpu物理cache缓存线的第0个字节进行数据交互
//6.物理内存0x20004003
相对16k的地址 :A=0x20004003%(512*32)=3
第几根缓存线号:B=A/32=0
第几个缓存字节:C=A%32=3
解释:内存0x20004003将和第0根cpu物理cache缓存线的第3个字节进行数据交互
//7.物理内存0x20004020
相对16k的地址 :A=0x20004020%(512*32)=0x20
第几根缓存线号:B=A/32=1
第几个缓存字节:C=A%32=0
解释:内存0x20004020将和第1根cpu物理cache缓存线的第0个字节进行数据交互
//8.物理内存0x20004030
相对16k的地址 :A=0x20004030%(512*32)=0x30
第几根缓存线号:B=A/32=1
第几个缓存字节:C=A%32=0x10
解释:内存0x20004030将和第1根cpu物理cache缓存线的第16个字节进行数据交互

因为缓存线是块传输,所以位于第1根cpu物理cache缓存线上的32个字节数据,
如有有一个字节发生了读、写操作,那么和它处在第1根cpu物理cache缓存线上的其他数据也将
一并将物理内存上对应的数据读、写到该缓存线的32字节上.[gliethttp]

比如cpu正在对0x20000003地址进行读写操作,突然有一个地址指针指向了0x20004003,并且
需要读取0x20004003内存处的地址,cpu检测到冲突,因为此时位于第0根cpu物理cache缓存线上的32个字节数据
有效地址空间是0x20000000~0x2000001f,而另一个地址段下的物理内存需要使用第0根cpu物理cache缓存线
,cpu执行写回操作,将现在第0根cpu物理cache缓存线上的32字节数据,块传输到物理内存0x20000000~0x2000001f上,
之后将0x20004000~0x2000401f物理内存段上的32字节数据,块传输到第0根cpu物理cache缓存线上.[gliethttp]
这样就完成了冲突之后的一次切换[向旧地址段回写cache line中数据、新地址段数据置入cache line]

从上面的几个数据,可以清晰的看到,我们应该尽量让一个slab所管理的每个对象和cpu物理cache缓存线
对齐,使用size = (size+align-1)&(~(align-1));//其中align=L1_CACHE_BYTES=32字节(arm9处理器)

将size调整为32字节的整倍数,进而将slab中管理的对象调整成与cpu物理cache缓存线对齐,
如果不对齐会使cpu物理cache缓存线进行频繁的32字节块数据转换传输,进而降低cpu的数据有效吞吐量,
:slab管理的size=30字节,不进行cpu物理cache缓存线对齐,假设该slab的第一个对象X0位于第10根
cpu物理cache缓存线的0~29字节,那么相邻的对象X1就会使用cpu物理cache缓存线的第10根[30,31]和第11根[0,27],
当对对象X0进行内存读写操作时,将不会有什么牺牲,因为每次cache line块传输都是有意义的,
但是当对象X1被分配使用时,对对象X1进行的内存读写操作,将会进行4次cache line的块传输,[换出和换入]
看上去好像也都是有意义的传输,但是,如果我们将size=30字节数据调整成32字节对齐,
那么X1对象将和X0对象一样,只需要2次cache line块传输就可以了.[gliethttp]
所以应该让一个slab所管理的众多对象,独立使用若干根cpu物理cache缓存线,不要出现对象之间
共用某根cpu物理cache缓存线的现象,尽量然他们使用不用的cache line.

"着色"[cachep->colour_off]概念的也正是基于以上原因被提出的,既然一个slab内部的所有对象已经
进行了cpu物理cache缓存线对齐,那么"着色"的概念又是提给谁的呢?
先看看cachep中用到的几种结构:
kmem_bufctl_t对象控制数组就像fat文件系统中的fat表,它是一个空闲区域的索引,
slabp->free是空闲对象控制数组kmem_bufctl_t的一个起始索引号,后面串链着所有空闲数组号
cachep->colour为本cache"着色"所能活动的的最范围值,该值根据一个slab中所能剩余的无用空闲空间大小
决定,对于使用arm9处理器cpu物理cache缓存线对齐flag标志的cache来说,cachep->colour = left_over / 32;
至于详细的理解,需要另一篇文章单独完成,这篇单独文章仍可以在我的博客http://gliethttp.cublog.cn中找到.

假设:cachep->colour=4;又因为该cache是比较受linux欢迎的结构,所以salb通过kmem_cache_grow()函数调用
生长了4次,也就是前3次申请的到3个slab中每个slab管理的对象都已经被干光光,因为每个slab至少占用1页(4k)
,所以4次就用掉了16k空间,因为arm9的cpu物理cache缓存线总大小为16k,这时"着色"开始发挥最大作用,
按最好的情况说,前4次申请的空间刚好一一对应上cpu物理cache缓存线的0~16k,那么每个slab因为"着色"的原因,
都在slab的最前面空出cachep->colour_next*32字节空间,如果是都是第一次,那么分别为G=0,G=32,G=64,G=96,
假设slab对象的大小为32字节,那么这16k空间中将会有4个对象是部分相交,
G=0的slab不与任何其他对象相交,
G=32的slab中有1个相交,和G=0中的第1个对象相交,
G=64的slab中有2个相交,和G=0中的第2个对象相交,以及G=32中的第1个对象相交,
G=96的slab中有3个相交,和G=0中的第3个对象相交,以及G=32中的第2个对象相交,以及G=64中的第1个对象相交
这样这4个对象的效率只是部分受到影响,当然对于剩下的其他对象,他们的cpu物理cache缓存线那是肯定都是4个交的,
避免不了的,假如没有释放前4个中的任何一个对象的同时,又要申请对象,那么将会进行第5次生长,
这时cachep->colour_next=0;回0,这样第5次生长的slab最前面的空闲空间为0字节,他会和同样空闲为0的G0相交,
G=0的slab与1个对象相交,其他的各自增加1次,
继续增长下去,当增长到9次时,此时所有对象相交,但是"着色"将一直能保证同一个cache类中包含的多个slab链中的对象的前cachep->colour个对象仅仅是部分相交,这样前几个对象对应的cache line的换入、换出的频率就少于cachep->colour之后满负载对象的cache line的换入、换出的频率.所以"着色"只能挽救其中的"一小撮"对象,
至于具体多少个,要根据对象的大小、slab页地址情况以及slab生长的数量综合考虑.[gliethttp]
于是为了这"一小撮"对象就整了个"着色"概念出来,不过slab可能是这样想的:"能救一个是一个".
话又说回来了,cachep->colour使用的是slab申请的若干page页中空闲出来的未用空间,
从这个角度来说,"着色"机制还"变废为宝",,"着色"机制就是一种不怎么牺牲的前提下,"尽量变废为宝"的策略.

阅读(826) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~