小鱼儿游啊游啊。。。。
全部博文(338)
分类: LINUX
2012-12-19 15:29:35
转自:http://blog.csdn.net/long19851105/article/details/6600452
基本原理
Pmem是为了实现共享大尺寸连续物理内存而开发的一种机制,该机制对dsp,gpu等部件非常有用。Pmem相当于把系统内存划分出一部分单独管理,即不被linux mm管理,实际上linux mm根本看不到这段内存。
Pmem与Ashmem的区别
Pmem和Ashmem都通过mmap来实现共享内存,其区别在于Pmem的共享区域是一段连续的物理内存,而Ashmem的共享区域在虚拟空间是连续的,物理内存却不一定连续。dsp和某些设备只能工作在连续的物理内存上,这样cpu与dsp之间的通信就需要通过Pmem来实现。
Pmem的实现
Pmem的源代码在drivers/misc/pmem.c中,Pmem驱动依赖于linux的misc device和platform driver框架,一个系统可以有多个Pmem,默认的是最多10个。Pmem暴露4组操作,分别是platform driver的probe和remove操作; misc device的fops接口和vm_ops操作。模块初始化时会注册一个platform driver,在之后probe时,创建misc设备文件,分配内存,完成初始化工作。
Pmem通过pmem_info,pmem_data,pmem_region三个结构体维护分配的共享内存,其中pmem_info代表一个Pmem设备分配的内存块,pmem_data代表该内存块的一个子块,pmem_region则把每个子块分成多个区域。 pmem_data是分配的基本单位,即每次应用层要分配一块Pmem内存,就会有一个pmem_data来表示这个被分配的内存块,实际上在open的时候,并不是open一个pmem_info表示的整个Pmem内存块,而是创建一个pmem_data以备使用。一个应用可以通过ioctl来分配 pmem_data中的一个区域,并可以把它map到进程空间;并不一定每次都要分配和map整个pmem_data内存块。
上面三个数据结构的关系可以用下面的图来表示
Pmem驱动会创建/dev/pme、/dev/adsp,实现了pmem_open,pmem_mmap,pmem_release和pmem_ioctl,应用层可以通过open,mmap,close,ioctl来操作Pmem设备文件。其中ioctl支持的命令如下:
l PMEM_GET_PHYS获取物理地址
l PMEM_MAP映射一段内存
l PMEM_GET_SIZE返回pmem分配的内存大小
l PMEM_UNMAPunmap一段内存
l PMEM_ALLOCATE分配pmem空间,len 是参数,如果已分配则失败
l PMEM_CONNECT将一个pmem file与其他相连接
l PMEM_GET_TOTAL_SIZE返回pmem device内存的大小
用户接口
一个进程首先打开Pmem设备,通过ioctl(PMEM_ALLOCATE)分配内存,它mmap这段内存到自己的进程空间后,该进程成为 master进程。其他进程可以重新打开这个pmem设 备,通过调用ioctl(PMEM_CONNECT)将自己的pmem_data与master进程的pmem_data建立连接关系,这个进程就成为client进程。Client进程可以通过mmap将master Pmem中的一段或全部重新映射到自己的进程空间,这样就实现了共享Pmem内存。如果是GPU或DSP则可以通过ioctl(PMEM_GET_PHYS)获取物理地址进行操作
Pmem很好的满足高通芯片中MDP、GPU等需要连续物理内存的设备,这里我稍微小结一些自己的理解,做个记录:
1.如何使用,这里要分两种情况:
第一种:在一个进程中自己分配自己使用,直接open之后mmap就ok了。
pmem_fd = open("/dev/pmem_device", O_RDWR, 0)
pmem_base = mmap(0, size, PROT_READ|PROT_WRITE, MAP_SHARED, pmem_fd, 0)
第二种:需要在不同的进程中共享。这需要用到Pmem的Connect功能,先来理解下面的代码:
pmem_fd0 = open("/dev/pmem_device", O_RDWR, 0)
pmem_base = mmap(0, size, PROT_READ|PROT_WRITE, MAP_SHARED, pmem_fd0, 0)
pmem_fd1 = open("/dev/pmem_device", O_RDWR, 0)
ret = ioctl(pmem_fd1, PMEM_CONNECT, pmem_fd0)
ret = ioctl(pmem_fd1 , PMEM_MAP, ®ion1)
通过Connect之后,pmem_fd1就获得了和pmem_fd0同样的Pmem空间。一个进程打开Pmem设备,通过mmap操作映射内存到进程空间后,该进程成为了该Pmem的Master进程。其他进程通过Connect操作将自己的Pmem data和Master的Pmem data连接之后,就成为该Pmem的Client进程。在Android中,通过Binder, 实现了跨进程传递Pmem fd。相关代码见MemoryHeapBase.cpp和MemoryHeapPmem.cpp,具体使用可以看下面的简化代码:
masterHeap = new MemoryHeapBase(Pmem_device,size,xxx)//对应主进程,申请Pmem
clientHeap = new MemoryHeapPmem(masterHeap,xxx)//对应client进程,函数实现了connect操作
clientHeap->slap() //对应mmap操作
2. 理解了上面,就不难理解下面surface操作的过程了:
client = new SurfaceComposerClient()
//向Surfaceflinger申请一个Surface,surface类型为PushBuffers
surfaceControl = client->createSurface(getpid(), 0, W, H,PIXEL_FORMAT_RGBA_565, ISurfaceComposer::ePushBuffers)
//获取ISurface对象
isurface = Test::getISurface(surfaceControl)
heap = new MemoryHeapBase(pmem_device, W * H)
sp pmemHeap = new MemoryHeapPmem(heap, 0)
pmemHeap->slap()
mBufferHeap = ISurface::BufferHeap(W,H,PIXEL_FORMAT_BGRA_565, pmemHeap)
isurface->registerBuffers(mBufferHeap)
//得到buffer指针
char * bp = static_cast(mBufferHeap.heap->base())
//向buffer写位图数据,注意要是32位的
XXXXXXXXXX
//提交修改,通知Surface Flinger更新屏幕
isurface->postBuffer(0)