Chinaunix首页 | 论坛 | 博客
  • 博客访问: 3571968
  • 博文数量: 205
  • 博客积分: 0
  • 博客等级: 民兵
  • 技术积分: 7385
  • 用 户 组: 普通用户
  • 注册时间: 2013-01-23 18:56
个人简介

将晦涩难懂的技术讲的通俗易懂

文章分类

全部博文(205)

文章存档

2024年(8)

2023年(9)

2022年(4)

2021年(12)

2020年(8)

2019年(18)

2018年(19)

2017年(9)

2016年(26)

2015年(18)

2014年(54)

2013年(20)

分类: LINUX

2021-08-29 17:32:40

Shared Virtual MemorySVM)介绍

——lvyilong316

共享虚拟内存(SVM技术最初是为了解决在GPU场景下,设备(GPU)和hostCPU)之间共享内存的。目的是在设备GPUCPU之间可以直接传递指针(地址),为了上设备可以直接使用进程空间的地址,简化编程模型。我们知道通常host测采用的地址是主机的虚拟地址(VA),而设备侧通常使用的是物理地址(PA)或IOVA

如下图,传统内存访问的三个途径:

(1)CPU访存通过MMUCPU的页表)将VA转为PA访问物理地址;

(2)GPU访存通过GPU的页表访问物理地址;

(3)PCIe设备直接使用物理地址PA访问;

在引入了iommuVT-d)后,如下图,PCIe设备也可以使用虚拟地址(IOVA)来访存了,也有设备自己对应的页表(iommu页表)完成IOVA到物理地址(PA)的映射。

这种情况下CPU进程和设备的内存通信一般采用如下流程:

1. CPU进程分配一块内存,并采用系统调用syscallioctl请求内核准备接收操作;

2. 内核初始化设备的DMA操作,这里面有两种情况:一种是内核重新分配一块内核空间的内存,将其物理地址传递给设备进行DMA,另一种是如果应用程序将用户空间的内存pin住(这段内存的虚拟地址空间和物理地址空间不会发生变化)则可直接将用户空间的buffer地址传递给设备进行DMA

3. 设备将数据DMA到内存,对应上面这里也有两种情况,如果是内核设置的内核buffer的地址,则设备会先将数据DMA到内核buffer,再由内核将数据由内核空间拷贝到用户空间的buffer(我们通常使用内核协议栈进行收发报文的应用程序就是这种),另一种如果用户空间直接将内存pin住,则设备直接将数据DMA到应用程序的buffer(我们采用DPDK收发报文就是这种)。

引入SVM后的变化

下面我们看引入SVM后的效果,最大的区别是设备访问地址在经过iommuDMAR转换时会参考引用CPUmmu页表,在地址缺页时同样会产生缺页中断。为什么要这样设计呢?因为要想设备直接使用进程空间的虚拟地址可能采用的有两种方法。一种是把整个进程地址空间全部pin住,但这点一般是不现实的,除非类似DPDK应用程序全部采用静态内存,否则如果进程动态分配一个内存,那么这个地址设备是不感知的。另一种方法就是采用动态映射,就像进程访问虚拟地址一样,mmu发现缺页就会动态映射,所以从设备发来的地址请求也会经过CPU缺页处理,并将映射关系同步到iommu的页表中。

有了以上的流程,CPU和设备的内存交互流程就变成了如下图所示。主要是第三步的变化,设备直接将数据DMA到进程空间的地址,并且不需要进程pin内存,而是通过page fault触发缺页处理进行映射。

支持SVM的条件

那么支持SVM需要软硬件具备什么条件呢。首先是设备角度:

1. 要支持PASID,因为一个设备会被多个进程访问,对应多个设备DMAR页表,需要通过PASID来区分采用那个页表;

2. 支持page fault处理,当访问的虚拟地址引发缺页时能够等待或重试;

从驱动角度来说,

1. 操作设备的API需要通过PASID来区分不同进程

SVM功能的虚拟化

如果虚拟机中的虚拟设备也需要使用SVM就需要SVM的虚拟化了,这就要借助之前分享过的vIOMMU技术实现了。详细不再展开,具体可以参考这里: 

阅读(4447) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~