Chinaunix首页 | 论坛 | 博客
  • 博客访问: 3593726
  • 博文数量: 207
  • 博客积分: 0
  • 博客等级: 民兵
  • 技术积分: 7365
  • 用 户 组: 普通用户
  • 注册时间: 2013-01-23 18:56
个人简介

将晦涩难懂的技术讲的通俗易懂

文章分类

全部博文(207)

文章存档

2024年(10)

2023年(9)

2022年(4)

2021年(12)

2020年(8)

2019年(18)

2018年(19)

2017年(9)

2016年(26)

2015年(18)

2014年(54)

2013年(20)

分类: LINUX

2018-03-10 22:47:51

virtio前后端配合限速分析

——lvyilong316

VIRTIO中,有个一个设备的特性叫做VIRTIO_RING_F_EVENT_IDX,这个特性是用来对前后端速率进行匹配限速的。我们知道avail ring,这个ring有两个用途,一是发送侧(send queue)前端驱动发送报文的时,将待发送报文加入avail ring等待后端的处理,后端处理完后,会将其放入used ring,并由前端将其释放desc(free_old_xmit_skbs, detach_buf),最后通过try_fill_recv重新装入availring; 二是接收侧(receive qeueu),前端将空白物理块加入avail ring中,提供给后端用来接收报文,后端接收完报文会放入used ring。可以看出:都是后端用完前端的avail ring的东西放入used ring,也就是前端消耗uesd,后端消耗avail。所以本特性中后端用了used ring的最后一个元素,告诉前端驱动后端处理到哪个avail ring上的元素了,同时前端使用avail ring的最后一个元素告诉后端,处理到那个used ring了。

发送方向限速

我们看发送方向的限速。首先看前端guest的发送逻辑(kernel 3.10: virtio-net),在guest发送时会调用virtqueue_add函数:

    virtqueue_add函数将要发送的skb转换的sg再转换为desc chain。具体转换流程不是这里分析的重点,我们只看virtqueue_add函数的最后一部分。

l  virtqueue_add

点击(此处)折叠或打开

  1. static inline int virtqueue_add(struct virtqueue *_vq,)
  2. {
  3. /*省略sg到desc chain的具体转换逻辑*/
  4. add_head:
  5.          /* Set token.记录数组记录本次发送的skb */
  6.          vq->data[head] = data; /*head 为记录次skb的首个desc的下标,data为本skb的地址*/
  7.  
  8.           /*更新avail*/
  9.          avail = (vq->vring.avail->idx & (vq->vring.num-1));
  10.          vq->vring.avail->ring[avail] = head; /*将本次要发送的首个desc下标记录在avail->ring[vq->vring.avail->idx],vq->vring.avail->idx 是avail ring下一个可用的index*/
  11.  
  12.          virtio_wmb(vq->weak_barriers);
  13.          vq->vring.avail->idx++;
  14.          vq->num_added++; /*更新num_added ,num_added 记录从上一次kick后端后,前端新增加的desc数量*/
  15.  
  16.          /* This is very unlikely, but theoretically possible. Kick
  17.           * just in case. */
  18.           /*如果avail的数量太多,则kick后端收包,这种情况是你很难发生的*/
  19.          if (unlikely(vq->num_added == (1 << 16) - 1))
  20.                    virtqueue_kick(_vq);
  21.  
  22.          pr_debug("Added buffer head %i to %p\n", head, vq);
  23.          END_USE(vq);
  24.  
  25.          return 0;
  26. }

这里一个关键点就是vq->num_added这个变量在这里记录从上一次kick后端后,前端新增加的desc数量。我们看到在kick后端前(virtqueue_kick),有一个判断:vq->num_added == (1 << 16) - 1),也就是当前端上层发送kick后,这段期间如果累计填充的desc不足65535个时,就先不去kick后端处理,这样不用每次发送skbkick后端,提高后端的处理效率

下面看如果达到了65535调用virtqueue_kick的逻辑。

l  virtqueue_kick

点击(此处)折叠或打开

  1. void virtqueue_kick(struct virtqueue *vq)
  2. {
  3.          if (virtqueue_kick_prepare(vq))
  4.                    virtqueue_notify(vq);
  5. }

在真正调用virtqueue_notify kick后端前,会调用virtqueue_kick_prepare来再次判断是否需要kick,这也是我们要分析的重点。

l  virtqueue_kick_prepare

点击(此处)折叠或打开

  1. bool virtqueue_kick_prepare(struct virtqueue *_vq)
  2. {
  3.          struct vring_virtqueue *vq = to_vvq(_vq);
  4.          u16 new, old;
  5.          bool needs_kick;
  6.  
  7.          START_USE(vq);
  8.          virtio_mb(vq->weak_barriers);
  9.     /*old上次kick后的avail.idx */
  10.          old = vq->vring.avail->idx - vq->num_added;
  11.          /*new是当前的avail.idx*/
  12.          new = vq->vring.avail->idx;
  13.          vq->num_added = 0;
  14.     /*当VIRTIO_RING_F_EVENT_IDX 被设置的时候vq->event 为1*/
  15.          if (vq->event) {
  16.                    needs_kick = vring_need_event(vring_avail_event(&vq->vring),
  17.                                                      new, old);
  18.          } else {
  19.                    needs_kick = !(vq->vring.used->flags & VRING_USED_F_NO_NOTIFY);
  20.          }
  21.          END_USE(vq);
  22.          return needs_kick;
  23. }

    这里我们注意两个变量,oldnewold表示上次kick后的avail.idxnew是当前的avail.idx,两者的差值就是vq->num_added,也就是自上次kick后端后前端又积累的desc chain数量。另外vq->event是在vq初始化的时候设置的,在vring_new_virtqueue有如下代码:

vq->event = virtio_has_feature(vdev, VIRTIO_RING_F_EVENT_IDX);

所以当设置了VIRTIO_RING_F_EVENT_IDX后,vq->event就会被置位,这里就会调用needs_kick = vring_need_event(vring_avail_event(&vq->vring), new, old);

注意vring_avail_event(&vq->vring) 为:(vr)->used->ring[(vr)->num],即uesd ring的最后一个元素,后端用used ring的最后一个元素告诉前端后端处理的位置

l  vring_need_event

点击(此处)折叠或打开

  1. static inline int vring_need_event(__u16 event_idx, __u16 new_idx, __u16 old)
  2. {
  3.          return (__u16)(new_idx - event_idx - 1) < (__u16)(new_idx - old);
  4. }

这个公式决定了是否想后端QEMU发送通知

当满足公式的时候,后端处理的位置event_idx超过了old,表示后端QEMU处理的速度够快,索引返回true,通知(kick)后端,通知后端有新的avail 逻辑buf,请你继续处理

如下下面情况:

后端处理的位置event_idx落后于上次添加avail ring的位置,说明后端处理较慢,返回false,那么前端就先不通知(kick),积攒一下,反正后端正处理不过来,下次退出的时候,让后端一起尽情处理

     然后我们看下后端是如何处理的,看guest发方向,为了简单起见我们选择dpdk 18.02中的vhost_user来分析(vhost_net相对逻辑比较绕,另外较新版本的dpdk才支持VIRTIO_RING_F_EVENT_IDX)。guest的发送,对应后端的dequeue操作。

l  rte_vhost_dequeue_burst

点击(此处)折叠或打开

  1. uint16_t
  2. rte_vhost_dequeue_burst(int vid, uint16_t queue_id,
  3.          struct rte_mempool *mbuf_pool, struct rte_mbuf **pkts, uint16_t count)
  4. {
  5. /*省略前面dequeue操作*/
  6.           if (likely(dev->dequeue_zero_copy == 0)) {
  7.                    do_data_copy_dequeue(vq);
  8.                    vq->last_used_idx += i; /*更新last_used_idx ,i为本次dequeue的mbuf数量,也就是清空的desc数量*/
  9.                    update_used_idx(dev, vq, i);
  10.           }
  11. /*……*/
  12. }

更新vq->last_used_idx后,调用update_used_idx

l  update_used_idx

点击(此处)折叠或打开

  1. static __rte_always_inline void
  2. update_used_idx(struct virtio_net *dev, struct vhost_virtqueue *vq,
  3.                    uint32_t count)
  4. {
  5.          if (unlikely(count == 0))
  6.                    return;
  7.  
  8.          rte_smp_wmb();
  9.          rte_smp_rmb();
  10.  
  11.          vq->used->idx += count; /*更新vq->used->idx */
  12.          vhost_log_used_vring(dev, vq, offsetof(struct vring_used, idx),
  13.                             sizeof(vq->used->idx));
  14.          vhost_vring_call(dev, vq); /*调用vhost_vring_call call前端*/
  15. }

vhost_vring_call主要作用是Call前端,告诉前端desc中的数据已经取出,前端可以回收了。

l  vhost_vring_call

点击(此处)折叠或打开

  1. static __rte_always_inline void
  2. vhost_vring_call(struct virtio_net *dev, struct vhost_virtqueue *vq)
  3. {
  4.          /* Flush used->idx update before we read avail->flags. */
  5.          rte_mb();
  6.  
  7.          /* Don't kick guest if we don't reach index specified by guest. */
  8.          if (dev->features & (1ULL << VIRTIO_RING_F_EVENT_IDX)) {
  9.                    uint16_t old = vq->signalled_used;
  10.                    uint16_t new = vq->last_used_idx;
  11.  
  12.                    LOG_DEBUG(VHOST_DATA, "%s: used_event_idx=%d, old=%d, new=%d\n",
  13.                             __func__,
  14.                             vhost_used_event(vq),
  15.                             old, new);
  16.                    if (vhost_need_event(vhost_used_event(vq), new, old)
  17.                             && (vq->callfd >= 0)) {
  18.                             vq->signalled_used = vq->last_used_idx; /*更新vq->signalled_used为本次Call前端后的used idx*/
  19.                             eventfd_write(vq->callfd, (eventfd_t) 1);
  20.                    }
  21.          } else {
  22.                    /* Kick the guest if necessary. */
  23.                    if (!(vq->avail->flags & VRING_AVAIL_F_NO_INTERRUPT)
  24.                                      && (vq->callfd >= 0))
  25.                             eventfd_write(vq->callfd, (eventfd_t)1);
  26.          }
  27. }

当设置VIRTIO_RING_F_EVENT_IDX后,会调用vhost_need_event判断是否需要Call前端,否则直接调用eventfd_write Call前端。在看vhost_need_event实现之前,先看其后的一行代码:

vq->signalled_used = vq->last_used_idx;

这里将vq->signalled_used更新为本次Call前端后的used idx,那么对于调用vhost_need_event时,这里存放的应该就是上次Call前端的used idx,弄清楚这个看vhost_need_event的实现就很容易了。

l  vhost_need_event

点击(此处)折叠或打开

  1. static __rte_always_inline int
  2. vhost_need_event(uint16_t event_idx, uint16_t new_idx, uint16_t old)
  3. {
  4.          return (uint16_t)(new_idx - event_idx - 1) < (uint16_t)(new_idx - old);
  5. }

其中第一个参数为(vq)->avail->ring[(vq)->size],前端使用avail ring最后一个元素通知后端。

new_idx – old大于new_idx - event_idx – 1,说明前端也更新了used idx,则后端可以进行Call通知前端,否则则暂时不通知。

这里还有一点要注意,我们看到后端使用avail->ring的最后一个元素来判断前端的使用情况,那么前端是什么时候更新这个值呢?答案是在virtqueue_get_buf中(kernel 3.10 virtio-net),这个函数在前端发送和接收时都会被调用,根据used ringdesc中得到skbbuf(发送时得到的是待填入数据的skbbuf,接收时得到的是带有有效数据的skbbuf)。在函数的末尾有如下逻辑:

点击(此处)折叠或打开

  1. if (!(vq->vring.avail->flags & VRING_AVAIL_F_NO_INTERRUPT)) {
  2.                    vring_used_event(&vq->vring) = vq->last_used_idx;
  3.                    virtio_mb(vq->weak_barriers);
  4. }

其中vring_used_event定义如下:

#define vring_used_event(vr) ((vr)->avail->ring[(vr)->num])

   这样前端就更新了avail ring最后一个元素。

   好像还是缺少点什么?我们开始看到前端virtio-net是根据used ring的最后一个元素来判断是否要kick后端,按照这个逻辑后端应该有地方来更新used ring的最后一个元素才对。可惜我们再vhost-user的逻辑中并没有发现相关操作。这是为什么呢?我们回头想想整个逻辑的目的,是降低前端kick,后端Call的频率,是只在不影响对端使用的情况,尽可能的多积攒一些再通知。而我们知道vhost-user采用的是pmd,根本不去管这个通知,所以也就没有必要去配合前端了,前端想kick就使劲kick,反正也不受影响。

接收方向限速

收方向类似,这里不再展开,只给出调用路径。先从后端vhost-user开始分析。

后端:

virtio_dev_rxàvhost_vring_callàvhost_need_eventà通过avail->ring的最后一个元素判断是否Call 前端;

前端:

try_fill_recvàvirtqueue_kickàvirtqueue_kick_prepareàvring_need_eventà通过used->ring的最后一个元素判断是否kick后端。

阅读(12346) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~