Chinaunix首页 | 论坛 | 博客
  • 博客访问: 11558
  • 博文数量: 4
  • 博客积分: 0
  • 博客等级: 民兵
  • 技术积分: 10
  • 用 户 组: 普通用户
  • 注册时间: 2014-02-24 13:52
文章分类
文章存档

2015年(2)

2014年(2)

我的朋友
最近访客

分类: LINUX

2015-10-08 16:20:19

原文地址:dev_queue_xmi函数详解 作者:frankzfz

    前面在分析IPv6的数据流程时,当所有的信息都准备好了之后,例如,出口设备,下一跳的地址,以及链路层地址。就会调用dev.c文件中的dev_queue_xmin函数,该函数是设备驱动程序执行传输的接口。也就是所有的数据包在填充完成后,最终发送数据时,都会调用该函数。
     Dev_queue_xmit函数只接收一个skb_buff结构作为输入的值。此数据结构包含了此函数所需要的一切信息。Skb->dev是出口设备,skb->data为有效的载荷的开头,其长度为skb->len.下面是2.6.37版本内核中的dev_queue_xmit函数,该版本的内核与之前的版本有了不少的区别。

点击(此处)折叠或打开

  1. int dev_queue_xmit(struct sk_buff *skb)
  2. {
  3.     struct net_device *dev = skb->dev;
  4.     struct netdev_queue *txq;
  5.     struct Qdisc *q;
  6.     int rc = -ENOMEM;

  7.     /* Disable soft irqs for various locks below. Also
  8.      * stops preemption for RCU.
  9.      */
  10. //关闭软中断 - __rcu_read_lock_bh()--->local_bh_disable();
  11.     rcu_read_lock_bh();
  12. // 选择一个发送队列,如果设备提供了select_queue回调函数就使用它,否则由内核选择一个队列,这里只是Linux内核多队列的实现,但是要真正的使用都队列,需要网卡支持多队列才可以,一般的网卡都只有一个队列。在调用alloc_etherdev分配net_device是,设置队列的个数
  13.     txq = dev_pick_tx(dev, skb);
  14.  //从netdev_queue结构上获取设备的qdisc
  15.     q = rcu_dereference_bh(txq->qdisc);

  16. #ifdef CONFIG_NET_CLS_ACT
  17.     skb->tc_verd = SET_TC_AT(skb->tc_verd, AT_EGRESS);
  18. #endif
  19. //如果硬件设备有队列可以使用,该函数由dev_queue_xmit函数直接调用或由dev_queue_xmit通过qdisc_run函数调用
  20. trace_net_dev_queue(skb);
  21.     if (q->enqueue) {
  22.         rc = __dev_xmit_skb(skb, q, dev, txq); //使用流控对象发送数据包(包含入队和出队)
  23. //更详细的内容参考说明3
  24.         goto out;
  25.     }

  26. //下面的处理是在没有发送队列的情况下
  27.     /* The device has no queue. Common case for software devices:
  28.      loopback, all the sorts of tunnels...

  29.      Really, it is unlikely that netif_tx_lock protection is necessary
  30.      here. (f.e. loopback and IP tunnels are clean ignoring statistics
  31.      counters.)
  32.      However, it is possible, that they rely on protection
  33.      made by us here.

  34.      Check this and shot the lock. It is not prone from deadlocks.
  35.      Either shot noqueue qdisc, it is even simpler 8)
  36.      */
  37. //首先,确定设备是开启的,并且还要确定队列是运行的,启动和停止队列有驱动程序决定
  38. //设备没有输出队列典型的是回环设备。这里需要做的就是直接调用dev_start_queue_xmit、、函数,经过驱动发送出去,如果发送失败,就直接丢弃,没有队列可以保存。
  39.     if (dev->flags & IFF_UP) {
  40.         int cpu = smp_processor_id(); /* ok because BHs are off */

  41.         if (txq->xmit_lock_owner != cpu) {

  42.             if (__this_cpu_read(xmit_recursion) > RECURSION_LIMIT)
  43.                 goto recursion_alert;

  44.             HARD_TX_LOCK(dev, txq, cpu);

  45.             if (!netif_tx_queue_stopped(txq)) {
  46.                 __this_cpu_inc(xmit_recursion);
  47.                 rc = dev_hard_start_xmit(skb, dev, txq);//见说明4
  48.                 __this_cpu_dec(xmit_recursion);
  49.                 if (dev_xmit_complete(rc)) {
  50.                     HARD_TX_UNLOCK(dev, txq);
  51.                     goto out;
  52.                 }
  53.             }
  54.             HARD_TX_UNLOCK(dev, txq);
  55.             if (net_ratelimit())
  56.                 printk(KERN_CRIT "Virtual device %s asks to "
  57.                  "queue packet!\n", dev->name);
  58.         } else {
  59.             /* Recursion is It is possible,
  60.              * unfortunately
  61.              */
  62. recursion_alert:
  63.             if (net_ratelimit())
  64.                 printk(KERN_CRIT "Dead loop on virtual device "
  65.                  "%s, fix it urgently!\n", dev->name);
  66.         }
  67.     }

  68.     rc = -ENETDOWN;
  69.     rcu_read_unlock_bh();

  70.     kfree_skb(skb);
  71.     return rc;
  72. out:
  73.     rcu_read_unlock_bh();
  74.     return rc;
  75. }

1.       下面是dev_pick_tx函数。

点击(此处)折叠或打开

  1. static struct netdev_queue *dev_pick_tx(struct net_device *dev,
  2.                     struct sk_buff *skb)
  3. {
  4.     int queue_index;
  5.     const struct net_device_ops *ops = dev->netdev_ops;

  6.     if (ops->ndo_select_queue) {
  7. //选择一个索引,这个策略可以设置,比如优先选择视频和音频队列,而哪个队列邦定哪个策略也是设定的。
  8.         queue_index = ops->ndo_select_queue(dev, skb);
  9.         queue_index = dev_cap_txqueue(dev, queue_index);
  10.     } else {
  11.         struct sock *sk = skb->sk;
  12.         queue_index = sk_tx_queue_get(sk);
  13.         if (queue_index < 0 || queue_index >= dev->real_num_tx_queues) {

  14.             queue_index = 0;
  15.             if (dev->real_num_tx_queues > 1)
  16.                 queue_index = skb_tx_hash(dev, skb);

  17.             if (sk) {
  18.                 struct dst_entry *dst = rcu_dereference_check(sk->sk_dst_cache, 1);

  19.                 if (dst && skb_dst(skb) == dst)
  20.                     sk_tx_queue_set(sk, queue_index);
  21.             }
  22.         }
  23.     }

  24.     skb_set_queue_mapping(skb, queue_index);
  25.     return netdev_get_tx_queue(dev, queue_index);
  26. }

2.     下面是其中的一种网卡类型调用函数alloc_etherdev时,

dev = alloc_etherdev(sizeof(struct ether1_priv));

其实该函数是一个宏定义:其中第二参数表示的就是队列的数量,这里在Linux2.6.37内核中找到的一种硬件网卡的实现,可用的队列是1个。

#define alloc_etherdev(sizeof_priv) alloc_etherdev_mq(sizeof_priv, 1)

下面是alloc_etherdev_mq函数的定义实现。

点击(此处)折叠或打开

  1. struct net_device *alloc_etherdev_mq(int sizeof_priv, unsigned int queue_count)
  2. {
  3.     return alloc_netdev_mq(sizeof_priv, "eth%d", ether_setup, queue_count);
  4. }

3.  几乎所有的设备都会使用队列调度出口的流量,而内核可以使用对了规则的算法安排那个帧进行发送,使其以最优效率的次序进行传输。这里检查这个队列中是否有enqueue函数,如果有则说明设备会使用这个队列,否则需另外处理。关于enqueue函数的设置,我找到dev_open->dev_activate中调用了qdisc_create_dflt来设置,需要注意的是,这里并不是将传进来的skb直接发送,而是先入队,然后调度队列,具体发送哪个数据包由enqueuedequeue函数决定,这体现了设备的排队规则    

Enqueue

 把一个元素添加的队列

Dequeue

从队列中提取一个元素

Requeue

把一个原先已经提取的元素放回到队列,可以由于传输失败。

if (q->enqueue)为真的话,表明这个设备有队列,可以进行相关的流控。调用__dev_xmit_skb函数进行处理。

点击(此处)折叠或打开

  1. static inline int __dev_xmit_skb(struct sk_buff *skb, struct Qdisc *q,
  2.                  struct net_device *dev,
  3.                  struct netdev_queue *txq)
  4. {
  5.     spinlock_t *root_lock = qdisc_lock(q);
  6.     bool contended = qdisc_is_running(q);
  7.     int rc;

  8.     /*
  9.      * Heuristic to force contended enqueues to serialize on a
  10.      * separate lock before trying to get qdisc main lock.
  11.      * This permits __QDISC_STATE_RUNNING owner to get the lock more often
  12.      * and dequeue packets faster.
  13.      */
  14.     if (unlikely(contended))
  15.         spin_lock(&q->busylock);

  16.     spin_lock(root_lock);
  17.     if (unlikely(test_bit(__QDISC_STATE_DEACTIVATED, &q->state))) {
  18.         kfree_skb(skb);
  19.         rc = NET_XMIT_DROP;
  20.     } else if ((q->flags & TCQ_F_CAN_BYPASS) && !qdisc_qlen(q) &&
  21.          qdisc_run_begin(q)) {
  22.         /*
  23.          * This is a work-conserving queue; there are no old skbs
  24.          * waiting to be sent out; and the qdisc is not running -
  25.          * xmit the skb directly.
  26.          */
  27.         if (!(dev->priv_flags & IFF_XMIT_DST_RELEASE))
  28.             skb_dst_force(skb);
  29.         __qdisc_update_bstats(q, skb->len);
  30.         if (sch_direct_xmit(skb, q, dev, txq, root_lock)) {
  31.             if (unlikely(contended)) {
  32.                 spin_unlock(&q->busylock);
  33.                 contended = false;
  34.             }
  35.             __qdisc_run(q);
  36.         } else
  37.             qdisc_run_end(q);

  38.         rc = NET_XMIT_SUCCESS;
  39.     } else {
  40.         skb_dst_force(skb);
  41.         rc = qdisc_enqueue_root(skb, q);
  42.         if (qdisc_run_begin(q)) {
  43.             if (unlikely(contended)) {
  44.                 spin_unlock(&q->busylock);
  45.                 contended = false;
  46.             }
  47.             __qdisc_run(q);
  48.         }
  49.     }
  50.     spin_unlock(root_lock);
  51.     if (unlikely(contended))
  52.         spin_unlock(&q->busylock);
  53.     return rc;
  54. }

_dev_xmit_skb函数主要做两件事情:

(1)      如果流控对象为空的,试图直接发送数据包。

2)如果流控对象不空,将数据包加入流控对象,并运行流控对象。

当设备进入调度队列准备传输时,qdisc_run函数就会选出下一个要传输的帧,而该函数会间接的调用相关联的队列规则dequeue函数,从对了中取出数据进行传输。

有两个时机将会调用qdisc_run()

1__dev_xmit_skb()

2. 软中断服务线程NET_TX_SOFTIRQ

其实,真正的工作有qdisc_restart函数实现。

点击(此处)折叠或打开

  1. void __qdisc_run(struct Qdisc *q)
  2. {
  3.     unsigned long start_time = jiffies;

  4.     while (qdisc_restart(q)) { //返回值大于0,说明流控对象非空。
  5.         /*
  6.          * Postpone processing if
  7.          * 1. another process needs the CPU;
  8.          * 2. we've been doing it for too long.
  9.          */
  10.         if (need_resched() || jiffies != start_time) { //已经不允许继续运行本流控对象。
  11.             __netif_schedule(q); //将本队列加入软中断的output_queue链表中。
  12.             break;
  13.         }
  14.     }

  15.     qdisc_run_end(q);
  16. }

如果发现本队列运行的时间太长了,将会停止队列的运行,并将队列加入output_queue链表头。


点击(此处)折叠或打开

  1. static inline int qdisc_restart(struct Qdisc *q)
  2. {
  3.     struct netdev_queue *txq;
  4.     struct net_device *dev;
  5.     spinlock_t *root_lock;
  6.     struct sk_buff *skb;

  7.     /* Dequeue packet */
  8.     skb = dequeue_skb(q);//一开始就调用dequeue函数。
  9.     if (unlikely(!skb))
  10.         return 0;
  11.     WARN_ON_ONCE(skb_dst_is_noref(skb));
  12.     root_lock = qdisc_lock(q);
  13.     dev = qdisc_dev(q);
  14.     txq = netdev_get_tx_queue(dev, skb_get_queue_mapping(skb));

  15.     return sch_direct_xmit(skb, q, dev, txq, root_lock);//用于发送数据包
  16. }
  17. * Returns to the caller:
  18.  *                0 - queue is empty or throttled.
  19.  *                >0 - queue is not empty.
  20.  */
  21. int sch_direct_xmit(struct sk_buff *skb, struct Qdisc *q,
  22.          struct net_device *dev, struct netdev_queue *txq,
  23.          spinlock_t *root_lock)
  24. {
  25.     int ret = NETDEV_TX_BUSY;

  26.     /* And release qdisc */
  27.     spin_unlock(root_lock);

  28.     HARD_TX_LOCK(dev, txq, smp_processor_id());
  29.     if (!netif_tx_queue_stopped(txq) && !netif_tx_queue_frozen(txq)) //设备没有被停止,且发送队列没有被冻结
  30.         ret = dev_hard_start_xmit(skb, dev, txq); //发送数据包

  31.     HARD_TX_UNLOCK(dev, txq);

  32.     spin_lock(root_lock);

  33.     if (dev_xmit_complete(ret)) {
  34.         /* Driver sent out skb successfully or skb was consumed */
  35. //发送成功,返回新的队列的长度
  36.         ret = qdisc_qlen(q);
  37.     } else if (ret == NETDEV_TX_LOCKED) {
  38.         /* Driver try lock failed */
  39.         ret = handle_dev_cpu_collision(skb, txq, q);
  40.     } else {
  41.         /* Driver returned NETDEV_TX_BUSY - requeue skb */
  42.         if (unlikely (ret != NETDEV_TX_BUSY && net_ratelimit()))
  43.             printk(KERN_WARNING "BUG %s code %d qlen %d\n",
  44.              dev->name, ret, q->q.qlen);
  45.          //设备繁忙,重新调度发送(利用softirq)
  46.         ret = dev_requeue_skb(skb, q);
  47.     }

  48.     if (ret && (netif_tx_queue_stopped(txq) ||
  49.          netif_tx_queue_frozen(txq)))
  50.         ret = 0;

  51.     return ret;
  52. }

4.       我们看一下下面的发送函数。

 从此函数可以看出,当驱动使用发送队列的时候会循环从队列中取出包发送
  
而不使用队列的时候只发送一次,如果没发送成功就直接丢弃


点击(此处)折叠或打开

  1. struct netdev_queue *txq)
  2. {
  3.     const struct net_device_ops *ops = dev->netdev_ops;//驱动程序的函数集
  4.     int rc = NETDEV_TX_OK;

  5.     if (likely(!skb->next)) {
  6.         if (!list_empty(&ptype_all))
  7.             dev_queue_xmit_nit(skb, dev);//如果dev_add_pack加入的是ETH_P_ALL,那么就会复制一份给你的回调函数。

  8.         /*
  9.          * If device doesnt need skb->dst, release it right now while
  10.          * its hot in this cpu cache
  11.          */
  12.         if (dev->priv_flags & IFF_XMIT_DST_RELEASE)
  13.             skb_dst_drop(skb);

  14.         skb_orphan_try(skb);

  15.         if (vlan_tx_tag_present(skb) &&
  16.          !(dev->features & NETIF_F_HW_VLAN_TX)) {
  17.             skb = __vlan_put_tag(skb, vlan_tx_tag_get(skb));
  18.             if (unlikely(!skb))
  19.                 goto out;

  20.             skb->vlan_tci = 0;
  21.         }

  22.         if (netif_needs_gso(dev, skb)) {
  23.             if (unlikely(dev_gso_segment(skb)))
  24.                 goto out_kfree_skb;
  25.             if (skb->next)
  26.                 goto gso;
  27.         } else {
  28.             if (skb_needs_linearize(skb, dev) &&
  29.              __skb_linearize(skb))
  30.                 goto out_kfree_skb;

  31.             /* If packet is not checksummed and device does not
  32.              * support checksumming for this protocol, complete
  33.              * checksumming here.
  34.              */
  35.             if (skb->ip_summed == CHECKSUM_PARTIAL) {
  36.                 skb_set_transport_header(skb, skb->csum_start -
  37.                      skb_headroom(skb));
  38.                 if (!dev_can_checksum(dev, skb) &&
  39.                  skb_checksum_help(skb))
  40.                     goto out_kfree_skb;
  41.             }
  42.         }

  43.         rc = ops->ndo_start_xmit(skb, dev);//调用网卡的驱动程序发送数据。不同的网络设备有不同的发送函数
  44.         trace_net_dev_xmit(skb, rc);
  45.         if (rc == NETDEV_TX_OK)
  46.             txq_trans_update(txq);
  47.         return rc;
  48.     }

  49. gso:
  50.     do {
  51.         struct sk_buff *nskb = skb->next;

  52.         skb->next = nskb->next;
  53.         nskb->next = NULL;

  54.         /*
  55.          * If device doesnt need nskb->dst, release it right now while
  56.          * its hot in this cpu cache
  57.          */
  58.         if (dev->priv_flags & IFF_XMIT_DST_RELEASE)
  59.             skb_dst_drop(nskb);

  60.         rc = ops->ndo_start_xmit(nskb, dev); //调用网卡的驱动程序发送数据。不同的网络设备有不同的发送函数
  61.         trace_net_dev_xmit(nskb, rc);
  62.         if (unlikely(rc != NETDEV_TX_OK)) {
  63.             if (rc & ~NETDEV_TX_MASK)
  64.                 goto out_kfree_gso_skb;
  65.             nskb->next = skb->next;
  66.             skb->next = nskb;
  67.             return rc;
  68.         }
  69.         txq_trans_update(txq);
  70.         if (unlikely(netif_tx_queue_stopped(txq) && skb->next))
  71.             return NETDEV_TX_BUSY;
  72.     } while (skb->next);

  73. out_kfree_gso_skb:
  74.     if (likely(skb->next == NULL))
  75.         skb->destructor = DEV_GSO_CB(skb)->destructor;
  76. out_kfree_skb:
  77.     kfree_skb(skb);
  78. out:
  79.     return rc;
  80. }

5.       下面看一下dev_queue_xmit_nit函数。对于通过socket(AF_PACKET,SOCK_RAW,htons(ETH_P_ALL))创建的原始套接口,不但可以接受从外部输入的数据包,而且对于由于本地输出的数据包,如果满足条件,也可以能接受。

   该函数就是用来接收由于本地输出的数据包,在链路层的输出过程中,会调用此函数,将满足条件的数据包输入到RAW套接口,

点击(此处)折叠或打开

  1. static void dev_queue_xmit_nit(struct sk_buff *skb, struct net_device *dev)
  2. {
  3.     struct packet_type *ptype;

  4. #ifdef CONFIG_NET_CLS_ACT
  5.     if (!(skb->tstamp.tv64 && (G_TC_FROM(skb->tc_verd) & AT_INGRESS)))
  6.         net_timestamp_set(skb);-----------------(1)
  7. #else
  8.     net_timestamp_set(skb);
  9. #endif

  10.     rcu_read_lock();
  11.     list_for_each_entry_rcu(ptype, &ptype_all, list) {-----------------(2)
  12.         /* Never send packets back to the socket
  13.          * they originated from - MvS (miquels@drinkel.ow.org)
  14.          */
  15.         if ((ptype->dev == dev || !ptype->dev) &&
  16.          (ptype->af_packet_priv == NULL ||
  17.          (struct sock *)ptype->af_packet_priv != skb->sk)) {-----------------(3)
  18.             struct sk_buff *skb2 = skb_clone(skb, GFP_ATOMIC); -----------------(4)
  19.             if (!skb2)
  20.                 break;

  21.             /* skb->nh should be correctly
  22.              set by sender, so that the second statement is
  23.              just protection against buggy protocols.
  24.              */
  25.             skb_reset_mac_header(skb2);

  26.             if (skb_network_header(skb2) < skb2->data ||
  27.              skb2->network_header > skb2->tail) {
  28.                 if (net_ratelimit())
  29.                     printk(KERN_CRIT "protocol %04x is "
  30.                      "buggy, dev %s\n",
  31.                      ntohs(skb2->protocol),
  32.                      dev->name);
  33.                 skb_reset_network_header(skb2); -----------------(5)
  34.             }

  35.             skb2->transport_header = skb2->network_header;
  36.             skb2->pkt_type = PACKET_OUTGOING;
  37.             ptype->func(skb2, skb->dev, ptype, skb->dev); -----------------(6)
  38.         }
  39.     }
  40.     rcu_read_unlock();
  41. }

说明:

(1)       记录该数据包输入的时间戳

(2)       遍历ptype_all链表,查找所有符合输入条件的原始套接口,并循环将数据包输入到满足条件的套接口

(3)       数据包的输出设备与套接口的输入设备相符或者套接口不指定输入设备,并且该数据包不是有当前用于比较的套接口输出,此时该套接口满足条件,数据包可以输入

(4)       由于该数据包是额外输入到这个原始套接口的,因此需要克隆一个数据包

(5)       校验数据包是否有效

(6)       将数据包输入原始套接口

6.       对于lookback设备来说处理有些不同。它的hard_start_xmit函数是loopback_xmit

net/lookback.c文件中,定义的struct net_device_ops loopback_ops结构体

点击(此处)折叠或打开

  1. static const struct net_device_ops loopback_ops = {
  2.     .ndo_init = loopback_dev_init,
  3.     .ndo_start_xmit= loopback_xmit,
  4.     .ndo_get_stats64 = loopback_get_stats64,
  5. };

从这里可以看到起发送函数为loopback_xmit函数。

点击(此处)折叠或打开

  1. static netdev_tx_t loopback_xmit(struct sk_buff *skb,
  2.                  struct net_device *dev)
  3. {
  4.     struct pcpu_lstats *lb_stats;
  5.     int len;

  6.     skb_orphan(skb);

  7.     skb->protocol = eth_type_trans(skb, dev);

  8.     /* it's OK to use per_cpu_ptr() because BHs are off */
  9.     lb_stats = this_cpu_ptr(dev->lstats);

  10.     len = skb->len;
  11.     if (likely(netif_rx(skb) == NET_RX_SUCCESS)) {//直接调用了netif_rx进行了接收处理
  12.         u64_stats_update_begin(&lb_stats->syncp);
  13.         lb_stats->bytes += len;
  14.         lb_stats->packets++;
  15.         u64_stats_update_end(&lb_stats->syncp);
  16.     }

  17.     return NETDEV_TX_OK;
  18. }

7.    已经有了dev_queue_xmit函数,为什么还需要软中断来发送呢?

dev_queue_xmit是对skb做些最后的处理并且第一次尝试发送,软中断是将前者发送失败或者没发完的包发送出去。

主要参考文献:

Linux发送函数dev_queue_xmit分析  http://shaojiashuai123456.iteye.com/blog/842236 

TC流量控制实现分析(初步)  http://blog.csdn.net/wwwlkk/article/details/5929308

Linux内核源码剖析 TCP/IP实现



阅读(440) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~