Chinaunix首页 | 论坛 | 博客
  • 博客访问: 245515
  • 博文数量: 32
  • 博客积分: 557
  • 博客等级: 中士
  • 技术积分: 431
  • 用 户 组: 普通用户
  • 注册时间: 2011-04-20 23:05
文章分类

全部博文(32)

文章存档

2015年(4)

2014年(2)

2012年(4)

2011年(22)

分类: LINUX

2015-07-04 00:36:07

Linux下的网卡驱动中通常会提供类似XXX_rx的接收函数

该函数处理与具体硬件相关的寄存器操作

包括中断检查,数据状态检查,错误检查等

在确认有数据抵达后读取数据或从DMA的接收环中获取数据地址

XXX_rx函数以skb为元数据结构组织报文数据

随后调用内核接口函数netif_rx或netif_receive_skb

这里会涉及到软中断的处理,NAPI的接收方式

但是最后都会走netif_receive_skb函数

 

现在内核中使用了RPS机制

将报文分散到各个cpu的接收队列中进行负载均衡处理

在netif_receive_skb函数中进行了封装

 

真正的数据处理从__netif_receive_skb_core函数开始

现在可以将该函数视为协议栈的入口函数

首先进行skb中报文头元数据的调整

如果是vlan报文则先从数据中提取至vlan_tci字段

将vlan标签的4个字节从数据移除

即在调用deliver_skb向上层传递报文数据时不含vlan标签

 

ptype_all链表的处理主要用于抓包

在应用程序中注册PF_PACKET族ETH_P_ALL的socket便可以得到所有的输入报文

也可以用于实现自定义的协议类型报文收发

随后内核会丢弃无法识别的报文

也可以在内核模块中使用dev_add_pack向ptype_all注册自定义的处理函数

 

如果接口上配置了输入流控

则根据具体的队列和分类规则决定继续处理或丢弃报文

 

对于vlan数据报文

将skb记录的输入接口修改为vlan虚接口

比如使用vconfig配置的eth0.100虚接口

再重复上述处理

 

内核提供了netdev_rx_handler_register接口函数向接口注册rx_handler

比如为网桥下的接口注册br_handle_frame函数

为bonding接口注册bond_handle_frame函数

这相对于老式的网桥处理更灵活

有了这个机制也可以在模块中自行注册处理函数

 

网桥的处理包括向上层提交和转发

发往本地的报文会修改入接口为网桥虚接口如br0

调用netif_receive_skb重新进入协议栈处理

对于上层协议栈见到的只有桥虚接口

需要转发的报文根据转发表进行单播或广播发送

netfilter在网桥的处理路径中从br_handle_frame到br_dev_queue_push_xmit设置了5个hook点

根据nf_call_iptables的配置还会经过NFPROTO_IPV4的hook点等

内核注册的由br_nf_ops数组中定义

可在模块中自行向NFPROTO_BRIDGE族的几个hook点注册函数

ebtables在netfilter框架NFPROTO_BRIDGE中实现了桥二层过滤机制

配合应用程序ebtables可在桥下自定义相关规则

 

处理完接口上的rx_handler后便根据具体的3层协议类型在ptype_base中寻找处理函数

比如ETH_P_IP则调用ip_rcv,ETH_P_IPV6则调用ipv6_rcv

这些函数都由dev_add_pack注册

可在模块中自定义协议类型处理函数

如果重复定义相同协议的处理函数则要注意报文的修改对后续流程的影响

 

IP报文进入ip_rcv后进行简单的检查便进入路由选择

根据路由查找结果调用ip_local_deliver向上层提交或调用ip_forward进行转发

向上层提交前会进行IP分片的重组

在ip_local_deliver_finish中会根据报文中4层协议类型调用对应的处理函数

处理函数由接口函数inet_add_protocol注册

针对TCP或UDP进行不同处理,最后唤醒应用程序接收数据

向外发送和转发数据经由ip_output函数

包括IP的分片,ARP学习,MAC地址的修改或填充等

netfilter在从ip_rcv到ip_output间设置了5个hook点

向各个点的链表中注册处理函数或使用iptables工具自定义规则

实现报文处理的行为控制

 

报文的发送最后汇聚到队列发送函数dev_queue_xmit

在接口up的时候dev_activate会创建默认的队列规则

这里也涉及到接口驱动初始化的时候软件多队列与硬件多队列

配合tc工具可以在报文发送前进行流量控制等

 

最终报文发送到dev_hard_start_xmit调用接口注册的动作函数ndo_start_xmit

发送前会检查ptype_all链表,支持抓包处理等

如果是虚拟接口则通常调用其对应物理接口的发送函数

到这里内核对报文的控制便结束了

根据不同网卡驱动的实现,操作寄存器等由物理层将数据发送出去

 

整个调用链相对较长

每个点都包含大量的细节

主线都是围绕元数据结构skb的处理

 

阅读(2480) | 评论(0) | 转发(0) |
0

上一篇:Linux kernel IP层报文处理流程

下一篇:没有了

给主人留下些什么吧!~~