我是靠谱客的博主 甜蜜白云,最近开发中收集的这篇文章主要介绍linux 内核网络协议栈,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

Linux网络协议栈之数据包处理过程 

 

 

1前言

本来是想翻译《The journey of a packet through the linux 2.4 network stack》这篇文章的。但在查阅相关的资料时,发现需要补充一些技术细节,才使得我这种菜鸟理解更加深刻,所以综合了上面两篇文档,在加上自己的裁减和罗嗦,就有了下面的文字。我不知道这是否侵犯了作者权益。如果有的话,请告知,我会及时删除这篇拼凑起来的文档。

引用作者Harald Welte的话:我毫无疑问不是内核导师级人物,也许此文档的信息是错误的。所以不要对此期望太高了,我也感激你们的批评和指正。

这篇文档是基于x86体系结构和转发IP分组的。

1

数据包在Linux内核链路层路径

 

数据包在Linux内核链路层路径

2 接收分组

2.1 接收中断

如果网卡收到一个和自己MAC地址匹配或链路层广播的以太网帧,它就会产生一个中断。此网卡的驱动程序会处理此中断:

  • 从DMA/PIO或其他得到分组数据,写到内存里去;
  •   接着,会分配一个新的套接字缓冲区skb,并调用与协议无关的、网络设备均支持的通用网络接收处理函数netif_rx(skb)。netif_rx()函数让内核准备进一步处理skb。
  • 然后,skb会进入到达队列以便CPU处理(对于多核CPU而言,每个CPU维护一个队列)。如果FIFO队列已满,就会丢弃此分组。在skb排队后,调用__cpu_raise_softirq()标记NET_RX_SOFTIRQ软中断,等待CPU执行。
  •   至此,netif_rx()函数调用结束,返回调用者状况信息(成功还是失败等)。此时,中断上下文进程完成任务,数据分组继续被上层协议栈处理。

2.2 softirq 和 bottom half

内核2.4以后,整个协议栈不再使用bottom half(下半文,没找到好的翻译),而是被软中断softirq取代。软中断softirq优势明显,可以同时在多个CPU上执行;而bottom half一次只能在一个CPU上执行,即在多个CPU执行时严格保持串行。

中断服务程序往往都是在CPU关中断的条件下执行的,以避免中断嵌套而使控制复杂化。但是CPU关中断的时间不能太长,否则容易丢失中断信号。为此,Linux将中断服务程序一分为二,各称作“Top Half”和“Bottom Half”。前者通常对时间要求较为严格,必须在中断请求发生后立即或至少在一定的时间限制内完成。因此为了保证这种处理能原子地完成,Top Half通常是在CPU关中断的条件下执行的。具体地说,Top Half的范围包括:从在IDT中登记的中断入口函数一直到驱动程序注册在中断服务队列中的ISR。而Bottom Half则是Top Half根据需要来调度执行的,这些操作允许延迟到稍后执行,它的时间要求并不严格,因此它通常是在CPU开中断的条件下执行的,比如网络底层操作就是这样,由于某些原因,中断并没有立刻响应,而是先记录下来,等到可以处理这些中断的时候就一块处理了。但是,Linux的这种Bottom Half(以下简称BH)机制有两个缺点,也即:(1)在任意一时刻,系统只能有一个CPU可以执行Bottom Half代码,以防止两个或多个CPU同时来执行Bottom Half函数而相互干扰。因此BH代码的执行是严格“串行化”的。(2)BH函数不允许嵌套。这两个缺点在单CPU系统中是无关紧要的,但在SMP系统中却是非常致命的。因为BH机制的严格串行化执行显然没有充分利用SMP系统的多CPU特点。为此,Linux2.4内核在BH机制的基础上进行了扩展,这就是所谓的“软中断请求”(softirq)机制。Linux的softirq机制是与SMP紧密不可分的。为此,整个softirq机制的设计与实现中自始自终都贯彻了一个思想:“谁触发,谁执行”(Who marks,Who runs),也即触发软中断的那个CPU负责执行它所触发的软中断,而且每个CPU都由它自己的软中断触发与控制机制。这个设计思想也使得softirq 机制充分利用了SMP系统的性能和特点。

2.3 NET_RX_SOFTIRQ 网络接收软中断

这两篇文档描述的各不相同,侧重不一。在这里,只好取重避轻。

这一阶段会根据协议的不同来处理数据分组。CPU开始处理软中断do_softirq(),,接着net_rx_action()处理前面标记的NET_RX_SOFTIRQ,把出对列的skb送入相应列表处理(根据协议不同到不同的列表)。比如,IP分组交给ip_rcv()处理,ARP分组交给arp_rcv()处理等。

基于网络设备处理协议类型

 

2.4 处理IPv4分组

下面以IPv4为例,讲解IPv4分组在高层的处理。

linux内核协议栈之网络层

 

linux内核协议栈之网络层

linux内核协议栈之网络层2

以上两个图都是一个意思,可以对比着看。

ip_rcv()函数验证IP分组,比如目的地址是否本机地址,校验和是否正确等。若正确,则交给netfilter的NF_IP_PRE_ROUTING钩子(关于netfilter细节可以参考Hacking the Linux Kernel Network Stack);否则,丢弃。

到了ip_rcv_finish()函数,数据包就要根据skb结构的目的或路由信息各奔东西了。

  • 判断数据包的去向,ip_local_deliver() 处理到本机的数据分组、ip_forward() 处理需要转发的数据分组、ip_mr_input() 转发组播数据包。如果是转发的数据包,还需要找出出口设备和下一跳。

 

  • 分析和处理IP选项。(并不是处理所有的IP选项)。

具体来说,从skb->nh(IP头,由netif_receive_skb初始化)结构得到IP地址:struct net_device *dev = skb->dev; struct iphdr *iph = skb->nh.iph;

而skb->dst或许包含了数据分组到达目的地的路由信息,如果没有,则需要查找路由,如果最后结果显示目的地不可达,那么就丢弃该数据包:

if (skb->dst == NULL) {

  if (ip_route_input(skb, iph->daddr, iph->saddr, iph->tos, dev))

     goto drop;

}

ip_rcv_finish()函数最后执行dst_input,决定数据包的下一步的处理。

2.4.1 转发数据包

转发数据包主要包括一下步骤:

  • l  处理IP头选项。如果需要的话,会记录本地IP地址和时间戳;
  • l  确认分组可以被转发;
  • l  将TTL减一,如果TTL为0,则丢弃分组;
  • l  根据MTU大小和路由信息,对数据分组进行分片,如果需要的话;
  • l  将数据分组送往外出设备。

如果由于某种原因,数据分组不能被转发,那么就回应ICMP消息来说明不能转发的原因。在对转发的分组进行各种检查无误后,执行ip_forward_finish,准备发送。然后执行dst_output(skb)。无论是转发的分组,还是本地产生的分组,都要经过dst_output(skb)到达目的主机。IP头在此时已经完成就绪。dst_output(skb)函数要执行虚函数output(单播的话为ip_output,多播为ip_mc_output)。最后,ip_finish_output进入邻居子系统。

下图是转发数据包的流程图:

转发数据包

2.4.1 本地处理

int ip_local_deliver(struct sk_buff *skb)

{

    if (skb->nh.iph->frag_off & htons(IP_MF|IP_OFFSET)) {

        skb = ip_defrag(skb, IP_DEFRAG_LOCAL_DELIVER);

        if (!skb)

            return 0;

    }

 

    return NF_HOOK(PF_INET, NF_IP_LOCAL_IN, skb, skb->dev, NULL,

               ip_local_deliver_finish);

}

最后执行ip_local_deliver_finish。

以下属ip_local_deliver_finish函数流程图:

 

在L4协议中,TCP和UDP是运行在内核空间的,而RAW则可以运行在用户空间中。

TCP处理见下图:

 

UDP处理略。

数据分组的发送:

ip_queue_xmit检查socket结构体中是否含有路由信息,如果没有则执行ip_route_output_flow查找,并存储到sk数据结构中。如果找不到,则丢弃数据包。

至此,数据分组的接受和处理工作就告一段落了,至于于此相对的数据分组的发送,我就贴个图吧,具体细节可参考The Linux® Networking Architecture: Design and Implementation of Network Protocols in the Linux Kernel  Prentice Hall   August 01, 2004

dev_queue_xmit()处理发送分组

 

                         dev_queue_xmit()处理发送分组

附一张Linux 2.4 核的netfilter框架下分组的走向图:

netfilter

来自链接:   
http://ftp.gnumonks.org/pub/doc/packet-journey-2.4.html
http://m.linuxjournal.com/article/4852

这篇文档描述了网络分组在linux内核2.4协议栈的处理过程。

 

内核的路由部分是是网络中重要部分,目前在Linux内核中默认的路由查找算法使用的是Hash查找,所以你会看到很多的数据结构是XXX_hash什么之类(例如fn_hash)。Linux内核从2.1开始就支持基于策略的路由,那么什么是基于策略的路由呢?我们一般的最基本的路由转发是考虑IP包的目的地址,但是有些时候不仅仅是这些,还有例如IP协议,传输端口等之类的考虑因素,所以采用所谓基于策略的路由。

      或许这样理解更好,Linux默认有三种策略路由:本地路由,主路由和默认路由,那么与之对应的就是三张路由表:本地路由表,主路由表和默认路由表。

      那么我们需要理解是什么呢?当然是路由怎么转的过程。在这之前,先看看所涉及数据结构有哪些。

      介绍下面之前我们首先需要知道内核常用的结构之间的操作手法。说道这里不得不先说一下内核的链表结构。

      内核的链表结构主要是用来表示连接关系的

  1. struct hlist_head {

  2. struct hlist_node *first;

  3. };

  4.  
  5. struct hlist_node {

  6. struct hlist_node *next, **pprev; // 看这个你就知道,内核链表一般是双向链表(其实还是循环链表)

  7. };

     那么下面的很多结构之间的链接都是通过这样的链表的!但是就算我通过一个结构找到另一个结构的链表字段的时候,怎么确定结构真正的首地址呢?其实我们都不用担心,内核采取container_of这个宏定义来处理的!

 

  1. #define container_of(ptr, type, member) ({

  2. const typeof( ((type *)0)->member ) *__mptr = (ptr);

  3. (type *)( (char *)__mptr - offsetof(type,member) );})


很简单,其实就是通过偏移来做的,很easy、

  1. struct fib_table {

  2. struct hlist_node tb_hlist;// hash节点(通过ipv4的hlist_head可以得到属于自己的路由信息表FIB,这个就是链接字段)

  3. u32 tb_id; // 标识符(例如:本地路由,主路由,默认路由)

  4. unsigned tb_stamp; // 时间戳

  5. int tb_default;// 路由信息结构队列序号

  6. int (*tb_lookup)(struct fib_table *tb, const struct flowi *flp, struct fib_result *res);// 查找函数

  7. int (*tb_insert)(struct fib_table *, struct fib_config *);// 插入函数

  8. int (*tb_delete)(struct fib_table *, struct fib_config *);// 删除路由函数

  9. int (*tb_dump)(struct fib_table *table, struct sk_buff *skb,

  10. struct netlink_callback *cb); // 用于路由转发

  11. int (*tb_flush)(struct fib_table *table); // 移除路由信息结构

  12. void (*tb_select_default)(struct fib_table *table, // 设置默认路由

  13. const struct flowi *flp, struct fib_result *res);

  14.  
  15. unsigned char tb_data[0]; // 注意这个特殊字段,标识结构的结尾,分配fib_table同时分配fn_hash结构

  16. }; // 也就是fib_table之后就是fn_hash结构

 

 

// 先介绍一下“路由区”定义:fn_zone,举个例子,子网掩码长度相同的认为是相同的路由区(ok)

  1. struct fn_hash { // 路由区结构体的数组( 包含所有的额路由区的情况 )

  2. struct fn_zone *fn_zones[33];// 路由区分成33份,why?仔细想想,子网掩码长度是1~32,0长度掩码代表网关,那么加起来就是33,即:fn_zone[0]的掩码是0.0.0.0,fn_zone[1]是10000000.00000000.00000000.0000000这一类 等等

  3. struct fn_zone *fn_zone_list;// 指向第一个活动的路由区

  4. };

  5. struct fn_zone { // 路由区结构体(所有的子网长度相等的被分在同一个路由区)

  6. struct fn_zone *fz_next; // 指向下一个不为空的路由区结构,那么所有的路由区就能链接起来

  7. struct hlist_head *fz_hash; // 有一个hash数组,<span style="font-family:Arial, Helvetica, sans-serif;">用来hash得到一个hlist_head,是很多的fib_node通过自己的字段连接在这个队列中,那么通过这个fz_hahs字段可以找到fib_node所在的队列的头hlist_head,进而找到对应的fib_node ( 注意:上面说的hash数组的长度是fz_divisor长度)</span>

  8. int fz_nent; // 包含的路由节总数

  9. int fz_divisor; // hash头数量(上面说了)

  10. u32 fz_hashmask; // 确定hash头的掩码

  11. #define FZ_HASHMASK(fz) ((fz)->fz_hashmask)

  12.  
  13. int fz_order; // 子网掩码位数

  14. __be32 fz_mask; // 子网掩码

  15. #define FZ_MASK(fz) ((fz)->fz_mask) // 获取子网掩码的宏定义

  16. };

 

 

 

  1. struct fib_node { // 路由节点结构体( 子网相等的路由被分在一起 )

  2. struct hlist_node fn_hash; // 链接到hash表节点( 注意到我们上面所说的fn_zone中的fz_hash了吗?fz_hash哈希之后得到的结果就是fib_node的这个字段,所以这个字段同样仅仅是作为链接作用而已 )

  3. struct list_head fn_alias;// 别名?其实更好的理解是这样的:虽然现在所有的路由都是同一个子网了,但是路由之间还会有其他的信息不同例如tos,路由类型,等等。所以依然存在不同的路由,所以这些都是通过fn_alias来区分。

  4. __be32 fn_key; // 路由别名队列:即这个node下面所有的具体路由(不同的fn_alias的)都在这个队列中

  5. struct fib_alias fn_embedded_alias; // 分配路由节点的时候同时也分配一个路由别名,所以称为嵌入式的~

  6. };

 

 

  1. struct fib_alias { // 路由别名结构,这个结构基本就是最后一次路由筛选了

  2. struct list_head fa_list; // 这个是用于链接到fib_node节点中的,看上面的结构体的第二个字段的类型你就懂了~~~~~~

  3. struct fib_info *fa_info; // 这是很重要的字段:顾名思义,就是具体怎么处置这个数据包的操作等

  4. u8 fa_tos; // 服务类型TOS

  5. u8 fa_type; // 路由类型

  6. u8 fa_scope; // 路由范围

  7. u8 fa_state; // 路由状态

  8. #ifdef CONFIG_IP_FIB_TRIE

  9. struct rcu_head rcu;

  10. #endif

  11. };

 

 
  1. struct fib_info { // 具体怎么路由这个数据包的信息

  2. struct hlist_node fib_hash; // 链接到fib_info_hash队列

  3. struct hlist_node fib_lhash; // 链接到fib_hash_laddrhash队列

  4. struct net *fib_net; // 所属网络空间

  5. int fib_treeref; // 路由信息结构使用计数器

  6. atomic_t fib_clntref; // 释放路由信息结构(fib)计数器

  7. int fib_dead; // 标志路由被删除了

  8. unsigned fib_flags; // 标识位

  9. int fib_protocol; // 安装路由协议

  10. __be32 fib_prefsrc; // 指定源IP,源地址和目的地址组成一个路由

  11. u32 fib_priority; // 路由优先级

  12. u32 fib_metrics[RTAX_MAX]; // 保存负载值(例如MTU,MSS)

  13. #define fib_mtu fib_metrics[RTAX_MTU-1] // MTU值

  14. #define fib_window fib_metrics[RTAX_WINDOW-1] // 窗口值

  15. #define fib_rtt fib_metrics[RTAX_RTT-1] // RTT值

  16. #define fib_advmss fib_metrics[RTAX_ADVMSS-1] // MSS值(对外公开的)

  17. int fib_nhs; // 倒数第二个字段即:跳转结构的数组个数

  18. #ifdef CONFIG_IP_ROUTE_MULTIPATH

  19. int fib_power; // 支持多路径时候使用

  20. #endif

  21. struct fib_nh fib_nh[0]; // 跳转结构(就是该怎么路由)

  22. #define fib_dev fib_nh[0].nh_dev

  23. };

 

对于上面的fib_nh[0],这样的操作手法在内核中也是常见的。代表会有这个字段的存在,但是具体是几个并不知道,因为可能是动态的,所以需要一个计数表示,也就是fib_power

 

OK,主要的数据结构已经介绍,后面的结构会边说边介绍,下面我们根据路由转发的顺序来梳理一下思路:

 

数据包的路由是通过函数ip_route_input来处理的,看这个函数:

 

 

extern int  ip_route_input(struct sk_buff*, __be32 dst, __be32 src, u8 tos, struct net_device *devin);


参数有5个:

 

      skb: IP包缓冲区,

      dst: IP包的目的地址,

      src: IP包源地址,

      tos: 服务类型,

      devin: 输入的网络设备。

 

怎么运行的呢?首先这个函数需要查路由缓存(cache),如果找到了那么它给skb->dst赋值并返回,如是没找到,它会调用ip_route_input_slow去查询路由数据库。

 

这里我们需要理解几个问题: 首先路由缓存到底是什么结构,怎么查找,这个我们马上就会说到。再次我们需要知道所谓路由就是最终找到这个路由条目,得到目的地址(吓一跳),然后赋值给skb->dst,然后通过skb->dst->input(skb)就可以进行操作。第三需要注意,这里的操作分成两类:第一类是投到本地,即数据是发到本机的,那么调用ip_local_deliver将数据包发送给上一层进行处理;第二类是转发,调用ip_forward函数进行处理,转发出去!最后注意:当路由缓冲找不到所需要的路由项,那么最终需要再次到fib中去查找,也就是完整的一个查找过程。

 

下面具体看看路由缓存问题:

首先是怎么建立这个缓存的呢?其实这个问题不需要特意来说,因为后面肯定会说到,为什么呢?缓存总是由不存在到存在的,当不存在的时候只能使用查询路由信息库来处理,但是同时需要注意:更新缓存cache、这个时候就是建立cache的时候。所以在后面说到的路由信息库查询和cache的建立是一样的,先不说这个,先直接看在cache中处理。

cache的结构定义为:

 

static struct rt_hash_bucket    *rt_hash_table;


 

 

rt_hash_table就是路由cache,它是rt_hash_bucket结构。

  1. struct rt_hash_bucket {

  2. struct rtable *chain;

  3. }

注意chain是一个rtable结构,看下面:

  1. struct rtable

  2. {

  3. union

  4. {

  5. struct dst_entry dst; // 这是目的地址

  6. } u;

  7.  
  8. /* Cache lookup keys */

  9. struct flowi fl; // 注意在cache中的查找主要是通过路由键值和下面的信息

  10.  
  11. struct in_device *idev; // 设备

  12.  
  13. int rt_genid; // 路由id

  14. unsigned rt_flags; // 标识

  15. __u16 rt_type; // 路由类型

  16.  
  17. __be32 rt_dst; // 目的地址

  18. __be32 rt_src; // 源地址

  19. int rt_iif; // 入端口

  20.  
  21. /* Info on neighbour */

  22. __be32 rt_gateway; // 网关

  23.  
  24. /* Miscellaneous cached information */

  25. __be32 rt_spec_dst; /* RFC1122 specific destination */

  26. struct inet_peer *peer; /* long-living peer info */

  27. };


我们看一下查询的一小段代码:

 

  1. 2048 for (rth = rcu_dereference(rt_hash_table[hash].chain); rth;

  2. 2049 rth = rcu_dereference(rth->u.dst.rt_next)) {

  3. 2050 if (rth->fl.fl4_dst == daddr &&

  4. 2051 rth->fl.fl4_src == saddr &&

  5. 2052 rth->fl.iif == iif &&

  6. 2053 rth->fl.oif == 0 &&

  7. 2054 rth->fl.mark == skb->mark &&

  8. 2055 rth->fl.fl4_tos == tos &&

  9. 2056 rth->u.dst.dev->nd_net == net &&

  10. 2057 rth->rt_genid == atomic_read(&rt_genid)) {

  11. 2058 dst_use(&rth->u.dst, jiffies);

  12. 2059 RT_CACHE_STAT_INC(in_hit);

  13. 2060 rcu_read_unlock();

  14. 2061 skb->dst = (struct dst_entry*)rth;

  15. 2062 return 0;

  16. 2063 }

  17. 2064 RT_CACHE_STAT_INC(in_hlist_search);

  18. 2065 }


所以很清晰的看到匹配的所有字段。下面看看我们构造一下在cache中查找的结构图:

 

首先通过hash找到这个队列首部的chain,然后在chain的队列中进行匹配,如果匹配到那么OK,否则进行完整的查询。

 

OK,假如现在在缓存cache中并没有找到,那么执行ip_route_input_slow函数进行完整查询。

 

我们知道Linux最多可以支持255张路由表,默认有三张路由表,即本地路由表,主路由表和默认路由表,三个优先级递减(数字越大优先级越小),也就是查询顺序递减。我们先需要知道怎么样得到这三张路由表先。三张路由表就是三个规则,所以需要看看下面的路由信息结构规则结构体。

        表255: 本地路由表(local ) 本地接口地址,广播地址,已及NAT地址都放在这个表。该路由表由系统自动维护,管理员不能直接修改。
  表254: 主路由表(main ) 如果没有指明路由所属的表,所有的路由都默认都放在这个表里,一般来说,旧的路由工具(如route)所添加的路由都会加到这个表。一般是普通的路由。
  表253: 默认路由表 (default ) 一般来说默认的路由都放在这张表。
  表 0 :保留

看一下它们是怎么被初始化的:

  1. static int fib_default_rules_init(struct fib_rules_ops *ops)

  2. {

  3. int err;

  4.  
  5. err = fib_default_rule_add(ops, 0, RT_TABLE_LOCAL, FIB_RULE_PERMANENT); // 本地路由规则(本地路由表)

  6. if (err < 0)

  7. return err;

  8. err = fib_default_rule_add(ops, 0x7FFE, RT_TABLE_MAIN, 0); // 主路由规则(主路由表)

  9. if (err < 0)

  10. return err;

  11. err = fib_default_rule_add(ops, 0x7FFF, RT_TABLE_DEFAULT, 0); // 默认路由规则(默认路由表)

  12. if (err < 0)

  13. return err;

  14. return 0;

  15. }


 

  1. // 本地规则local_rule

  2. static struct fib_rule local_rule = {

  3. r_next: &main_rule, //下一条规则是主规则

  4. r_clntref: ATOMIC_INIT(2),

  5. r_table: RT_TABLE_LOCAL, // 指向本地路由表

  6. r_action: RTN_UNICAST, // 动作是返回路由

  7. };

 

  1. // 主规则main_rule

  2. static struct fib_rule main_rule = {

  3. r_next: &default_rule, // 下一条规则是默认规则

  4. r_clntref: ATOMIC_INIT(2),

  5. r_preference: 0x7FFE, // 默认规则的优先级32766

  6. r_table: RT_TABLE_MAIN, // 指向主路由表

  7. r_action: RTN_UNICAST, // 动作是返回路由

  8. };

 

 
  1. // 默认规则default rule

  2. static struct fib_rule default_rule = {

  3. r_clntref: ATOMIC_INIT(2),

  4. r_preference: 0x7FFF, // 默认规则的优先级32767

  5. r_table: RT_TABLE_DEFAULT, // 指默认路由表

  6. r_action: RTN_UNICAST, // 动作是返回路由

  7. };

 

注意:规则链的链头指向本地规则。

 

下面我们需要看看这个结构体:

 

  1. struct fib_rule // 规则结构体(在初始化的时候,会注册上面的三种规则,生成默认的三张表)

  2. {

  3. struct list_head list; // 用来链入路由规则函数队列中(fib_rules_ops,下面介绍)

  4. atomic_t refcnt; // 计数器

  5. int ifindex; // 网络设备id

  6. char ifname[IFNAMSIZ]; // 设备名称

  7. u32 mark; // 用于过滤作用

  8. u32 mark_mask; // 掩码

  9. u32 pref; // 优先级(例如上面代码中分别是0,0x7FEE,0x7FFF)

  10. u32 flags; // 标识位

  11. u32 table; // 路由函数表id(例如本地LOCAL,主路由MAIN...)

  12. u8 action; // 动作,即怎么去处理这个数据包

  13. u32 target;

  14. struct fib_rule * ctarget; // 当前规则

  15. struct rcu_head rcu;

  16. struct net * fr_net; // 网络空间结构指针

  17. };


同时看一下rule的规则函数:

 

  1. struct fib_rules_ops

  2. {

  3. int family; // 协议族ID

  4. struct list_head list; // 用于链接到网络空间队列中

  5. int rule_size; // 规则结构大小

  6. int addr_size; // 地址大小

  7. int unresolved_rules;

  8. int nr_goto_rules;

  9.  
  10. int (*action)(struct fib_rule *, // 动作函数指针

  11. struct flowi *, int,

  12. struct fib_lookup_arg *);

  13. int (*match)(struct fib_rule *, // 匹配函数指针

  14. struct flowi *, int);

  15. int (*configure)(struct fib_rule *, // 配置函数指针

  16. struct sk_buff *,

  17. struct nlmsghdr *,

  18. struct fib_rule_hdr *,

  19. struct nlattr **);

  20. int (*compare)(struct fib_rule *, // 对比函数指针

  21. struct fib_rule_hdr *,

  22. struct nlattr **);

  23. int (*fill)(struct fib_rule *, struct sk_buff *,

  24. struct nlmsghdr *, // 填写函数指针

  25. struct fib_rule_hdr *);

  26. u32 (*default_pref)(struct fib_rules_ops *ops); // 查找优先级函数指针

  27. size_t (*nlmsg_payload)(struct fib_rule *); // 统计负载数据能力函数指针

  28.  
  29. /* Called after modifications to the rules set, must flush

  30. * the route cache if one exists. */

  31. void (*flush_cache)(void); // 修改规则之后刷新缓存函数指针

  32.  
  33. int nlgroup; // 路由netlink组划分标识

  34. const struct nla_policy *policy; // netlink属性优先级

  35. struct list_head rules_list; // 路由规则队列

  36. struct module *owner; //

  37. struct net *fro_net; // 网络空间结构指针

  38. };

 

 

现在我们从宏观上应该有一个认识,当我们进入策略查找的时候,根据优先级,分别查找本地路由表->主路由表->默认路由表。

OK,我们需要看一下结构直接的关系:

ok,我们由规则找到了我们需要的三张表,三张表按照优先级的顺序进行查询,现在就以Local表为例进行下面具体的查询,看下图:

从图中我们可以看到四个等级查询:fib_table ---> fn_zone ---> fib_node ---> fib_info

> fib_table结构后面紧接着就是fn_hash数组,里面是33个数组元素,fn_hash[0]代表网关,fn_hash[1]代表子网掩码长度为一的情况... 为什么需要这样划分,因为我们知道,在匹配地址的时候遵循最长掩码优先原则,所以,精确度递减。  同时注意fn_zone_list指向第一个活动的路由区,将所有的路由区都链接在一起,从而提高查找的效率。fn_zone结构中最重要的就是fz_hash域了,它指向了一个hash table,这个hash table组织了这个区域下的所有路由项。( 一个fn_zone其实就是所有掩码长度相等的路由聚集在一起... )

 

> fn_zone路由区通过再次计算hash值,可以获得和自己相关的fib_node节点,fib_node节点是所有的子网相等的路由聚集在一起。

fn_key子网地址,也就是hash查找的关键字;fn_type表示路由类型,即到底要怎处理数据,例如:单播转发,本地,丢弃,NAT等等对于大多数情况,路由项都是单播转发类型的;fn_info就是保存下一跳的信息,它指向一个fib_info结构。

 

> 需要注意的是,一个fib_node对应着很多fib_info,因为即使是子网相等,也不一定是相等的路由,还有很多其他的因素。fib_info结构被组织成一个双向链表,表头为fib_info_list。下一跳的具体信息是fib_nh[]数组,它表示一个下一跳动作可以对应着多个物理的下一跳,这是linux支持的一个MULITPATH功能。

 

说到这来,大致的印象应该是有的,下面需要做的就是深入代码细节。

 

 

待续...  后面会介绍相关的代码...

 

 

NAPI 是 Linux 上采用的一种提高网络处理效率的技术,它的核心概念就是不采用中断的方式读取数据,而代之以首先采用中断唤醒数据接收的服务程序,然后 POLL 的方法来轮询数据。随着网络的接收速度的增加,NIC 触发的中断能做到不断减少,目前 NAPI 技术已经在网卡驱动层和网络层得到了广泛的应用,驱动层次上已经有 E1000 系列网卡,RTL8139 系列网卡,3c50X 系列等主流的网络适配器都采用了这个技术,而在网络层次上,NAPI 技术已经完全被应用到了著名的 netif_rx 函数中间,并且提供了专门的 POLL 方法--process_backlog 来处理轮询的方法;根据实验数据表明采用NAPI技术可以大大改善短长度数据包接收的效率,减少中断触发的时间。

 

但是 NAPI 存在一些比较严重的缺陷:

1.               对于上层的应用程序而言,系统不能在每个数据包接收到的时候都可以及时地去处理它,而且随着传输速度增加,累计的数据包将会耗费大量的内存,经过实验表明在 Linux 平台上这个问题会比在 FreeBSD 上要严重一些;

2.               另外一个问题是对于大的数据包处理比较困难,原因是大的数据包传送到网络层上的时候耗费的时间比短数据包长很多(即使是采用 DMA 方式),所以正如前面所说的那样,NAPI 技术适用于对高速率的短长度数据包的处理。

 

使用 NAPI 先决条件:

驱动可以继续使用老的 2.4 内核的网络驱动程序接口,NAPI 的加入并不会导致向前兼容性的丧失,但是 NAPI 的使用至少要得到下面的保证:

1.          要使用 DMA 的环形输入队列(也就是 ring_dma,这个在 2.4 驱动中关于 Ethernet 的部分有详细的介绍),或者是有足够的内存空间缓存驱动获得的包。

2.          在发送/接收数据包产生中断的时候有能力关断 NIC 中断的事件处理,并且在关断 NIC 以后,并不影响数据包接收到网络设备的环形缓冲区(以下简称 rx-ring)处理队列中。

NAPI 对数据包到达的事件的处理采用轮询方法,在数据包达到的时候,NAPI 就会强制执行dev->poll 方法。而和不像以前的驱动那样为了减少包到达时间的处理延迟,通常采用中断的方法来进行。

 

E1000网卡驱动程序对NAPI的支持:

上面已经介绍过了,使用NAPI需要在编译内核的时候选择打开相应网卡设备的NAPI支持选项,对于E1000网卡来说就是CONFIG_E1000_NAPI宏。

E1000网卡的初始化函数,也就是通常所说的probe方法,定义为e1000_probe():

static int __devinit e1000_probe(struct pci_dev *pdev, const struct pci_device_id *ent)

{

       struct net_device *netdev;

       struct e1000_adapter *adapter;

       static int cards_found = 0;

       unsigned long mmio_start;

       int mmio_len;

       int pci_using_dac;

       int i;

       int err;

       uint16_t eeprom_data;



       if((err = pci_enable_device(pdev)))

              return err;

       /*

       在这里设置PCI设备的DMA掩码,如果这个设备支持DMA传输,则掩码置位。

       */

       if(!(err = pci_set_dma_mask(pdev, PCI_DMA_64BIT))) {

              pci_using_dac = 1;

       } else {

              if((err = pci_set_dma_mask(pdev, PCI_DMA_32BIT))) {

                     E1000_ERR("No usable DMA configuration, abortingn");

                     return err;

              }

              pci_using_dac = 0;

       }



       if((err = pci_request_regions(pdev, e1000_driver_name)))

              return err;



       pci_set_master(pdev);

       /*

       为e1000网卡对应的net_device结构分配内存。

       */

       netdev = alloc_etherdev(sizeof(struct e1000_adapter));

       if(!netdev) {

              err = -ENOMEM;

              goto err_alloc_etherdev;

       }



       SET_MODULE_OWNER(netdev);



       pci_set_drvdata(pdev, netdev);

       adapter = netdev->priv;

       adapter->netdev = netdev;

       adapter->pdev = pdev;

       adapter->hw.back = adapter;



       mmio_start = pci_resource_start(pdev, BAR_0);

       mmio_len = pci_resource_len(pdev, BAR_0);



       adapter->hw.hw_addr = ioremap(mmio_start, mmio_len);

       if(!adapter->hw.hw_addr) {

              err = -EIO;

              goto err_ioremap;

       }



       for(i = BAR_1; i <= BAR_5; i++) {

              if(pci_resource_len(pdev, i) == 0)

                     continue;

              if(pci_resource_flags(pdev, i) & IORESOURCE_IO) {

                     adapter->hw.io_base = pci_resource_start(pdev, i);

                     break;

              }

       }

       /*

       将e1000网卡驱动程序的相应函数注册到net_device结构的成员函数上。这里值得注意的是如果定义了设备的CONFIG_E1000_NAPI宏,则设备对应的poll方法被注册为e1000_clean。

       在网络设备 初始化时(net_dev_init()函数)将所有的设备的poll方法注册为系统默认函数process_backlog(),该函数的处理方法就是 从CPU相关队列softnet_data的输入数据包队列中读取skb,然后调用netif_receive_skb()函数提交给上层协议继续处理。 设备的poll方法是在软中断处理函数中调用的。

       */

       netdev->open = &e1000_open;

       netdev->stop = &e1000_close;

       netdev->hard_start_xmit = &e1000_xmit_frame;

       netdev->get_stats = &e1000_get_stats;

       netdev->set_multicast_list = &e1000_set_multi;

       netdev->set_mac_address = &e1000_set_mac;

       netdev->change_mtu = &e1000_change_mtu;

       netdev->do_ioctl = &e1000_ioctl;

       netdev->tx_timeout = &e1000_tx_timeout;

       netdev->watchdog_timeo = 5 * HZ;

#ifdef CONFIG_E1000_NAPI

       netdev->poll = &e1000_clean;

       netdev->weight = 64;

#endif

       netdev->vlan_rx_register = e1000_vlan_rx_register;

       netdev->vlan_rx_add_vid = e1000_vlan_rx_add_vid;

       netdev->vlan_rx_kill_vid = e1000_vlan_rx_kill_vid;

       /*

       这些就是利用ifconfig能够看到的内存起始地址,以及基地址。

       */

       netdev->irq = pdev->irq;

       netdev->mem_start = mmio_start;

       netdev->mem_end = mmio_start + mmio_len;

       netdev->base_addr = adapter->hw.io_base;



       adapter->bd_number = cards_found;



       if(pci_using_dac)

              netdev->features |= NETIF_F_HIGHDMA;



       /* MAC地址是存放在网卡设备的EEPROM上的,现在将其拷贝出来。 */

       e1000_read_mac_addr(&adapter->hw);

       memcpy(netdev->dev_addr, adapter->hw.mac_addr, netdev->addr_len);

       if(!is_valid_ether_addr(netdev->dev_addr)) {

              err = -EIO;

              goto err_eeprom;

       }

       /*

       这里初始化三个定时器列表,以后对内核Timer的实现进行分析,这里就不介绍了。

       */

       init_timer(&adapter->tx_fifo_stall_timer);

       adapter->tx_fifo_stall_timer.function = &e1000_82547_tx_fifo_stall;

       adapter->tx_fifo_stall_timer.data = (unsigned long) adapter;



       init_timer(&adapter->watchdog_timer);

       adapter->watchdog_timer.function = &e1000_watchdog;

       adapter->watchdog_timer.data = (unsigned long) adapter;



       init_timer(&adapter->phy_info_timer);

       adapter->phy_info_timer.function = &e1000_update_phy_info;

       adapter->phy_info_timer.data = (unsigned long) adapter;



       INIT_TQUEUE(&adapter->tx_timeout_task,

              (void (*)(void *))e1000_tx_timeout_task, netdev);

       /*

       这里调用网络设备注册函数将当前网络设备注册到系统的dev_base[]设备数组当中,并且调用设备的probe函数,对于以太网来说,就是ethif_probe()函数。相关的说明见内核网络设备操作部分的分析。

       调用关系:register_netdev ()->register_netdevice()

       */

       register_netdev(netdev);



       netif_carrier_off(netdev);

       netif_stop_queue(netdev);



e1000_check_options(adapter);

}

 

在分析网卡接收数据包的过程中,设备的open方法是值得注意的,因为在这里对网卡设备的各种数据结构进行了初始化,特别是环形缓冲区队列。E1000网卡驱动程序的open方法注册为e1000_open():

static int e1000_open(struct net_device *netdev)

{

       struct e1000_adapter *adapter = netdev->priv;

       int err;



       /* allocate transmit descriptors */



       if((err = e1000_setup_tx_resources(adapter)))

              goto err_setup_tx;



       /* allocate receive descriptors */



       if((err = e1000_setup_rx_resources(adapter)))

              goto err_setup_rx;



       if((err = e1000_up(adapter)))

              goto err_up;

}


       事 实上e1000_open()函数调用了e1000_setup_rx_resources()函数为其环形缓冲区分配资源。e1000设备的接收方式是 一种缓冲方式,能显著的降低CPU接收数据造成的花费,接收数据之前,软件需要预先分配一个 DMA 缓冲区,一般对于传输而言,缓冲区最大为 8Kbyte 并且把物理地址链接在描述符的 DMA 地址描述单元,另外还有两个双字的单元表示对应的 DMA 缓冲区的接收状态。

在 /driver/net/e1000/e1000/e1000.h 中对于环形缓冲队列描述符的数据单元如下表示:

struct e1000_desc_ring {     

       void *desc;            /* 指向描述符环状缓冲区的指针。*/      

       dma_addr_t dma;  /* 描述符环状缓冲区物理地址,也就是DMA缓冲区地址*/

       unsigned int size;    /* 描述符环状缓冲区的长度(用字节表示)*/      

       unsigned int count; /* 缓冲区内描述符的数量,这个是系统初始化时规定好的,它决定该环形缓冲区有多少描述符(或者说缓冲区)可用*/

       unsigned int next_to_use; /* 下一个要使用的描述符。*/

       unsigned int next_to_clean; /* 下一个待删除描述符。*/ 

       struct e1000_buffer *buffer_info; /* 缓冲区信息结构数组。*/

};
static int e1000_setup_rx_resources(struct e1000_adapter *adapter)

{

       /*将环形缓冲区取下来*/

       struct e1000_desc_ring *rxdr = &adapter->rx_ring;

       struct pci_dev *pdev = adapter->pdev;

       int size;



       size = sizeof(struct e1000_buffer) * rxdr->count;

       /*

       为每一个描述符缓冲区分配内存,缓冲区的数量由count决定。

       */

       rxdr->buffer_info = kmalloc(size, GFP_KERNEL);

       if(!rxdr->buffer_info) {

              return -ENOMEM;

       }

       memset(rxdr->buffer_info, 0, size);



       /* Round up to nearest 4K */



       rxdr->size = rxdr->count * sizeof(struct e1000_rx_desc);

       E1000_ROUNDUP(rxdr->size, 4096);

       /*

       调用pci_alloc_consistent()函数为系统分配DMA缓冲区。

       */

       rxdr->desc = pci_alloc_consistent(pdev, rxdr->size, &rxdr->dma);



       if(!rxdr->desc) {

              kfree(rxdr->buffer_info);

              return -ENOMEM;

       }

       memset(rxdr->desc, 0, rxdr->size);



       rxdr->next_to_clean = 0;

       rxdr->next_to_use = 0;



       return 0;

}

在e1000_up()函数中,调用request_irq()向系统申请irq中断号,然后将e1000_intr()中断处理函数注册到系统当中,系统有一个中断向量表irq_desc[](?)。然后使能网卡的中断。

接下来就是网卡处于响应中断的模式,这里重要的函数是 e1000_intr()中断处理函数,关于这个函数的说明在内核网络设备操作笔记当中,这里就不重复了,但是重点强调的是中断处理函数中对NAPI部分 的处理方法,因此还是将该函数的源码列出,不过省略了与NAPI无关的处理过程:

static irqreturn_t e1000_intr(int irq, void *data, struct pt_regs *regs)

{

       struct net_device *netdev = data;

       struct e1000_adapter *adapter = netdev->priv;

       uint32_t icr = E1000_READ_REG(&adapter->hw, ICR);

#ifndef CONFIG_E1000_NAPI

       unsigned int i;

#endif



       if(!icr)

              return IRQ_NONE; /* Not our interrupt */



#ifdef CONFIG_E1000_NAPI

       /*

       如果定义了采用NAPI模式接收数据包,则进入这个调用点。

首先调用netif_rx_schedule_prep(dev),确定设备处于运行,而且设备还没有被添加到网络层的 POLL 处理队列中,在调用 netif_rx_schedule之前会调用这个函数。

接下来调用 __netif_rx_schedule(dev),将设备的 POLL 方法添加到网络层次的 POLL 处理队列中去,排队并且准备接收数据包,在使用之前需要调用 netif_rx_reschedule_prep,并且返回的数为 1,并且触发一个 NET_RX_SOFTIRQ 的软中断通知网络层接收数据包。

处理完成。

       */

       if(netif_rx_schedule_prep(netdev)) {



              /* Disable interrupts and register for poll. The flush

               of the posted write is intentionally left out.

              */



              atomic_inc(&adapter->irq_sem);

              E1000_WRITE_REG(&adapter->hw, IMC, ~0);

              __netif_rx_schedule(netdev);

       }

#else

       /*

       在中断模式下,就会调用net_if()函数将数据包插入接收队列中,等待软中断处理。

       */

       for(i = 0; i < E1000_MAX_INTR; i++)

              if(!e1000_clean_rx_irq(adapter) &

                 !e1000_clean_tx_irq(adapter))

                     break;

#endif



       return IRQ_HANDLED;

}

下面介绍一下__netif_rx_schedule(netdev)函数的作用:

static inline void __netif_rx_schedule(struct net_device *dev)

{

       unsigned long flags;

       /*    获取当前CPU。   */

int cpu = smp_processor_id();



       local_irq_save(flags);

       dev_hold(dev);

       /*将当前设备加入CPU相关全局队列softnet_data的轮询设备列表中,不过值得注意的是,这个列表中的设备不一定都执行轮询接收数据包,这里的poll_list只是表示当前设备需要接收数据,具体采用中断还是轮询的方式,取决于设备提供的poll方法。*/

       list_add_tail(&dev->poll_list, &softnet_data[cpu].poll_list);

       if (dev->quota < 0)

/*对于e1000网卡的轮询机制,weight(是权,负担的意思)这个参数是64。而quota的意思是配额,限额。这两个参数在随后的轮询代码中出现频繁。*/

              dev->quota += dev->weight;

       else

              dev->quota = dev->weight;

       /*

       调用函数产生网络接收软中断。也就是系统将运行net_rx_action()处理网络数据。

       */

       __cpu_raise_softirq(cpu, NET_RX_SOFTIRQ);

       local_irq_restore(flags);

}

在内核网络设备操作阅读笔记当中已经介绍过net_rx_action()这个重要的网络接收软中断处理函数了,不过这里为了清楚的分析轮询机制,需要再次分析这段代码:

static void net_rx_action(struct softirq_action *h)

{

       int this_cpu = smp_processor_id();

       /*获取当前CPU的接收数据队列。*/

       struct softnet_data *queue = &softnet_data[this_cpu];

       unsigned long start_time = jiffies;

/*呵呵,这里先做个预算,限定我们只能处理这么多数据(300个)。*/

       int budget = netdev_max_backlog;



       br_read_lock(BR_NETPROTO_LOCK);

       local_irq_disable();

       /*

       进入一个循环,因为软中断处理函数与硬件中断并不是同步的,因此,我们此时并不知道数据包属于哪个设备,因此只能采取逐个查询的方式,遍历整个接收设备列表。

       */

       while (!list_empty(&queue->poll_list)) {

              struct net_device *dev;

              /*如果花费超过预算,或者处理时间超过1秒,立刻从软中断处理函数跳出,我想这可能是系统考虑效率和实时性,一次不能做过多的工作或者浪费过多的时间。*/

              if (budget <= 0 || jiffies - start_time > 1)

                     goto softnet_break;



              local_irq_enable();

/*从当前列表中取出一个接收设备。并根据其配额判断是否能够继续接收数据,如果配额不足(<=0),则立刻将该设备从设备列表中删除。并且再次插入队列当中,同时为该设备分配一定的配额,允许它继续处理数据包。

如果此时配额足够,则调用设备的 poll方法,对于e1000网卡来说,如果采用中断方式处理数据,则调用系统默认poll方法process_backlog(),而对于采用NAPI 来说,则是调用e1000_clean()函数了。记住这里第一次传递的预算是300 ^_^。*/

              dev = list_entry(queue->poll_list.next, struct net_device, poll_list);



              if (dev->quota <= 0 || dev->poll(dev, &budget)) {

                     local_irq_disable();

                     list_del(&dev->poll_list);

                     list_add_tail(&dev->poll_list, &queue->poll_list);

                     if (dev->quota < 0)

                            dev->quota += dev->weight;

                     else

                            dev->quota = dev->weight;

              } else {

                     dev_put(dev);

                     local_irq_disable();

              }

       }



       local_irq_enable();

       br_read_unlock(BR_NETPROTO_LOCK);

       return;



softnet_break:

       netdev_rx_stat[this_cpu].time_squeeze++;

       /*再次产生软中断,准备下一次数据包处理。*/

       __cpu_raise_softirq(this_cpu, NET_RX_SOFTIRQ);



       local_irq_enable();

       br_read_unlock(BR_NETPROTO_LOCK);

}

下面介绍一下e1000网卡的轮询poll处理函数e1000_clean(),这个函数只有定义了NAPI宏的情况下才有效:

#ifdef CONFIG_E1000_NAPI

static int e1000_clean(struct net_device *netdev, int *budget)

{

       struct e1000_adapter *adapter = netdev->priv;

       /*计算一下我们要做的工作量,取系统给定预算(300)和我们网卡设备的配额之间的最小值,这样做同样是为了效率和实时性考虑,不能让一个设备在接收设备上占用太多的资源和时间。*/

       int work_to_do = min(*budget, netdev->quota);

       int work_done = 0;

       /*处理网卡向外发送的数据,这里我们暂时不讨论。*/

       e1000_clean_tx_irq(adapter);

       /*处理网卡中断收到的数据包,下面详细讨论这个函数的处理方法。*/

       e1000_clean_rx_irq(adapter, &work_done, work_to_do);

       /*从预算中减掉我们已经完成的任务,预算在被我们支出,^_^。同时设备的配额也不断的削减。*/

       *budget -= work_done;

       netdev->quota -= work_done;

       /*如果函 数返回时,完成的工作没有达到预期的数量,表明接收的数据包并不多,很快就全部处理完成了,我们就彻底完成了这次轮询任务,调用 netif_rx_complete(),把当前指定的设备从 POLL 队列中清除(注意如果在 POLL 队列处于工作状态的时候是不能把指定设备清除的,否则将会出错),然后使能网卡中断。*/

       if(work_done < work_to_do) {

              netif_rx_complete(netdev);

              e1000_irq_enable(adapter);

       }

       /*如果完成的工作大于预期要完成的工作,则表明存在问题,返回1,否则正常返回0。*/

       return (work_done >= work_to_do);

}

设备轮询接收机制中最重要的函数就是下面这个函数,当然它同时也可以为中断接收机制所用,只不过处理过程有一定的差别。

static boolean_t

#ifdef CONFIG_E1000_NAPI

e1000_clean_rx_irq(struct e1000_adapter *adapter, int *work_done,

                   int work_to_do)

#else

e1000_clean_rx_irq(struct e1000_adapter *adapter)

#endif

{

       /*这里很清楚,获取设备的环形缓冲区指针。*/

       struct e1000_desc_ring *rx_ring = &adapter->rx_ring;

       struct net_device *netdev = adapter->netdev;

       struct pci_dev *pdev = adapter->pdev;

       struct e1000_rx_desc *rx_desc;

       struct e1000_buffer *buffer_info;

       struct sk_buff *skb;

       unsigned long flags;

       uint32_t length;

       uint8_t last_byte;

       unsigned int i;

       boolean_t cleaned = FALSE;

       /*把i置为下一个要清除的描述符索引,因为在环形缓冲区队列当中,我们即使已经处理完一个缓冲区描述符,也不是将其删除,而是标记为已经处理,这样如果有新的数据需要使用缓冲区,只是将已经处理的缓冲区覆盖而已。*/

       i = rx_ring->next_to_clean;

       rx_desc = E1000_RX_DESC(*rx_ring, i);

       /*如果i对应的描述符状态是已经删除,则将这个缓冲区取出来给新的数据使用*/

       while(rx_desc->status & E1000_RXD_STAT_DD) {

              buffer_info = &rx_ring->buffer_info[i];



#ifdef CONFIG_E1000_NAPI

       /*在配置了NAPI的情况下,判断是否已经完成的工作?,因为是轮询机制,所以我们必须自己计算我们已经处理了多少数据。*/

              if(*work_done >= work_to_do)

                     break;



              (*work_done)++;

#endif



              cleaned = TRUE;

              /*这个是DMA函数,目的是解除与DMA缓冲区的映射关系,这样我们就可以访问这个缓冲区,获取通过DMA传输过来的数据包(skb)。驱动程序在分配环形缓冲区的时候就将缓冲区与DMA进行了映射。*/

              pci_unmap_single(pdev,

                               buffer_info->dma,

                               buffer_info->length,

                               PCI_DMA_FROMDEVICE);



              skb = buffer_info->skb;

              length = le16_to_cpu(rx_desc->length);

              /*对接收的数据包检查一下正确性。确认是一个正确的数据包以后,将skb的数据指针进行偏移。*/

              skb_put(skb, length - ETHERNET_FCS_SIZE);



              /* Receive Checksum Offload */

              e1000_rx_checksum(adapter, rx_desc, skb);

              /*获取skb的上层协议类型。这里指的是IP层的协议类型。*/

              skb->protocol = eth_type_trans(skb, netdev);

#ifdef CONFIG_E1000_NAPI     

/*调用函数直接将skb向上层协议处理函数递交,而不是插入什么队列等待继续处理,因此这里可能存在一个问题,如果数据包比较大,处理时间相对较长,则可能造成系统效率的下降。*/

                     netif_receive_skb(skb);

      

#else /* CONFIG_E1000_NAPI */

              /*如果采用中断模式,则调用netif_rx()将数据包插入队列中,在随后的软中断处理函数中调用netif_receive_skb(skb)向上层协议处理函数递交。这里就体现出了中断处理机制和轮询机制之间的差别。*/     

                     netif_rx(skb);

#endif /* CONFIG_E1000_NAPI */

              /*用全局时间变量修正当前设备的最后数据包接收时间。*/

              netdev->last_rx = jiffies;



              rx_desc->status = 0;

              buffer_info->skb = NULL;

              /*这 里是处理环形缓冲区达到队列末尾的情况,因为是环形的,所以到达末尾的下一个就是队列头,这样整个环形队列就不断的循环处理。然后获取下一个描述符的状 态,看看是不是处于删除状态。如果处于这种状态就会将新到达的数据覆盖旧的的缓冲区,如果不处于这种状态跳出循环。并且将当前缓冲区索引号置为下一次查询 的目标。*/

              if(++i == rx_ring->count) i = 0;



              rx_desc = E1000_RX_DESC(*rx_ring, i);

       }



       rx_ring->next_to_clean = i;

       /*为下一次接收skb做好准备,分配sk_buff内存。出于效率的考虑,如果下一个要使用的缓冲区的sk_buff还没有分配,就分配,如果已经分配,则可以重用。*/

       e1000_alloc_rx_buffers(adapter);



       return cleaned;

}

下面分析的这个函数有助于我们了解环形接收缓冲区的结构和工作原理:

static void e1000_alloc_rx_buffers(struct e1000_adapter *adapter)

{

       struct e1000_desc_ring *rx_ring = &adapter->rx_ring;

       struct net_device *netdev = adapter->netdev;

       struct pci_dev *pdev = adapter->pdev;

       struct e1000_rx_desc *rx_desc;

       struct e1000_buffer *buffer_info;

       struct sk_buff *skb;

       int reserve_len = 2;

       unsigned int i;

       /*接收队列中下一个用到的缓冲区索引,初始化是0。并且获取该索引对应的缓冲区信息结构指针buffer_info。*/

       i = rx_ring->next_to_use;

       buffer_info = &rx_ring->buffer_info[i];

       /*如果该缓冲区还没有为sk_buff分配内存,则调用dev_alloc_skb函数分配内存,默认的e1000网卡的接收缓冲区长度是2048字节加上保留长度。

注 意:在e1000_open()->e1000_up()中已经调用了这个函数为环形缓冲区队列中的每一个缓冲区分配了sk_buff内存,但是如 果接收到数据以后,调用netif_receive_skb (skb)向上层提交数据以后,这段内存将始终被这个skb占用(直到上层处理完以后才会调用__kfree_skb释放,但已经跟这里没有关系了),换 句话说,就是当前缓冲区必须重新申请分配sk_buff内存,为了下一个数据做准备。*/

       while(!buffer_info->skb) {

              rx_desc = E1000_RX_DESC(*rx_ring, i);



              skb = dev_alloc_skb(adapter->rx_buffer_len + reserve_len);



              if(!skb) {

                     /* Better luck next round */

                     break;

              }

              skb_reserve(skb, reserve_len);



              skb->dev = netdev;

              /*映射DMA缓冲区,DMA通道直接将收到的数据写到我们提供的这个缓冲区内,每次必须将缓冲区与DMA通道解除映射关系,才能读取缓冲区内容。*/

              buffer_info->skb = skb;

              buffer_info->length = adapter->rx_buffer_len;

              buffer_info->dma =

                     pci_map_single(pdev,

                                    skb->data,

                                    adapter->rx_buffer_len,

                                    PCI_DMA_FROMDEVICE);



              rx_desc->buffer_addr = cpu_to_le64(buffer_info->dma);



              if(++i == rx_ring->count) i = 0;

              buffer_info = &rx_ring->buffer_info[i];

       }

       rx_ring->next_to_use = i;

}

 

最后

以上就是甜蜜白云为你收集整理的linux 内核网络协议栈的全部内容,希望文章能够帮你解决linux 内核网络协议栈所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(56)

评论列表共有 0 条评论

立即
投稿
返回
顶部