我这里描述的只是2层的处理。

首先,我们来看softnet_data这个结构,每个cpu都有这样的一个队列,它主要是用来存储incoming frame。由于他是每个cpu都有一个队列,因此在不同的cpu之间我们就不要任何锁来控制并发的处理这个帧队列。我们在操作系统层要取得帧数据,都是通过这个数据来读取。

/* * Incoming packets are placed on per-cpu queues so that * no locking is needed. */
struct softnet_data
{
///qdisc是queueing discipline的简写,也就是排队规则,就是我们经常说的qos.这里也就是输出帧的控制。  struct Qdisc        *output_queue;
///当输入帧被驱动取得之前,就保存在这个队列里,这里要注意,这个只是非napi的驱动才会这样,而napi的驱动则是有自己的私有的队列。  struct sk_buff_head input_pkt_queue;
///表示有输入帧待处理的设备链表。  struct list_head    poll_list;
///表示已经成功被传递出的帧的链表。  struct sk_buff      *completion_queue;
///用来兼容非napi的驱动。  struct napi_struct  backlog;
#ifdef CONFIG_NET_DMA  struct dma_chan     *net_dma;
#endif
};

这张图很好的表示了coy的softnet_data结构和网络设备的关系:

接下来我们来看它的初始化:

static int __init net_dev_init(void)
{
..............................  for_each_possible_cpu(i) {  struct softnet_data *queue;
///取每一个cpu的队列,并初始化。  queue = &per_cpu(softnet_data, i);  skb_queue_head_init(&queue->input_pkt_queue);  queue->completion_queue = NULL;  INIT_LIST_HEAD(&queue->poll_list);  ///这里我们就很清楚的看到backlog的功能了,由于napi的驱动都会有一个poll的虚函数,而非napi是没有的,因此这里会给所有的非napi的驱动赋值一个默认的处理方法。  queue->backlog.poll = process_backlog;  queue->backlog.weight = weight_p;  }
...............................................  return rc;
}

当一个新的帧的到达之后,内核处理的函数有两种(其实也就是2层的处理,当处理完后,就将帧扔到3层):

1 老的netif_rx函数 
2 新的napi接口。

首先来介绍napi。

简单来说就是,当内核还在处理一个帧的时候,有另外的帧到来,这时napi不需要再执行中断,而是保持轮询设备的输入队列,从而取得新到的帧,当队列为空时,退出轮询。重新打开中断。

napi的数据结构:

struct napi_struct {  /* The poll_list must only be managed by the entity which * changes the state of the NAPI_STATE_SCHED bit.  This means * whoever atomically sets that bit can add this napi_struct * to the per-cpu poll_list, and whoever clears that bit * can remove from the list right before clearing the bit. */
///有新的帧等到被执行的设备链表,这个链表的头就是softnet_data->poll_list.  struct list_head    poll_list;
///napi的状态  unsigned long       state;
///也就是表示分配给此napi的所能处理的帧的限额。  int         weight;
///从设备的输入队列中取得数据的虚函数。  int         (*poll)(struct napi_struct *, int);
#ifdef CONFIG_NETPOLL  spinlock_t      poll_lock;  int         poll_owner;  struct net_device   *dev;  struct list_head    dev_list;
#endif
}; 

下面的这张图可以看出napi和net_rx_action(软中断处理函数)的关系:

接下来我们来看一下内核如何把老的驱动模型和napi统一到一起,关键的数据结构就是我们上面讲的softnet_data的backlog结构。

先来看下napi和非napi驱动的区别:

这里很清楚的看到在飞napi的驱动中,要调用netif_rx函数,然后再调用netif_rx_schedule来把所需处理的帧交给软中断处理链表。

我们来看它的实现:

int netif_rx(struct sk_buff *skb)
{  struct softnet_data *queue;  unsigned long flags;  /* if netpoll wants it, pretend we never saw it */  if (netpoll_rx(skb))  return NET_RX_DROP;
///得到帧被接收的时间  if (!skb->tstamp.tv64)  net_timestamp(skb);  /* * The code is rearranged so that the path is the most * short when CPU is congested, but is still operating. */
///保存当前的状态设备状态。  local_irq_save(flags);
///取得当前cpu的softnet_data数据  queue = &__get_cpu_var(softnet_data);  ///将被当前cpu所接受的总帧的数目加一。  __get_cpu_var(netdev_rx_stat).total++;
///监测设备是否还有空间来存储帧,如果空间已满,表示网络阻塞严重,则返回一个错误,此后cpu将丢掉再来的帧。  if (queue->input_pkt_queue.qlen <= netdev_max_backlog) {  if (queue->input_pkt_queue.qlen) {
enqueue:
///这个帧被加入到softnet_data的输入队列。并返回成功。  __skb_queue_tail(&queue->input_pkt_queue, skb);  local_irq_restore(flags);  return NET_RX_SUCCESS;  }
///当队列是空的时候,表明这个队列并没有被软中断所schedule,因此我们需要将此队列加入到软中断的处理链表中。可以看到加入的正好是backlog,由于调用netif_rx的是非napi的驱动,因此backlog就是初始化时的process_backlog函数。  napi_schedule(&queue->backlog);  goto enqueue;  }  __get_cpu_var(netdev_rx_stat).dropped++;  local_irq_restore(flags);  kfree_skb(skb);  return NET_RX_DROP;
}  

然后我们来看网络代码最核心的一个函数net_rx_action 也就是软中断(NET_RX_SOFTIRQ)的处理函数:

static void net_rx_action(struct softirq_action *h)
{
///得到设备链表  struct list_head *list = &__get_cpu_var(softnet_data).poll_list;
///执行开始时间  unsigned long start_time = jiffies;
///当前所要处理的帧的最大数目。这个数目一定要限制,因为我们不能在此软中断耗费太多的时间。  int budget = netdev_budget;  void *have;
///关闭中断  local_irq_disable();  ///开始循环处理设备链表  while (!list_empty(list)) {  struct napi_struct *n;  int work, weight;
///当处理完所需处理的帧,或者时间超时,则直接退出。  if (unlikely(budget <= 0 || jiffies != start_time))  goto softnet_break;  local_irq_enable();  ///取出设备的napi数据结构。  n = list_entry(list->next, struct napi_struct, poll_list);
///加锁( 自旋锁)  have = netpoll_poll_lock(n);  weight = n->weight;  work = 0;
///测试napi的状态,只有为NAPI_STATE_SCHED状态时,我们才能调用napi的poll方法。它会返回所处理的帧的数目。  if (test_bit(NAPI_STATE_SCHED, &n->state))  work = n->poll(n, weight);  WARN_ON_ONCE(work > weight);
///得到还需处理的帧的数目  budget -= work;  local_irq_disable();  ///当处理的帧等于分配给此设备的处理帧的限额,则进行相关处理  if (unlikely(work == weight)) {  if (unlikely(napi_disable_pending(n)))  __napi_complete(n);  else
///移除设备队列。  list_move_tail(&n->poll_list, list);  }  netpoll_poll_unlock(have);  }
out:  local_irq_enable();
......................................  return;  softnet_break:  __get_cpu_var(netdev_rx_stat).time_squeeze++;  __raise_softirq_irqoff(NET_RX_SOFTIRQ);  goto out;
} 

下来我们来看process_backlog函数,这个函数也就是非napi的驱动的默认poll的实现,napi的驱动的poll的实现,与它大体类似。

static int process_backlog(struct napi_struct *napi, int quota)
{
///得到一些初始化值。  int work = 0;  struct softnet_data *queue = &__get_cpu_var(softnet_data);  unsigned long start_time = jiffies;  napi->weight = weight_p;  ///进入循环处理。  do {  struct sk_buff *skb;  local_irq_disable();
///得到输入队列。  skb = __skb_dequeue(&queue->input_pkt_queue);  if (!skb) {
///如果输入队列为空,则设置此napi的标志,并退出。  __napi_complete(napi);  local_irq_enable();  break;  }  local_irq_enable();
///处理输入帧,也就是进行一些2层的处理从而发给三层。  netif_receive_skb(skb);  } while (++work < quota && jiffies == start_time);///设备处理帧的配额已经完成,或者时间太长,则退出。  return work;
}  

内核中接收网络帧的处理相关推荐

  1. linux netstat Netstat是在内核中访问网络连接状态及其相关信息的程序,它能提供TCP连接,TCP和UDP监听,进程内存管理的相关报告。

    在Internet RFC标准中,Netstat的定义是: Netstat是在内核中访问网络连接状态及其相关信息的程序,它能提供TCP连接,TCP和UDP监听,进程内存管理的相关报告. Netstat ...

  2. Linux网络:内核中的网络参数(net.xxx.xxx)

    目录 nf_conntrack bridge-nf 反向路径过滤 TCP相关 ARP相关 ARP回收 ARP过滤 参考文档 nf_conntrack nf_conntrack是Linux内核连接跟踪的 ...

  3. linux内核中TCP接收的实现

    linux内核中TCP接收的实现入口函数是tcp_v4_rcv 1. 数据包检查处理 一开始做一些数据包详细检查处理,一旦出错,可能导致内核挂掉 int tcp_v4_rcv(struct sk_bu ...

  4. 游戏中的网络同步机制(一)帧同步Lockstep

    转载自:https://www.jianshu.com/p/64b3f162dcf4 参考游戏中的网络同步机制--Lockstep 一.前言 每个人或多或少都接触过网游,那个虚拟的世界给予了我们无穷的 ...

  5. 游戏中的网络同步机制(二) 王者荣耀对帧同步的应用

    转载自:https://www.jianshu.com/p/81050871cce7 参考 解密:腾讯如何打造一款实时对战手游 从<王者荣耀>来聊聊游戏的帧同步 <王者荣耀>技 ...

  6. TCP/IP网络协议栈在Linux内核中的如何使用丨内核开发丨驱动开发丨操作系统丨内核源码

    TCP/IP网络协议栈在Linux内核中的如何使用 视频讲解如下,点击观看: TCP/IP网络协议栈在Linux内核中的如何使用丨内核开发丨驱动开发丨操作系统丨内核源码 C/C++Linux服务器开发 ...

  7. linux接收网络数据并存存储,linux网络数据包数据结构 Socket Buffer

    Linux网络核心数据结构是套接字缓存(socket buffer),简称skb.它代表一个要发送或处理的报文,并贯穿于整个协议栈.1.套接字缓存skb由两部分组成:(1)报文数据:它保存了实际在网络 ...

  8. 追踪 Kubernetes 中的网络流量

    作者 | Addo Zhang 来源 | 云原生指北 译者注: 这篇文章很全面的罗列出了 Kubernetes 中涉及的网络知识,从 Linux 内核的网络内容,到容器.Kubernetes,一一进行 ...

  9. 看清接收网络数据包的全过程

    接收网络数据包的过程,从数据包到达网卡的物理接口开始,然后由网卡的驱动程序交给网络协议栈,最后经过协议栈的一层层处理之后交给应用程序.大致上是这样的过程,但实际上有更多的细节.本文中主要介绍第一个和第 ...

最新文章

  1. pandas为所有的列名添加后缀(add_suffix)
  2. python怎么字体加阴影_如何在pythonptx中给文本添加阴影?
  3. error LNK1123: 转换到 COFF 期间失败: 文件无效或损坏的解决方案
  4. swiper动态加载数据左右切换失效
  5. 【Arthas】Arthas 类查找和反编译原理
  6. Spring Boot学习总结(9)——SpringBoot集成Ehcache3.x
  7. JavaScript学习总结(1)——JavaScript基础
  8. java 定时调度_怎么编写一个定时调度java程序
  9. 原生js替换jQuery各种方法-中文版
  10. 雪,是死掉的雨,是雨的精魂
  11. 5. Zend_Log
  12. melogin.cn主页登录_melogincn首页 melogin·cn登录页面入口
  13. 制作一个简单HTML个人网页网页(HTML+CSS)web前端大作业
  14. 神经网络的深度、宽度
  15. Android ndk开发入门集锦一
  16. [SAS Hard Coding] 车型对应车商代码
  17. yarn : 无法加载文件 C:\Users\wangxin67\AppData\Roaming\npm\yarn.ps1,因为在此系统上禁止运行脚本。有关详细信息,请参阅 https:/go.mic
  18. 业余草网站热门关键字
  19. 教你怎么用you-get精确下载B站视频及弹幕
  20. 鸿蒙系统和海思系统有什么区别,鸿蒙系统和安卓系统 到底有什么区别?

热门文章

  1. TCA9548A iic地址扩展器件 树莓派JAVA版教程
  2. python使用sphinx自动生成文档
  3. django-crontab 快速配置,高效执行django的定时任务/周期性任务
  4. Mouse Event (Java AWT)
  5. 关于数据库的设计的一点思路
  6. leetcood学习笔记-112-路径总和
  7. c# 在winform中为DataGridView头部标题添加ContextMenuStrip菜单
  8. Mesos:数据库使用的持久化卷
  9. 数据库连接,实现增删改查操作具体步骤(全)
  10. (C/C++) 算法,编程题