【网络通信】select、poll、epoll

目录

【网络通信】select、poll、epoll

前言

0、 网络编程基础原理

1 网络编程(Socket)概念

一、BIO (Blocking I/O)

1.1 传统 BIO

1.2 伪异步 IO(多线程BIO)

BIO的通信过程

三 AIO

四、多路复用解释

NIO Reactor(NIO的改进)

多buffer的分散(Scatter)与聚集(Gather)

字符集Charset

多路复用

管道(Pipe)

epoll流程

聊天室案例

一、源码

0 bitmap

1 select函数

2 poll

3 epoll函数

二、C语言使用示例

三、零拷贝


前言

0、 网络编程基础原理

1 网络编程(Socket)概念

首先注意,Socket不是Java中独有的概念,而是一个语言无关标准。任何可以实现网络编程的编程语言都有Socket。

1.1 什么是 Socket

网络上的两个程序通过一个双向的通信连接实现数据的交换,这个连接的一端称为一个socket

建立网络通信连接至少要一个端口号。socket 本质是编程接口*(API)*,对 TCP/IP 的封装,

TCP/IP 也要提供可供程序员做网络开发所用的接口,这就是 Socket 编程接口;HTTP 是轿车,提供了封装或者显示数据的具体形式;Socket 是发动机,提供了网络通信的能力。

Socket 的英文原义是*“插座。作为 BSD UNIX 的进程通信机制,取后一种意思。通常也称作"套接字"*,用于描述 IP 地址和端口,是一个通信链的句柄,可以用来实现不同虚拟机或不同计算机之间的通信。在 Internet 上的主机一般运行了多个服务软件,同时提供几种服务。每种服务都打开一个 Socket,并绑定到一个端口上,不同的端口对应于不同的服务。

Socket正如其英文原义那样,像一个多孔插座。一台主机犹如布满各种插座的房间,每个插座有一个编号,有的插座提供220伏交流电, 有的提供 110伏交流电,有的则提供有线电视节目。 客户软件将插头插到不同编号的插座,就可以得到不同的服务。

1.2 Socket 连接步骤

根据连接启动的方式以及本地套接字要连接的目标,套接字之间的连接过程可以分为三个步骤:服务器监听,客户端请求,连接确认。【如果包含数据交互*+*断开连接,那么一共是五个步骤】

1)服务器监听:是服务器端套接字并不定位具体的客户端套接字,而是处于等待连接的状态,实时监控网络状态。

2)客户端请求:是指由客户端的套接字提出连接请求,要连接的目标是服务器端的套接字。为此,客户端的套接字必须首先描述它要连接的服务器的套接字,指出服务器端套接字的地址和端口号,然后就向服务器端套接字提出连接请求。

3)连接确认:是指当服务器端套接字监听到或者说接收到客户端套接字的连接请求,它就响应客户端套接字的请求,建立一个新的线程,把服务器端套接字的描述发给客户端,一旦客户端确认了此描述,连接就建立好了。而服务器端套接字继续处于监听状态,继续接收其他客户端套接字的连接请求。

1.3 Java 中的 Socket

在 java.net 包是网络编程的基础类库。其中 ServerSocket 和 Socket 是网络编程的基础类型。ServerSocket 是服务端应用类型。Socket 是建立连接的类型。当连接建立成功后,服务器和客户端都会有一个 Socket 对象示例,可以通过这个 Socket 对象示例,完成会话的所有操作。

对于一个完整的网络连接来说,Socket 是平等的,没有服务器客户端分级情况。

ServerSocket执行构造方法成功后,其他方法调用都必须放到try-finally块中,以保证ServerSocket都能正常关闭。

同理,accept()返回的Socket,若accept失败,那么必须保证socket不再存在或者含有任何资源,以便不必清除他们。但若执行成功,则后续的语句必须进入一个try-finally块,以保证发生异常的时候,socket都能得到正确清楚。

一次完整的通信有3个socket,服务端的serverSocket在accept成功后会产生一个socket与客户端通信

一、BIO (Blocking I/O)

同步阻塞I/O模式,数据的读取写入必须阻塞在一个线程内等待其完成。

https://zhuanlan.zhihu.com/p/23488863

1.1 传统 BIO

BIO通信(一请求一应答)模型图如下:

采用 BIO 通信模型 的服务端,通常由一个独立的 Acceptor 线程负责监听客户端的连接。我们一般通过在while(true) 循环中服务端会调用 accept() 方法等待接收客户端的连接的方式监听请求,请求一旦接收到一个连接请求,就可以建立通信套接字在这个通信套接字上进行读写操作,此时不能再接收其他客户端连接请求,只能等待同当前连接的客户端的操作执行完成, 不过可以通过多线程来支持多个客户端的连接,如上图所示。

如果要让 BIO 通信模型 能够同时处理多个客户端请求,就必须使用多线程(主要原因是socket.accept()socket.read()socket.write() 涉及的三个主要函数都是【同步 阻塞】的),也就是说服务端它在接收到客户端连接请求之后为每个客户端创建一个新的线程进行链路处理,处理完成之后,通过输出流返回应答给客户端,线程销毁。这就是典型的 一请求一应答通信模型 。

我们可以设想一下如果这个连接不做任何事情的话就会造成不必要的线程开销,不过可以通过 线程池机制 改善,线程池还可以让线程的创建和回收成本相对较低。使用FixedThreadPool 可以有效的控制了线程的最大数量,保证了系统有限的资源的控制,实现了N(客户端请求数量):M(处理客户端请求的线程数量)的伪异步I/O模型(N 可以远远大于 M),下面一节"伪异步 BIO"中会详细介绍到。

我们再设想一下当客户端并发访问量增加后这种模型会出现什么问题?

在 Java 虚拟机中,线程是宝贵的资源,线程的创建和销毁成本很高,除此之外,线程的切换成本也是很高的。尤其在 Linux 这样的操作系统中,线程本质上就是一个进程,创建和销毁线程都是重量级的系统函数。如果并发访问量增加会导致线程数急剧膨胀可能会导致线程堆栈溢出、创建新线程失败等问题,最终导致进程宕机或者僵死,不能对外提供服务。

Java BIO 工作机制:

    1. 服务器端启动一个 ServerSocket
    1. 客户端启动 Socket 对服务器进行通信,默认情况下服务器端需要对每个客户 建立一个线程与之通讯
    1. 客户端发出请求后, 先咨询服务器是否有线程响应,如果没有则会等待,或者被拒绝
    1. 如果有响应,客户端线程会等待请求结束后,在继续执行
public class BIOServer {public static void main(String[] args) throws IOException {byte[] bytes = new byte[1024];ServerSocket serverSocket = null;Socket socket=null;//客户端InputStream in=null;//输入流OutputStream out = null;//输出流//下面的内容要try catch,这里简写serverSocket = new ServerSocket();// 端口号+ip,ip默认本机serverSocket.bind(new InetSocketAddress(9876));//指定接口,监听//serverSocket =  new ServerSocket(port);//指定端口 监听// 阻塞--程序释放cpu资源,程序不会向下执行// accept,专门负责通信while(true){System.out.println("--等待连接--");socket =serverSocket.accept();//阻塞,三次握手System.out.println("--连接成功--");// 解阻塞,向下执行,read也会阻塞in = socket.getInputStream();byte[] buffer = new byte[1024];int length=0;System.out.println("--开始读数据--");while((length=in.read(buffer))>0){//阻塞System.out.println("input is:"+new String(buffer,0,length));out = socket.getOutputStream();out.write("success".getBytes);//}System.out.println("--数据读取完成:" + read + "--");}// finally close}
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
public class Client {public static void main(String[] args) throws IOException {Socket socket = new Socket();socket.connect(new InetSocketAddress("127.0.0.1", 9876));System.out.println("--请输入内容--");Scanner scanner = new Scanner(System.in);while (true) {String next = scanner.next();socket.getOutputStream().write(next.getBytes());}}
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13

阻塞和非阻塞是针对于进程在访问数据的时候,根据 IO 操作的就绪状态来采取的不同方式,说白了是一种读取或者写入操作方法的实现方式,阻塞方式下读取或者写入函数将一直等待,而非阻塞方式下,读取或者写入方法会立即返回一个状态值。

以银行取款为例:

阻塞 : ATM 排队取款,你只能等待(使用阻塞 IO 时,Java 调用会一直阻塞到读写完成才返回);

非阻塞 : 柜台取款,取个号,然后坐在椅子上做其它事,等号广播会通知你办理,没到号你就不能去,你可以不断问大堂经理排到了没有,大堂经理如果说还没到你就不能去(使用非阻塞IO 时,如果不能读写 java 调用会马上返回,当 IO 事件分发器通知可读写时再继续进行读写,不断循环直到读写完成)

1.2 伪异步 IO(多线程BIO)

为了解决同步阻塞I/O面临的一个链路需要一个线程处理的问题,后来有人对它的线程模型进行了优化—后端通过一个线程池来处理多个客户端的请求接入,形成客户端个数M:线程池最大线程数N的比例关系,其中M可以远远大于N.通过线程池可以灵活地调配线程资源,设置线程的最大值,防止由于海量并发接入导致线程耗尽。

采用线程池和任务队列可以实现一种叫做伪异步的 I/O 通信框架,它的模型图如上图所示。当有新的客户端接入时,将客户端的 Socket 封装成一个Task(该任务实现java.lang.Runnable接口)投递到后端的线程池中进行处理,JDK 的线程池维护一个消息队列和 N 个活跃线程,对消息队列中的任务进行处理。由于线程池可以设置消息队列的大小和最大线程数,因此,它的资源占用是可控的,无论多少个客户端并发访问,都不会导致资源的耗尽和宕机。

伪异步I/O通信框架采用了线程池实现,因此避免了为每个请求都创建一个独立线程造成的线程资源耗尽问题。不过因为它的底层仍然是同步阻塞的BIO模型,因此无法从根本上解决问题。在活动连接数不是特别高(小于单机1000)的情况下,这种模型是比较不错的,可以让每一个连接专注于自己的 I/O 并且编程模型简单,也不用过多考虑系统的过载、限流等问题。线程池本身就是一个天然的漏洞,可以缓冲一些系统处理不了的连接或请求。但是,当面对十万甚至百万级连接的时候,传统的 BIO 模型是无能为力的。因此,我们需要一种更高效的 I/O 处理模型来应对更高的并发量。

每个线程管理一个连接

// 多线程BIO 服务端
public class IOServer {public static void main(String[] args) throws IOException {// 服务端处理客户端连接请求ServerSocket serverSocket = new ServerSocket(3333);/*ServerSocket serverSocket = new ServerSocket();serverSocket.bind(new InetSocketAddress(9876));*/// 接收到客户端连接请求之后为每个客户端创建一个新的线程进行链路处理new Thread(() -> {while (true) {//循环try {// 阻塞方法获取新的连接,阻塞Socket socket = serverSocket.accept();// 每一个新的连接都创建一个线程,负责读取数据new Thread(() -> {try {int len;byte[] data = new byte[1024];InputStream inputStream = socket.getInputStream();// 按字节流方式读取数据while ((len = inputStream.read(data)) != -1) {System.out.println(new String(data, 0, len));}} catch (IOException e) {}}).start();/* 也可以把线程都提交到线程池里newCachedThreadPool.execute(new Runnable() {@Overridepublic void run() {//业务处理myHandler(socket);// 把业务代码写到里面}});*/} catch (IOException e) {}}}).start();}
}

或者在服务端采用线程池的方案

1) 使用 BIO 模型编写一个服务器端,监听 6666 端口,当有客户端连接时,就启动一个线程与之通讯。
2) 要求使用线程池机制改善,可以连接多个客户端.
3) 服务器端可以接收客户端发送的数据(telnet 方式即可)。
// 尝试使用线程池解决BIO的问题
public class BIOServer {public static void main(String[] args) throws Exception {//线程池机制//思路//1. 创建一个线程池//2. 如果有客户端连接,就创建一个线程,与之通讯(单独写一个方法)ExecutorService newCachedThreadPool = Executors.newCachedThreadPool();//创建 ServerSocketServerSocket serverSocket = new ServerSocket(6666);System.out.println("服务器启动了");while (true) {System.out.println(" 线 程 信 息 id =" + Thread.currentThread().getId() + " 名 字 =" +Thread.currentThread().getName());//监听,等待客户端连接System.out.println("等待连接....");final Socket socket = serverSocket.accept();System.out.println("连接到一个客户端");//就创建一个线程,与之通讯(单独写一个方法)newCachedThreadPool.execute(new Runnable() {public void run() { //处理连接  //可以和客户端通讯handler(socket);}});}}//编写一个 handler 方法,和客户端通讯public static void handler(Socket socket) {try {System.out.println(" 线 程 信 息 id =" + Thread.currentThread().getId() + " 名 字 =" +Thread.currentThread().getName());byte[] bytes = new byte[1024];//通过 socket 获取输入流InputStream inputStream = socket.getInputStream();//循环的读取客户端发送的数据while (true) {System.out.println(" 线 程 信 息 id =" + Thread.currentThread().getId() + " 名 字 =" + Thread.currentThread().getName());System.out.println("read....");int read = inputStream.read(bytes);if(read != -1) {System.out.println(new String(bytes, 0, read)); //输出客户端发送的数据} else {break;}}}catch (Exception e) {e.printStackTrace();}finally {System.out.println("关闭和 client 的连接");try {socket.close();}catch (Exception e) {e.printStackTrace();}}}
}
// 客户端
public class IOClient {public static void main(String[] args) {// TODO 创建多个线程,模拟多个客户端连接服务端new Thread(() -> {try {Socket socket = new Socket("127.0.0.1", 3333);while (true) {try {socket.getOutputStream().write((new Date() + ": hello world").getBytes());Thread.sleep(2000);} catch (Exception e) {}}} catch (IOException e) {}}).start();}
}

BIO的问题

Java BIO 问题分析

  1. 每个请求都需要创建独立的线程,与对应的客户端进行数据 Read,业务处理,数据 Write 。

  2. 当并发数较大时,需要创建大量线程来处理连接,系统资源占用较大。

  3. 连接建立后,如果当前线程暂时没有数据可读,则线程就阻塞在 Read 操作上,造成线程资源浪费

BIO的通信过程

中断与系统调用

零拷贝、DMA、中断等内容请参考:

https://blog.csdn.net/hancoder/article/details/112149121

可编程中断控制器:

如下有用户空间和内核空间。

INTR是中断引脚,中断控制器有8个IR,两个级联就有64个可能。中断请求寄存器里保存中断信号,比如键盘字符。优先级解析器是为了区分中断的优先级。正在服务寄存器是为了执行完后清空,然后寄存器就能再往里添加值了,再给CPU处理

可编程中断控制器:

socket缓冲区:每个socket有两个缓冲区:输入缓冲区和输出缓冲区

  • 写操作都会映射到内核的write和send。先把数据从用户空间的缓冲区拷贝到内核空间的缓冲区,然后TCP/IP会把数据包装成报文发送。
  • 读操作都会映射到内核的read和recv。读的话是先是把数据映射到内核空间缓冲区,再从内核空间的缓冲区拷贝到用户空间的缓冲区。

上层socket发送完后close后并不影响内核空间的发送,数据不会丢,TCP/IP会保证。但是如果没读完的输入缓冲区就会直接丢弃

socket缓冲区:

BIO与NIO的区别:

  • bio写:BIO输出的时候会检查输出缓冲区可用空间,如果可用大小不够就会阻塞到可用空间够,比如要写2mb,但是内核空间只有1mb,就会阻塞到TCP把内核空间的数据发送腾出空间后2mb放入。TCP如果正在写的话会给内核缓冲区加锁。比如要发10mb,但是内核空间最大只有5mb,就会先发5mb然后挂起进程,tcp发送完上个5mb后再唤醒进程再发送剩下的5mb

    • bio读:也会映射到内核的read和recv系统调用,检查内核缓冲区是否有数据,有数据的话读取,没的话阻塞当前调用进程,直到网络有数据输入到输入缓冲区后,程序才会中断唤醒该进程。如果读的缓存没有输入缓冲区大,就多次读。buffer大小小的话多次读取。
  • NIO:
    • nio写:也会进行用户空间到内核空间的拷贝,但是此时会检查内核输出缓冲区大小够不够,不够的话尽可能拷贝,比如要写2mb,可用1mb,就先写1mb,然后返回到用户态告诉写了多少。如果内核可用空间为0,也会立马返回-1(BIO会等待),就可以选择等待一会还是立即重试。
    • nio读:也会映射到内核的read和recv系统调用,检查内核缓冲区是否有数据,有的话就返回,没的话也返回不会阻塞
  • 多路复用:
    • 问题描述:解决上面客户端和服务端进程需要1对1的问题,我们想让服务端一个进程监听客户端多个进程。比如客户端不断发到服务端的输入缓冲区,服务器负载很高了cpu没有空闲,所以服务器进程一直抢不到cpu资源。流量控制拥塞控制总是满的话,再发的时间会延长。如果客户端是BIO的话客户端也会阻塞,客户端如果是NIO的话返回-1
    • 解决方案:一个进程监听多个socket,select/epoll就是为了解决这个问题。选择器将选择信息告诉内核,即告诉监听哪些套接字。关心的状态。返回的时候会告诉就绪的套接字的数量,有哪些描述符就绪,就可以点用读写函数,病人不会被调用,

1 BIO读数据

CPU上有运行队列(就绪队列),选一个运行。比如A运行时执行到了socket.read()读数据。没有可读数据会被阻塞

2 没有数据后阻塞

进程A被阻塞后从运行队列中拿出,移动到等待队列(阻塞/等待队列),进程B/C/D去执行

3 数据来了

客户端发来了数据,报文到达服务器网卡后,网卡通过DMA,将报文直接存入内核态缓冲区,网卡发起硬件中断

4 网卡发起硬件中断

网卡发起硬件中断,让cpu进入内核态

5 响应中断、保存信息、切换状态

cpu要进入内核态,所以把正在执行的进程B挂起,在这个过程中,需要

  • 保存用户态堆栈信息到进程描述符、
  • 修改CPU寄存器,将堆栈指针指向当前进程内核态堆栈
  • 切换到内核态
  • 根据IRQ相邻到向量表中查找合适的中断处理程序
  • 指向网卡中断程序

6 中断处理程序

一条条处理报文,报文中有端口信息,就能查找到对应的socket,把数据放到对应socket的读缓冲区。

进程A从等待队列中出队,转移到运行队列

7 拿到数据运行

进程A进入到运行队列

缺点:服务端进程和客户端进程1对1

RandomAccessFile

支持随机读写seek。seek后再写,会覆盖原来地方,相当于覆盖到中间了

既支持读,也支持写,指定mode

他的write是写到文件里

网络IO流程

客户端的socket从网卡进来

应用程序通过内核,内核去网卡拿数据。拿到数据后先到内核,然后再传给应用程序。

一个线程依次进行accept和read操作,第二个客户端client来了之后只在网卡,并没连接到

read的取字节流,

又来一个client后,应用程序线程阻塞

图来源:迄今为止 https://www.bilibili.com/video/BV1VJ411D7Pm

非阻塞IO(NIO)维护多个client

 

linux select函数详解
在Linux中,我们可以使用select函数实现I/O端囗的复用,传递给select函数的参数会告诉内核:(设置select)
1,我们所关心的文件描述符
2.对每个描述符,我们所关心的状态。
3.我们要等待多长时间。从select函数返回后,内核告诉我们一下信息:
1.对我们的要求已经做好准备的描述符的个数
2.对于三种条件哪些描述符已经准备(读,写,异常)
有了这些返回信息,我们可以调用合适的I/O函数(通常是read或write),且这些函数不会再阻塞.课程大纲:http://note.youdao.com/s/GkwuyYC7可编程中断控制器:https://www.processon.com/view/link/5f5b1d071e08531762cf00ff
系统调用的过程:https://www.processon.com/view/link/5f5edf94637689556170d993
socket缓冲区:https://www.processon.com/view/link/5f5c4342e0b34d6f59ef7057
bio通信底层原理:https://www.processon.com/view/link/5f61bd766376894e32727d66
linux select函数API:https://www.processon.com/view/link/5f601ed86376894e326d9730
linux select原理图:https://www.processon.com/view/link/5f62b9a6e401fd2ad7e5d6d1
linux epoll函数:https://www.processon.com/view/link/5f6034210791295dccbc1426
linux epoll原理图:https://www.processon.com/view/link/5f62f98f5653bb28eb434add
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21

多个线程上,再继续运行。例如客户端需要发送数据给服务器端,只当客户端所有的数据都准备完毕后,选择器才会将这个注册的通道分配到服务器端的一个或多个线程上。而在客户端准备数据的这段时间,服务器端的线程可以执行别的任务。

三 AIO

(Asynchronous I/O) AIO 异步IO也就是 NIO 2。在 Java 7 中引入,它是异步非阻塞的IO模型。

异步 IO 是基于事件和回调机制实现的,也就是应用操作之后会直接返回,不会堵塞在那里,当后台处理完成,操作系统会通知相应的线程进行后续的操作。

AIO解决的问题:虽然NIO解决了阻塞的问题,但是还是同步的,意思是说你得自己去问selector有没有数据,有没有准备好。而AIO是异步的,相当于回调函数,有数据了它会通知你。

除了 AIO 其他的 IO 类型都是同步的,这一点可以从底层IO线程模型解释,推荐一篇文章:什么是Linux的五种IO模型?

目前来说 AIO 的应用还不是很广泛,Netty 之前也尝试使用过 AIO,不过又放弃了。

四、多路复用解释

多线程需要上下文切换,耗时

我们相用单线程。

网络连接

sockfd = socket(AF_INET,SOCK_STREAM,0);
memset(&addrm0,sizeof(addr));
addr.sin_family = AF_INET;
addr.sin_port=htons(2000);

NIO和IO适用场景:

NIO是为弥补传统IO的不足而诞生的,但是尺有所短寸有所长,**NIO也有缺点,因为NIO是面向缓冲区的操作,每一次的数据处理都是对缓冲区进行的,那么就会有一个问题,在数据处理之前必须要判断缓冲区的数据是否完整或者已经读取完毕,如果没有,假设数据只读取了一部分,那么对不完整的数据处理没有任何意义。**所以每次数据处理之前都要检测缓冲区数据。
  那么NIO和IO各适用的场景是什么呢?
  如果需要管理同时打开的成千上万个连接,这些连接每次只是发送少量的数据,例如聊天服务器,这时候用NIO处理数据可能是个很好的选择。
  而如果只有少量的连接,而这些连接每次要发送大量的数据,这时候传统的IO更合适。使用哪种处理数据,需要在数据的响应等待时间和检查缓冲区数据的时间上作比较来权衡选择。

Java IO是阻塞的,如果在一次读写数据调用时数据还没有准备好,或者目前不可写,那么读写操作就会被阻塞直到数据准备好或目标可写为止。Java NIO则是非阻塞的,每一次数据读写调用都会立即返回,并将目前可读(或可写)的内容写入缓冲区或者从缓冲区中输出,即使当前没有可用数据,调用仍然会立即返回并且不对缓冲区做任何操作。这就好像去超市买东西,如果超市中没有需要的商品或者数量还不够,那么Java IO会一直等直到超市中需要的商品数量足够了就将所有需要的商品带回来,Java NIO则不同,不论超市中有多少需要的商品,它都会立即买下可以买到的所有需要的商品并返回,甚至是没有需要的商品也会立即返回。

阻塞IO会使得线程将大量的时间浪费在等待IO上,这是非常不划算的,但是这种阻塞可以在数据可用时立即获取并处理数据,而非阻塞IO则必须通过重复的调用来获取全部数据

Java NIO 使用Selector实现单线程管理多个Channel,通过 select 调用,可以获取已经准备好的Channel并进行相应的处理。

多个客户端都连到了服务端的网卡,epoll会把这些链接都拿过来监视,数据准备非阻塞,数据拷贝阻塞一个一个的,但最终都会把client处理。epoll改善了数据拷贝工作,零拷贝,从网卡放到硬盘,从内核空间到用户空间拷贝的是内存地址

select和epoll的区别

文件描述符FileDescriptor(FD):是一个抽象的概念,形式上是一个整数,实际上是一个索引值。指向内核中为每个进程维护进程所打开的文件的记录表。当程序打开一个文件或者创建一个文件时,内核就会向进程返回一个FD。Unix,Linux

  • select机制:会维护一个GC的集合fd_set,将fd_set从用户空间复制到内核空间,激活socket。fd_set是一个数组结构
  • poll机制:和select机制是差不多的,把fdset结构进行了优化,FD集合的大小就突破了操作系统的限制。pollfd结构代替fdset,通过链表实现的
  • epoll Event Poll:不再扫描所有的FD,只将用户关心的FD的事件存放到内核的一个事件表当中。这样,可以减少用户空间和内核空间之间需要拷贝到数据
  操作方式 底层实现 最大连接数 IO效率
select 遍历 数组 受限于内核 一般
poll 遍历 链表 无上限 一般
epoll 事件回调 红黑树 无上限

DefaultSelectorProvider

while(1)遍历文件描述符集合fdA-E。

nginx和redis采用了epoll

应用程序线程内有多路复用器,多路复用器有select函数,调用内核的epoll()

内核有epoll【根据版本的不同也可以可能是select()/poll()

假如现在有多个客户端client链接到网卡。epoll会把3个client都做数据准备,放到内核空间,然后把3个数据的索引值返回给应用程序的多路复用器。多路复用器的select再去调用recFrom方法,挨个告诉内核要拷贝哪个数据,然后把数据从内核空间拷贝到用户空间。

数据准备是非阻塞的,数据拷贝是阻塞的。线程最终都会把client的数据处理,对于应用程序而言处理也是非阻塞的,因为多路复用器可以把这堆数据都拿过来。根据业务操作做一些读写操作而已handler()。多路复用器管理了多个client。

从内核空间拷贝到用户空间消耗很大,所以epoll有了零拷贝。即公共的内存空间,即直接缓冲区

阻塞IO

应用程序accept()阻塞,取的是socket

应用程序read()阻塞,取的是字节流

内核recvFrom(block,…)

NIO Reactor(NIO的改进)

为何要用Reactor:常见的网络服务中,如果每一个客户端都维持一个与登陆服务器的连接。那么服务器将维护多个和客户端的连接以出来和客户端的connect 、read、write ,特别是对于长链接的服务,有多少个客户端,就需要在服务端维护同等的IO连接。这对服务器来说是一个很大的开销。

长链接:一个socket处理多个请求连接

BIO:

我们采用线程池的方式来处理读写服务。但是这么做依然有很明显的弊端:

  1. 同步阻塞IO,读写阻塞,线程等待时间过长
  2. 在制定线程策略的时候,只能根据CPU的数目来限定可用线程资源,不能根据连接并发数目来制定,也就是连接有限制。否则很难保证对客户端请求的高效和公平。
  3. 多线程之间的上下文切换,造成线程使用效率并不高,并且不易扩展
  4. 状态数据以及其他需要保持一致的数据,需要采用并发同步控制

NIO:

事实上NIO已经解决了上述BIO暴露的1&2问题了,服务器的并发客户端有了量的提升,不再受限于一个客户端一个线程来处理,而是一个线程可以维护多个客户端(selector 支持对多个socketChannel 监听)。

但这依然不是一个完善的Reactor Pattern ,首先Reactor 是一种设计模式,好的模式应该是支持更好的扩展性,显然以上的并不支持,另外好的Reactor Pattern 必须有以下特点:

  1. 更少的资源利用,通常不需要一个客户端一个线程
  2. 更少的开销,更少的上下文切换以及locking
  3. 能够跟踪服务器状态
  4. 能够管理handler 对event的绑定

NIO Reactor单线程

有事件发生后,交给一个handler处理

public class TCPReactor{private final ServerSocketChannel ssc;private final Selector selector;
TCPReactor(int port){selector = Selector.open();// 创建选择器对象ssc = ServerSocketChannel.open();//打开服务端socketInetSocketAddress addr = new InetSocketAddress(port);ssc.socket().bind(addr);//在ServerSocketChannel绑定端口ssc.configureBlocking(false);//设置ServerSocketChannel非阻塞Selection sk = ssc.register(selector,SelectionKey.OP_ACCEPT);//ServerSocketChannel注册进selector中,监听的是ACCEPT事件 // 客户端有连接来了通知服务端// 这个Acceptor和上面的服务端ssc是关联的sk.attach(new Acceptor(selector,ssc));// 给定key一个附加的Acceptor对象,如果事件没有被 // 这句可以写到上句中
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13

NIO Reactor多线程

有事件发生后,交给多个handler处理

如果读写耗时的话,我们可以另开一个线程处理读写

NIO Reactor主从模型

多个selector

提升:多拿几个selector

多buffer的分散(Scatter)与聚集(Gather)

读写案例代码

@Test
public void test1() throws IOException {// rw代表  读写模式RandomAccessFile file = new RandomAccessFile("D:\\学习使用NIO.md","rw");FileChannel channel = file.getChannel();// 分配制定多个缓冲区ByteBuffer byteBuffer1 = ByteBuffer.allocate(1024*2);ByteBuffer byteBuffer2 = ByteBuffer.allocate(1024*6);ByteBuffer byteBuffer3 = ByteBuffer.allocate(1024*5);// 分散读取,从通道读取到多个缓存区ByteBuffer[]  buffers= {byteBuffer1,byteBuffer2,byteBuffer3};channel.read(buffers);//将多个缓冲区翻转for (ByteBuffer buffer : buffers) {buffer.flip();}// 聚集写入RandomAccessFile file2 = new RandomAccessFile("D:\\nio2.txt","rw");// 获取 通道FileChannel channel2 = file2.getChannel();channel2.write(buffers);channel.close();channel2.close();
}

字符集Charset

设置字符集,解决乱码问题

编码:字符串->字节数组

解码:字节数组->字符串

思路

用Charset.forName(String)构造一个编码器或解码器,利用编码器和解码器来对CharBuffer编码,对ByteBuffer解码。

需要注意的是,在对CharBuffer编码之前、对ByteBuffer解码之前,请记得对CharBuffer、ByteBuffer进行flip()切换到读模式。

如果编码和解码的格式不同,则会出现乱码

@Test
public void CharacterEncodingTest() throws CharacterCodingException {//加载字符集Charset charset = Charset.forName("utf-8");Charset charset1 = Charset.forName("gbk");// 获取编码器 utf-8CharsetEncoder encoder = charset.newEncoder();// 获得解码器 gbkCharsetDecoder decoder = charset1.newDecoder();CharBuffer buffer = CharBuffer.allocate(1024);//charbuffer.put("哈哈哈哈!");//5个汉字,10B// 编码buffer.flip();//切换ByteBuffer byteBuffer = encoder.encode(buffer);//对buffer编码for (int i = 0; i < 10; i++) {System.out.println(byteBuffer.get());//显示数字}// 解码byteBuffer.flip();//切换CharBuffer charBuffer = decoder.decode(byteBuffer);//对buffer解码System.out.println(charBuffer.toString());//有tostring方法
}

在for循环中使用过到了ByteBuffer的get()方法。一开始习惯性的在get()方法里加上了变量i随即出现了问题,无法取得数据。注释代码byteBuffer.flip();之后可以执行。当直接使用get()方法时,不加byteBuffer.flip();则会报错。所以就来区别一下ByteBuffer里的get();与get(int index);的区别。

查看get();方法源码:

 /*** Relative <i>get</i> method.  Reads the byte at this buffer's* current position, and then increments the position.* @return  The byte at the buffer's current position** @throws  BufferUnderflowException* If the buffer's current position is not smaller than its limit*/public abstract byte get();
可以看出返回的值是“ The byte at the buffer’s current position”,就是返回缓冲区当前位置的字节。"then increments the position"也说明了返回字节之后,position会自动加1,也就是指向下一字节。

上述情况如果是get(index),则是下面的方法:

/*** Absolute <i>get</i> method.  Reads the byte at the given index.* @param  index* The index from which the byte will be read* @return  The byte at the given index* @throws  IndexOutOfBoundsException* If <tt>index</tt> is negative or not smaller than the buffer's limit*/
public abstract byte get(int index);

由“The byte at the given index”可以知道返回的是给定索引处的字节。position并未移动。如果之后再执行flip();操作则读取不到任何数据。原因接着往下看。

多路复用

链接:https://www.zhihu.com/question/32163005/answer/55772739

如果你把每一个航线当成一个Sock(I/O 流), 空管当成你的服务端Sock管理代码的话.

第一种方法就是最传统的多进程并发模型 (每进来一个新的I/O流会分配一个新的进程管理。)
第二种方法就是I/O多路复用 (单个线程,通过记录跟踪每个I/O流(sock)的状态,来同时管理多个I/O流 。)

*其实“I/O多路复用”这个坑爹翻译可能是这个概念在中文里面如此难理解的原因。所谓的I/O多路复用在英文中其实叫 I/O multiplexing. 如果你搜索multiplexing啥意思,基本上都会出这个图:
*

于是大部分人都直接联想到"一根网线,多个sock复用" 这个概念,包括上面的几个回答, 其实不管你用多进程还是I/O多路复用, 网线都只有一根好伐。多个Sock复用一根网线这个功能是在内核+驱动层实现的

重要的事情再说一遍: I/O multiplexing 这里面的 multiplexing 指的其实是在单个线程通过记录跟踪每一个Sockect的状态(对应空管塔里面的Fight progress strip槽)来同时管理多个I/O流. 发明它的原因,是尽量多的提高服务器的吞吐能力。

是不是听起来好拗口,看个图就懂了

在同一个线程里面, 通过拨开关的方式,来同时传输多个I/O流, (学过EE的人现在可以站出来义正严辞说这个叫“时分复用”了)。

什么,你还没有搞懂“一个请求到来了,nginx使用epoll接收请求的过程是怎样的”, 多看看这个图就了解了。提醒下,ngnix会有很多链接进来, epoll会把他们都监视起来,然后像拨开关一样,谁有数据就拨向谁,然后调用相应的代码处理。

------------------------------------------
了解这个基本的概念以后,其他的就很好解释了。

select, poll, epoll 都是I/O多路复用的具体的实现,之所以有这三个鬼存在,其实是他们出现是有先后顺序的。

I/O多路复用这个概念被提出来以后, select是第一个实现 (1983 左右在BSD里面实现的)。

select 被实现以后,很快就暴露出了很多问题。

​ “If a file descriptor being monitored by select() is closed in another thread, the result is unspecified”

于是14年以后(1997年)一帮人又实现了poll, poll 修复了select的很多问题,比如

其实拖14年那么久也不是效率问题, 而是那个时代的硬件实在太弱,一台服务器处理1千多个链接简直就是神一样的存在了,select很长段时间已经满足需求。

于是5年以后, 在2002, 大神 Davide Libenzi 实现了epoll

epoll 可以说是I/O 多路复用最新的一个实现,epoll 修复了poll 和select绝大部分问题, 比如:

epoll 当年的patch,现在还在,下面链接/dev/epoll Home Page

贴一张霸气的图,看看当年神一样的性能(测试代码都是死链了, 如果有人可以刨坟找出来,可以研究下细节怎么测的).

横轴Dead connections 就是链接数的意思,叫这个名字只是它的测试工具叫deadcon. 纵轴是每秒处理请求的数量,你可以看到,epoll每秒处理请求的数量基本不会随着链接变多而下降的。poll 和/dev/poll 就很惨了。

可是epoll 有个致命的缺点。。只有linux支持。比如BSD上面对应的实现是kqueue。

其实有些国内知名厂商把epoll从安卓里面裁掉这种脑残的事情我会主动告诉你嘛。什么,你说没人用安卓做服务器,尼玛你是看不起p2p软件了啦。

而ngnix 的设计原则里面, 它会使用目标平台上面最高效的I/O多路复用模型咯,所以才会有这个设置。一般情况下,如果可能的话,尽量都用epoll/kqueue吧。

管道(Pipe)

Java NIO 管道是两个线程之间的单向数据连接。Pipe有一个source通道和一个sink通道。数据会被写到sink通道,从source通道读取。

代码示例

@Test
public void test() throws IOException {// 获取管道Pipe pipe = Pipe.open();ByteBuffer buffer = ByteBuffer.allocate(1024);// 将缓冲区中数据写入管道Pipe.SinkChannel sinkChannel = pipe.sink();buffer.put("要死了要死了要死了,,,救救孩子吧".getBytes());buffer.flip();sinkChannel.write(buffer);// 为了省事,就不写两个线程了// 读取缓冲区中数据Pipe.SourceChannel sourceChannel = pipe.source();buffer.flip();System.out.println(new String(buffer.array(),0,sourceChannel.read(buffer)));sinkChannel.close();sourceChannel.close();
}

epoll流程

5

6

聊天室案例

BIO聊天(单线程)

缺点:该服务端只能服务一个用户

ServerSocket serverSocket = new ServerSocket(81);
System.out.println("启动服务器"+serverSocket);
try {Socket socket = serverSocket.accept();try {System.out.println("客户端连接"+ socket);BufferedReader in = new BufferedReader(new InputStreamReader(socket.getInputStream()));PrintWriter out =new PrintWriter(new BufferedWriter(new OutputStreamWriter(socket.getOutputStream())), true);//PrintWriter的第二个参数bool值,指出是否在每一次println()结束的时候自动刷新输出缓冲区(但不适用于print()语句每次写人了输出内容后(写进out),它的缓冲区必须刷新,使信息能正式通过网络传递出去。while (true){String str = in.readLine();if (str.equals("END"))break;System.out.println(str);out.println("服务器回复"+str);//服务器回复客户端来信:0}}finally {System.out.println("关闭");socket.close();}
}finally {serverSocket.close();
}
/*
启动服务器ServerSocket[addr=0.0.0.0/0.0.0.0,localport=8080]
客户端连接Socket[addr=/127.0.0.1,port=54036,localport=8080]
客户端来信:0
客户端来信:1
客户端来信:2
客户端来信:3
客户端来信:4
客户端来信:5
客户端来信:6
客户端来信:7
客户端来信:8
客户端来信:9
关闭
* */
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
public class Client_Socket {public static void main(String[] args) throws IOException {InetAddress addr = InetAddress.getByName(null);//null就会默认查找localhostSystem.out.println("地址:"+addr);Socket socket = new Socket(addr, Server_Socket.PORT);try {System.out.println("Socket="+socket);BufferedReader in = new BufferedReader(new InputStreamReader(socket.getInputStream()));PrintWriter out =new PrintWriter(new BufferedWriter(new OutputStreamWriter(socket.getOutputStream())),true);for (int i = 0; i < 10; i++) {out.println("客户端来信:"+i);// 传给服务端String str = in.readLine();System.out.println(str);}out.println("END");}finally {System.out.println("关闭");socket.close();}}
}
/*
地址:localhost/127.0.0.1
Socket=Socket[addr=localhost/127.0.0.1,port=8080,localport=54036]
服务器回复客户端来信:0
服务器回复客户端来信:1
服务器回复客户端来信:2
服务器回复客户端来信:3
服务器回复客户端来信:4
服务器回复客户端来信:5
服务器回复客户端来信:6
服务器回复客户端来信:7
服务器回复客户端来信:8
服务器回复客户端来信:9
关闭
*/
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38

程序的下一部分是创建流,以便读取和写入,只是InputStream和OutputStream是从Socket对象创建的。
利用两个“转换器”类InputStreamReader和OutputStreamWriter,InputStream和OutputStream对象已经分别转换成为Reader和Writer对象。
也可以直接使用lnputStrearn和OutputStream类,但对输出来说,使用Writer方式具有明显的优势。
这一优势是通过PrintWriter表现出来的,它有一个重载的构造方法,能获取第二个参数:一个布尔值标志,指出是否在每一次println()结束的时候自动刷新输出缓冲区(但不适用于print()语句每次写人了输出内容后(写进out),它的缓冲区必须刷新,使信息能正式通过网络传递出去。

对目前这个例子来说,刷新显得尤为重要,因为客户和服务器在采取下一步操作之前都要等待一行文本内容的到达,若刷新没有发生.那么信息不会进人网络,除非缓冲区满(溢出),这会为本程序带来许多问题

编写网络应用程序时,要特别注意自动刷新机制的使用。每次刷新缓冲区时,须创建和发出一个数据包(数据封)。
就目前的情况来说,这正是我们所希望的,因为假如包内包含了还没有发出的文本行,服务器和客户机之间的相互联糸就会停止。
换句话说,一行的末尾就是一条消息的末尾。但在其他许多情况下,消息并不是用行分隔的,所以不如不用自动刷新机制,而用内建的缓冲区判决机制来决定何时发送一个数据包。这样一来,我们可以发出较大的数据包,而且处理进程也能加快。

注意,和我们打开的几乎所有数据流一样,它们都要进行缓冲处。无限while循环从BufferedReader in内读取文本行,并将信息写入System.out,然后写人PrintWriter类型的out。注意这可以是任何数据流,它们只是在表曲上同网络连接。客户程序发出包含了“END"的行后,程序会中止循环,并关闭Socket

若客户端没有刷新,那么整个会话都会被挂起,因为用于初始化的“客户端来信”永远不会发生出去(缓冲区不够满,不足以造成发送动作的自动进行)

BIO聊天(线程池)

前面的BIO中的Server_Socket每次只能为一个客户程序提供服务,在服务器中,我们希望同时处理多个用户的请求。解决方案是线程池。

一、源码

预备知识:

0 bitmap

fd set。1024bit,sock值,use include posix types h

// cat usr/include/linux/posix_types.h
/*
0标准输入
1 标准输出
2 标准出错
3 listenfd
4 connfd1
5 connfd2
6 connfd3
。。。
*/#undef __FD_SETSIZE
#define __FD_SETSIZE    1024typedef struct {unsigned long fds_bits[__FD_SETSIZE / (8 * sizeof(long))];
} __kernel_fd_set; // 这就是我们的fd-set。是一个数组,总的bit数为1024 //对应的sock是其中的一位/* Type of a signal handler.  */
typedef void (*__kernel_sighandler_t)(int);/* Type of a SYSV IPC key.  */
typedef int __kernel_key_t;
typedef int __kernel_mqd_t;#include <asm/posix_types.h>
/* 由于太长时间没看C语言,总觉得像java一样有浅拷贝的问题,但复习了一下C语言,
发现结构体是可以相互赋值的,而且赋值的是成员数据,不是地址。而且每个成员也会深拷贝。
此外,数组在C语言中虽然不可以直接互相赋值,一般用的是mset,但是也可以利用结构体实现直接互相赋值。(利用结构体达到数组深拷贝的小技巧)https://blog.csdn.net/junkeal/article/details/86764461
C语言结构体初始化问题:https://blog.csdn.net/weixin_42445727/article/details/81191327
*/
#include "stdio.h"
struct date
{int i;float x;
} d1={10,12.5};void main()
{struct date d2;d2=d1;printf("%d, %f\n",d2.i,d2.x);
}// 以下代码编译不通过
int a[5] = {1,2,3,4,5};
int b[5];
b = a;// 以下代码完全城阙,而且是深拷贝
typedef struct{int a[10];
}S;S s1 = { {1,2,3,4,5,6,7,8,9,0} }, s2;
s2 = s1;
//分别打印以下s1,s2
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32

查看几个宏:用来设置fd_set的

//man FD_SETNAMEselect, pselect, FD_CLR, FD_ISSET, FD_SET, FD_ZERO - synchronous I/O multiplexingSYNOPSISint select(int nfds, fd_set *readfds, //读的文件描述符fd_set *writefds, // 写的文件描述符fd_set *exceptfds,  // 异常的文件描述符struct timeval *timeout); void FD_CLR(int fd, fd_set *set);//置0某位int  FD_ISSET(int fd, fd_set *set);//判断某位void FD_SET(int fd, fd_set *set);//置1某位void FD_ZERO(fd_set *set);//置0全部#include <sys/select.h>int pselect(int nfds, fd_set *readfds, fd_set *writefds,fd_set *exceptfds, const struct timespec *timeout,const sigset_t *sigmask);
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24

1 select函数

man 2 select

监听多个文件描述符,知道一个或多个文件描述符准备好IO操作

select() and pselect() allow a program to monitor multiple file descriptors, waiting until one or more of the file descriptors become “ready” for some class of I/O operation (e.g., input possible).

A file descriptor is considered ready if it is possible to perform a corresponding I/O operation (e.g., read(2) without blocking, or a sufficiently small write(2)).

linux select原理图:https://www.processon.com/view/link/5f62b9a6e401fd2ad7e5d6d1

linux select()函数详解

在Linux中,我们可以使用select函数实现I/O端口的复用,传递给select函数的参数会告诉内核:

  • 1.我们所关心的文件描述符
  • 2.对每个描述符,我们所关心的状态。
  • 3.我们要等待多长时间。

内核遍历文件描述符,从select函数返回后(select()返回值),内核告诉我们一下信息:

  • 1.对我们的要求已经做好准备的描述符的个数

    • 正数:做好准备的文件描述符的个数,
    • 0:超时
    • -1:错误
  • 2.对于三种条件哪些描述符已经做好准备.(读,写,异常)(有了这些返回信息,我们可以调用合适的I/O函数(通常是read或write),并且这些函数不会再阻塞.)

流程:

  • 创建socket的集合fd_set,让是一个bitmap结构,是二进制,1024长度
  • 把监听的socket和客户端的socket加入集合fd_set
  • select(maxfd,fd_set,NULL,NULL,NULL)
  • 把FD_ISSET判断fd_set中有事件的socket
    • 监听socket有事件,表示由新客户段的连接请求。同时把新的客户端加入到fd_set
    • 客户端的socket有事件:
      • 有数据可读:去读数据
      • socket连接断开的事件:把socket从fd_set中移除。有客户端新连接或断开时fd_set才更新

Lnux select函数接口

select缺点

  • ① bitmap只有1024位
  • ② 另外fd置位后,rset就被修改过了,下一次while时就会情况rset,然后再把rset赋进来,FDset是不可重用的
  • ③ 从用户态拷贝到内核态的rset费时
  • ④ 返回的时候并不知道具体是哪个,需要遍历,所以O(n)
#include<sys/select.h>
// select只是linux提供的函数,并不是内核的select的实现,只是提供给我们使用的。使用80中断将当前进程切换到内核态,此时rset都会拷贝到内核态
int select(int nfds, //描述fd_set的bitmap的的size,必须扫描整个bitmap,这样就不用扫描1024位//0从开始数的话正常,从1开始数的话要+1// 一个文件描述集保存在df_set类型中,df_set其实就是位图fd_set *readfds, //关心的读集合*readset// 描述符集,bitmap,第几个可读就第几位为1,表征哪个文件描述符是被启用/监听的。指定满足什么条件可读 //rset是在用户空间中,会拷贝到内核空间中判断,效率高。没有数据的话内核态就会一直判断,也就是select是个阻塞函数。有数据时,会把有数据的对应位置的FD置位(rset)表明有数据来了,select函数返回。然后遍历FD,判断哪个FD被set了,读置位的数据,puts处理。// 缺点是// ① bitmap只有1024位,// ② 另外fd置位后,rset就被修改过了,下一次while时就会情况rset,然后再把rset赋进来,FDset是不可重用的// ③ 从用户态拷贝到内核态的rset费时// ④ 返回的时候并不知道具体是哪个,需要遍历,所以O(n)fd_set *writefds,//关心的写集合*writesetfd_set *exceptfds, //关心的异常集合*exceptsetstruct timeval *timeout);//等待的时间,NULL是阻塞,0是非阻塞,正数是时间
// 比如关心 socket号为567的读事件,readfds=00000111000...,writefds=0000000000struct timeval{//等待的时间/*timeout==NULL 等待无限长的时间timeout->tv_sec==0 && timeout->tvtv_usec_sec==0 不等待,直接返回(非阻塞)timeout->tv_sec!=0 || timeout->tvtv_usec_sec!=0 等待指定的时间*/long tv_sec;//秒long tv_usec;//微妙}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28

linux中有一些宏,方便对上面select函数中bitmap进行操作

//相应的,Linux提供了一组宏。来为fdset进行赋值等操作。//其实他本来只是工具,并不是提供给socket的,只是socket可用
#include<sys/select.h>/**FDZERO宏将一个fdset类型变量的所有位都设为0*/
int FDZERO(fdset* fdset);/**清除某个位时可以使用FDCLR*/
int FDCLR(int fd,fdset* fdset);/**使用FDSET将指定位置的bit值设置为1*/
int FDSET(int fd,fdset* fdset);/**FDISSET来测试某个位是否被置1*/
int FDISSET(int fd,fdset* fdset);int maxfdp;是一个整数值,是指集合中所有文件描述符的范围,即所有文件描述符的最大值加1,不能错。
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16

c++使用select的demo:从下面可以观察到,我们使用select还得每次都清零然后for赋值,select返回后继续遍历进行read

select流程

  • 3个连接请求到来,服务器处理accept事件队列,建立连接,然后去读
  • 进程A从用户态进入内核态,然后阻塞
  • 数据来了之后DMA把数据从网卡读到内核缓冲区,发起硬件中断,CPU进入内核态,
    • CPU进入内核态前保存用户态堆栈信息到pd
    • 修改CPU寄存器,将堆栈指针指向当前进程内核态堆栈
    • 根据IRQ向量到向量表查找合适的中断处理程序
    • 执行网卡中断处理程序
  • 遍历得到的数组,得到是谁的数据来了,
  • 唤醒进程A,进程A转到就绪队列

2 poll

linux epoll函数:https://www.processon.com/view/link/5f6034210791295dccbc1426

int poll(struct pollfd *fds,//结构体数组指针,但也不是无穷大,ulimit -n ,即100001mfds_t nfds,int timeout);//单位为微秒struct pollfd{int fd;//文件描述符 //如果是负数的话,就会忽略他,所以我们可以初始化数组里全部元素的该属性为-1short events;//请求事件,在意的事件,如读、写short revents;//返回事件,回馈,一开始是0
};
//man poll
事件有POLLIN ,有数据读There is data to read.POLLPRIPOLLOUT,Writing is now possible, though a write larger that the available space in  a  socket  or  pipe  will  still block (unless O_NONBLOCK is set).POLLRDHUPPOLLERRPOLLHUPPOLLPRIThere is some exceptional condition on the file descriptor.  Possibilities include:*  There is out-of-band data on a TCP socket (see tcp(7)).*  A pseudoterminal master in packet mode has seen a state change on the slave (see ioctl_tty(2)).*  A cgroup.events file has been modified (see cgroups(7)).while(1){puts("round again");poll(pollgds,5,5000);//5个元素,5000超时时间for(i=0;i<5;i++){}
}
也是阻塞的
没采用bitmap,采用的是pollfd,置位是revent,所以可以重用

3 epoll函数

linux epoll原理图:https://www.processon.com/view/link/5f62f98f5653bb28eb434add

epoll是在2.6内核中提出的,是之前的select和poll的增强版本。相对于select和poll来说,epoll更加灵活,没有描述符限制。epoll使用一个文件描述符冒理多个描述符,将用户关心的文件描述符的事件存放到内核的一个事件表中,这样在用户空间和内核空间的copy只需一次。

epoll接口

epoll操作过程需要三个接口,分别如下:epoll_createepoll_ctlepoll_wait

// 比如nginx,先有serverSocket的fd6,然后用epoll_create创建fd8,然后epoll_ctl(8,,6)让8持有6,然后epoll_wait(8)内核会告诉有什么事件到达
#include<sys/epoll.h>int epoll_create(int size);//创建epoll句柄,他本身就是一个fd,描述符id//在内核开辟一个空间,即像我们之前的rset一样,称为epoll空间,可以通过fd拿到。里面有要管理的事件列表 //可以管理多少个socket//增删改上面空间里的数据。//注册需要监视fd个事件
int epoll_ctl(int epfd,//要改第几个epoll,即epoll的fd编号,epoll结构的进程fd编号,函数将依靠该编号找到对应的epoll结构。int op,//操作类型int fd,//增删改哪个socketStruct epollevent* event);// 等待事件的发生,是一个阻塞的操作
// epoll空间里还有个就绪列表,存上面就绪的列表,epoll_wait就是访问就绪列表的
int epoll_wait(//返回值为发生事件的个数int epfd,struct epollevent* events,//会把有事件发生的socket放到这个数组里int maxevents,//就绪数组的长度,因为c语言数组没有length属性int timeout);//0表示非阻塞,正数表示等待时长,-1表示一直阻塞
struct epoll_event{_uint32_t events;/*Epoll events*/epoll_data_t data;/*User data variable*/
};// man epoll
events可以是以下几个宏的集合:EPOLLIN、//读EPOLLOUT、//写EPOLLPRI、EPOLLERR、EPOLLHUP(挂断)、EPOLLET(边缘触发)、EPOLLONESHOT(只监听一次,事件触发后从epoll列表自动清除该fd)

epoll里就不需要把监听的集合在用户空间和内核空间来回拷贝了

epoll流程

(1)epoll_create函数是一个系统函数,函数将在内核空间内开辟一块新的空间,可以理解为epoll结构空间返回值为epoll的文件描述符编号,方便后续操作使用。

(2)epoll_ctlepoll的事件注册函数,epoll与select不同,select函数是调用时指定需要监听的描述符和事件,epoll先将用户感兴趣的描述符事件注册到epoll空间内,此函数是非阻塞函数,作用仅仅是增删改epoll空间内的描述符信息。

  • 参数一:epfd,很简单,epoll结构的进程fd编号,函数将依靠该编号找到对应的epoll结构。

  • 参数二:op,表示当前请求类型,由三个宏定义
    (EPOLL_CTL_ADD:注册新的fd到epfd中).(EPOLL_CTL_MOD:修改已经注册的fd的监听事件)、(EPOLL_CTL_DEL:从epfd中删除一个fd)

  • 参数三:fd,需要监听的文件描述符。一般指socket_fd

  • 参数四:event,告诉内核对该fd资源感兴趣的事件

(3)epoll_wait等待事件的产生,类似于select()调用。根据参数timeout,来决定是否阻塞。

  • 参数一:epfd,指定感兴趣的epoll事件列表
  • 参数二:*events,是一个指针,须指向一个epoll_event结构数组,当函数返回时,内核会把就绪状态的数据拷贝到该数组中!携带回发生事件的数据
  • 参数三:maxevents,标明参数二epoevent数组最多能接收的数据量,即本次操作最多能获取多少就绪数据
  • 参数四:timeout,单位为毫秒。
    • 0:表示立即返回,菲咀塞调用。
    • -1:阻塞调用,直到有用户感兴趣的事件就绪为止。
    • >0:阻塞调用,阻塞指定时间内如果有事件就绪则提前返回,否则等待指定时间后返回。
  • 返回值:本次就绪的fd个数。

工作模式

epoll对文件描述符的操作有两种模式LT(水平触发)和ET(边缘触发)。LT模式是默认模式,LT模式与ET模式的区别如下

  • LT(水平触发):事件就绪后,用户可以选择处理者不处理,如果用户本次未处理,那么下次调用epoll_wait时仍然会将未处理的事件打包给你。如果报告了fd事件没有被处理或数据没有被全部读取,那么epoll会立即再报告该fd。select和poll都采用水平触发
  • ET(边缘触发):事件就绪后,用户必须处理,因为内核不给你兜底了,内核把就绪的事件打包给你后,就把对应的就绪事件清理掉了。如果报告了fd后事件没有被处理或者数据没有被全部读取,那么epoll会下次再报告该fd
  • ET模式在很大程度上减少了epoll事件被重复触发的次数,因此效率要比LT模式高。

二、C语言使用示例

①select示例

#include <stdio.h>
#include <unistd.h>
#include <stdlib.h>
#include <string.h>
#include <sys/socket.h>
#include <arpa/inet.h>
#include <sys/fcntl.h>// 初始化服务端的监听端口。
int initserver(int port);int main(int argc,char *argv[])
{if (argc != 2){printf("usage: ./tcpselect port\n"); return -1;}// 初始化服务端用于监听的socket。int listensock = initserver(atoi(argv[1]));printf("listensock=%d\n",listensock);if (listensock < 0){printf("initserver() failed.\n"); return -1;}fd_set readfdset;  // 读事件的集合,包括监听socket和客户端连接上来的socket。int maxfd;  // readfdset中socket的最大值。 //sock是一个整数,maxfd是集合里最大的整数,这样可以帮我们节省遍历的时间// 初始化结构体,把listensock添加到集合中。FD_ZERO(&readfdset);FD_SET(listensock,&readfdset);//把listen-sock添加到集合中。maxfd = listensock;//整数,集合中socket的最大值while (1){// 调用select函数时,会改变socket集合的内容,所以要把socket集合保存下来,传一个临时的给select。fd_set tmpfdset = readfdset;//重新赋值int infds = select(maxfd+1,&tmpfdset,NULL,NULL,NULL);//返回事件的个数// printf("select infds=%d\n",infds);// ---------返回失败---------。if (infds < 0){printf("select() failed.\n"); perror("select()"); break;}// ---------超时,在本程序中,select函数最后一个参数为空,不存在超时的情况,但以下代码还是留着。if (infds == 0){printf("select() timeout.\n"); continue;}// ---------检查有事情发生的socket,包括监听和客户端连接的socket。// 这里是客户端的socket事件,每次都要遍历整个集合,因为可能有多个socket有事件。for (int eventfd=0; eventfd <= maxfd; eventfd++){if (FD_ISSET(eventfd,&tmpfdset)<=0) continue;if (eventfd==listensock){ // 如果发生事件的是listensock,表示有新的客户端连上来。struct sockaddr_in client;socklen_t len = sizeof(client);// 这里的accept不会阻塞,因为已经是服务端的事件了,肯定是新的客户端请求连接int clientsock = accept(listensock,(struct sockaddr*)&client,&len);if (clientsock < 0){printf("accept() failed.\n"); continue;}printf ("client(socket=%d) connected ok.\n",clientsock);// 把新的客户端socket加入集合。FD_SET(clientsock,&readfdset);// 设置readfdset的第clientsock位为1if (maxfd < clientsock) maxfd = clientsock;continue;}else{// 客户端有数据过来或客户端的socket连接被断开。char buffer[1024];memset(buffer,0,sizeof(buffer));// 读取客户端的数据。用read的返回值贩毒案发生的客户端事件ssize_t isize=read(eventfd,buffer,sizeof(buffer));// 发生了错误或socket被对方关闭。if (isize <=0){printf("client(eventfd=%d) disconnected.\n",eventfd);close(eventfd);  // 关闭客户端的socket。FD_CLR(eventfd,&readfdset);  // 从集合中移去客户端的socket。// 重新计算maxfd的值,注意,只有当eventfd==maxfd时才需要计算。if (eventfd == maxfd){for (int ii=maxfd;ii>0;ii--){if (FD_ISSET(ii,&readfdset)){maxfd = ii; break;}}printf("maxfd=%d\n",maxfd);}continue;}printf("recv(eventfd=%d,size=%d):%s\n",eventfd,isize,buffer);// 把收到的报文发回给客户端。write(eventfd,buffer,strlen(buffer));}}}return 0;
}// 初始化服务端的监听端口。
int initserver(int port)
{int sock = socket(AF_INET,SOCK_STREAM,0);if (sock < 0){printf("socket() failed.\n"); return -1;}// Linux如下int opt = 1; unsigned int len = sizeof(opt);setsockopt(sock,SOL_SOCKET,SO_REUSEADDR,&opt,len);setsockopt(sock,SOL_SOCKET,SO_KEEPALIVE,&opt,len);struct sockaddr_in servaddr;servaddr.sin_family = AF_INET;//tcp/ipservaddr.sin_addr.s_addr = htonl(INADDR_ANY);servaddr.sin_port = htons(port);// bind,绑定sock与IPif (bind(sock,(struct sockaddr *)&servaddr,sizeof(servaddr)) < 0 ){printf("bind() failed.\n"); close(sock); return -1;}//listen ,监听端口if (listen(sock,5) != 0 ){printf("listen() failed.\n"); close(sock); return -1;}return sock;
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43
  • 44
  • 45
  • 46
  • 47
  • 48
  • 49
  • 50
  • 51
  • 52
  • 53
  • 54
  • 55
  • 56
  • 57
  • 58
  • 59
  • 60
  • 61
  • 62
  • 63
  • 64
  • 65
  • 66
  • 67
  • 68
  • 69
  • 70
  • 71
  • 72
  • 73
  • 74
  • 75
  • 76
  • 77
  • 78
  • 79
  • 80
  • 81
  • 82
  • 83
  • 84
  • 85
  • 86
  • 87
  • 88
  • 89
  • 90
  • 91
  • 92
  • 93
  • 94
  • 95
  • 96
  • 97
  • 98
  • 99
  • 100
  • 101
  • 102
  • 103
  • 104
  • 105
  • 106
  • 107
  • 108
  • 109
  • 110
  • 111
  • 112
  • 113
  • 114
  • 115
  • 116
  • 117
  • 118
  • 119
  • 120
  • 121
  • 122
  • 123
  • 124
  • 125
  • 126
  • 127
  • 128
  • 129
  • 130
  • 131
  • 132
  • 133
  • 134
  • 135
  • 136
  • 137
  • 138
  • 139
  • 140
  • 141
  • 142
  • 143
  • 144
  • 145
  • 146
  • 147
  • 148
  • 149
  • 150
  • 151
  • 152
  • 153
  • 154
  • 155
  • 156
  • 157
  • 158
  • 159
  • 160
  • 161
  • 162
  • 163

②poll示例

#include <stdio.h>
#include <unistd.h>
#include <stdlib.h>
#include <string.h>
#include <poll.h>
#include <sys/socket.h>
#include <arpa/inet.h>
#include <sys/fcntl.h>// ulimit -n
#define MAXNFDS  1024// 初始化服务端的监听端口。
int initserver(int port);int main(int argc,char *argv[])
{if (argc != 2){printf("usage: ./tcppoll port\n"); return -1;}// 初始化服务端用于监听的socket。int listensock = initserver(atoi(argv[1]));printf("listensock=%d\n",listensock);if (listensock < 0){printf("initserver() failed.\n"); return -1;}int maxfd;   // fds数组中需要监视的socket的大小。struct pollfd fds[MAXNFDS];  // fds存放需要监视的socket。for (int ii=0;ii<MAXNFDS;ii++) fds[ii].fd=-1; // 初始化数组,把全部的fd设置为-1。// 把listensock添加到数组中。fds[listensock].fd=listensock;fds[listensock].events=POLLIN;  // 有数据可读事件,包括新客户端的连接、客户端socket有数据可读和客户端socket断开三种情况。maxfd=listensock;while (1){int infds = poll(fds,maxfd+1,5000);// printf("poll infds=%d\n",infds);// 返回失败。if (infds < 0){printf("poll() failed.\n"); perror("poll():"); break;}// 超时。if (infds == 0){printf("poll() timeout.\n"); continue;}// 检查有事情发生的socket,包括监听和客户端连接的socket。// 这里是客户端的socket事件,每次都要遍历整个集合,因为可能有多个socket有事件。for (int eventfd=0; eventfd <= maxfd; eventfd++){if (fds[eventfd].fd<0) continue;if ((fds[eventfd].revents&POLLIN)==0) continue;fds[eventfd].revents=0;  // 先把revents清空。if (eventfd==listensock){// 如果发生事件的是listensock,表示有新的客户端连上来。struct sockaddr_in client;socklen_t len = sizeof(client);int clientsock = accept(listensock,(struct sockaddr*)&client,&len);if (clientsock < 0){printf("accept() failed.\n"); continue;}printf ("client(socket=%d) connected ok.\n",clientsock);if (clientsock>MAXNFDS){    printf("clientsock(%d)>MAXNFDS(%d)\n",clientsock,MAXNFDS); close(clientsock); continue;}fds[clientsock].fd=clientsock;fds[clientsock].events=POLLIN; fds[clientsock].revents=0; if (maxfd < clientsock) maxfd = clientsock;printf("maxfd=%d\n",maxfd);continue;}else {// 客户端有数据过来或客户端的socket连接被断开。char buffer[1024];memset(buffer,0,sizeof(buffer));// 读取客户端的数据。ssize_t isize=read(eventfd,buffer,sizeof(buffer));// 发生了错误或socket被对方关闭。if (isize <=0){printf("client(eventfd=%d) disconnected.\n",eventfd);close(eventfd);  // 关闭客户端的socket。fds[eventfd].fd=-1;// 重新计算maxfd的值,注意,只有当eventfd==maxfd时才需要计算。if (eventfd == maxfd){for (int ii=maxfd;ii>0;ii--){if ( fds[ii].fd != -1){maxfd = ii; break;}}printf("maxfd=%d\n",maxfd);}continue;}printf("recv(eventfd=%d,size=%d):%s\n",eventfd,isize,buffer);// 把收到的报文发回给客户端。write(eventfd,buffer,strlen(buffer));}}}return 0;
}// 初始化服务端的监听端口。
int initserver(int port)
{int sock = socket(AF_INET,SOCK_STREAM,0);if (sock < 0){printf("socket() failed.\n"); return -1;}// Linux如下int opt = 1; unsigned int len = sizeof(opt);setsockopt(sock,SOL_SOCKET,SO_REUSEADDR,&opt,len);setsockopt(sock,SOL_SOCKET,SO_KEEPALIVE,&opt,len);struct sockaddr_in servaddr;servaddr.sin_family = AF_INET;servaddr.sin_addr.s_addr = htonl(INADDR_ANY);servaddr.sin_port = htons(port);if (bind(sock,(struct sockaddr *)&servaddr,sizeof(servaddr)) < 0 ){printf("bind() failed.\n"); close(sock); return -1;}if (listen(sock,5) != 0 ){printf("listen() failed.\n"); close(sock); return -1;}return sock;
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43
  • 44
  • 45
  • 46
  • 47
  • 48
  • 49
  • 50
  • 51
  • 52
  • 53
  • 54
  • 55
  • 56
  • 57
  • 58
  • 59
  • 60
  • 61
  • 62
  • 63
  • 64
  • 65
  • 66
  • 67
  • 68
  • 69
  • 70
  • 71
  • 72
  • 73
  • 74
  • 75
  • 76
  • 77
  • 78
  • 79
  • 80
  • 81
  • 82
  • 83
  • 84
  • 85
  • 86
  • 87
  • 88
  • 89
  • 90
  • 91
  • 92
  • 93
  • 94
  • 95
  • 96
  • 97
  • 98
  • 99
  • 100
  • 101
  • 102
  • 103
  • 104
  • 105
  • 106
  • 107
  • 108
  • 109
  • 110
  • 111
  • 112
  • 113
  • 114
  • 115
  • 116
  • 117
  • 118
  • 119
  • 120
  • 121
  • 122
  • 123
  • 124
  • 125
  • 126
  • 127
  • 128
  • 129
  • 130
  • 131
  • 132
  • 133
  • 134
  • 135
  • 136
  • 137
  • 138
  • 139
  • 140
  • 141
  • 142
  • 143
  • 144
  • 145
  • 146
  • 147
  • 148
  • 149
  • 150
  • 151
  • 152
  • 153
  • 154
  • 155
  • 156
  • 157
  • 158
  • 159
  • 160
  • 161
  • 162
  • 163
  • 164
  • 165
  • 166
  • 167
  • 168
  • 169
  • 170
  • 171
  • 172

③epoll示例

#include <fcntl.h>
#include <arpa/inet.h>
#include <netinet/in.h>
#include <sys/epoll.h>
#include <sys/socket.h>
#include <sys/types.h>#define MAXEVENTS 100// 把socket设置为非阻塞的方式。
int setnonblocking(int sockfd);// 初始化服务端的监听端口。
int initserver(int port);int main(int argc,char *argv[])
{if (argc != 2){printf("usage:./tcpepoll port\n"); return -1;}// 初始化服务端用于监听的socket。int listensock = initserver(atoi(argv[1]));printf("listensock=%d\n",listensock);if (listensock < 0){printf("initserver() failed.\n"); return -1;}int epollfd;char buffer[1024];memset(buffer,0,sizeof(buffer));// 创建一个描述符epollfd = epoll_create(1);// 添加监听描述符事件struct epoll_event ev;ev.data.fd = listensock;ev.events = EPOLLIN;// epoll_ctl添加服务器监听epoll_ctl(epollfd,EPOLL_CTL_ADD,listensock,&ev);while (1){struct epoll_event events[MAXEVENTS]; // 存放有事件发生的结构数组。// 等待监视的socket有事件发生。int infds = epoll_wait(epollfd,events,MAXEVENTS,-1);// printf("epoll_wait infds=%d\n",infds);// 返回失败。if (infds < 0){printf("epoll_wait() failed.\n"); perror("epoll_wait()"); break;}// 超时。if (infds == 0){printf("epoll_wait() timeout.\n"); continue;}// 遍历有事件发生的结构数组。for (int ii=0;ii<infds;ii++){if ((events[ii].data.fd == listensock) &&(events[ii].events & EPOLLIN)){// 如果发生事件的是listensock,表示有新的客户端连上来。struct sockaddr_in client;socklen_t len = sizeof(client);int clientsock = accept(listensock,(struct sockaddr*)&client,&len);if (clientsock < 0){printf("accept() failed.\n"); continue;}// 把新的客户端添加到epoll中。memset(&ev,0,sizeof(struct epoll_event));ev.data.fd = clientsock;ev.events = EPOLLIN;epoll_ctl(epollfd,EPOLL_CTL_ADD,clientsock,&ev);printf ("client(socket=%d) connected ok.\n",clientsock);continue;}else if (events[ii].events & EPOLLIN){// 客户端有数据过来或客户端的socket连接被断开。char buffer[1024];memset(buffer,0,sizeof(buffer));// 读取客户端的数据。ssize_t isize=read(events[ii].data.fd,buffer,sizeof(buffer));// 发生了错误或socket被对方关闭。if (isize <=0){printf("client(eventfd=%d) disconnected.\n",events[ii].data.fd);// 把已断开的客户端从epoll中删除。memset(&ev,0,sizeof(struct epoll_event));ev.events = EPOLLIN;ev.data.fd = events[ii].data.fd;epoll_ctl(epollfd,EPOLL_CTL_DEL,events[ii].data.fd,&ev);close(events[ii].data.fd);continue;}printf("recv(eventfd=%d,size=%d):%s\n",events[ii].data.fd,isize,buffer);// 把收到的报文发回给客户端。write(events[ii].data.fd,buffer,strlen(buffer));}}}close(epollfd);return 0;
}// 初始化服务端的监听端口。
int initserver(int port)
{int sock = socket(AF_INET,SOCK_STREAM,0);if (sock < 0){printf("socket() failed.\n"); return -1;}// Linux如下int opt = 1; unsigned int len = sizeof(opt);setsockopt(sock,SOL_SOCKET,SO_REUSEADDR,&opt,len);setsockopt(sock,SOL_SOCKET,SO_KEEPALIVE,&opt,len);struct sockaddr_in servaddr;servaddr.sin_family = AF_INET;servaddr.sin_addr.s_addr = htonl(INADDR_ANY);servaddr.sin_port = htons(port);if (bind(sock,(struct sockaddr *)&servaddr,sizeof(servaddr)) < 0 ){printf("bind() failed.\n"); close(sock); return -1;}if (listen(sock,5) != 0 ){printf("listen() failed.\n"); close(sock); return -1;}return sock;
}// 把socket设置为非阻塞的方式。
int setnonblocking(int sockfd)
{  if (fcntl(sockfd, F_SETFL, fcntl(sockfd, F_GETFD, 0)|O_NONBLOCK) == -1)  return -1;return 0;
}  
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43
  • 44
  • 45
  • 46
  • 47
  • 48
  • 49
  • 50
  • 51
  • 52
  • 53
  • 54
  • 55
  • 56
  • 57
  • 58
  • 59
  • 60
  • 61
  • 62
  • 63
  • 64
  • 65
  • 66
  • 67
  • 68
  • 69
  • 70
  • 71
  • 72
  • 73
  • 74
  • 75
  • 76
  • 77
  • 78
  • 79
  • 80
  • 81
  • 82
  • 83
  • 84
  • 85
  • 86
  • 87
  • 88
  • 89
  • 90
  • 91
  • 92
  • 93
  • 94
  • 95
  • 96
  • 97
  • 98
  • 99
  • 100
  • 101
  • 102
  • 103
  • 104
  • 105
  • 106
  • 107
  • 108
  • 109
  • 110
  • 111
  • 112
  • 113
  • 114
  • 115
  • 116
  • 117
  • 118
  • 119
  • 120
  • 121
  • 122
  • 123
  • 124
  • 125
  • 126
  • 127
  • 128
  • 129
  • 130
  • 131
  • 132
  • 133
  • 134
  • 135
  • 136
  • 137
  • 138
  • 139
  • 140
  • 141
  • 142
  • 143
  • 144
  • 145
  • 146
  • 147
  • 148
  • 149
  • 150
  • 151
  • 152
  • 153
  • 154
  • 155
  • 156
  • 157
  • 158
  • 159
  • 160
  • 161
  • 162
  • 163
  • 164
  • 165
  • 166

client

#include <stdio.h>
#include <stdlib.h>
#include <unistd.h>
#include <errno.h>
#include <string.h>
#include <netinet/in.h>
#include <sys/socket.h>
#include <arpa/inet.h>int main(int argc, char *argv[])
{if (argc != 3){printf("usage:./tcpclient ip port\n"); return -1;}int sockfd;struct sockaddr_in servaddr;char buf[1024];if ((sockfd=socket(AF_INET,SOCK_STREAM,0))<0) { printf("socket() failed.\n"); return -1; }memset(&servaddr,0,sizeof(servaddr));servaddr.sin_family=AF_INET;//TCP/IP协议servaddr.sin_port=htons(atoi(argv[2]));servaddr.sin_addr.s_addr=inet_addr(argv[1]);if (connect(sockfd, (struct sockaddr *)&servaddr,sizeof(servaddr)) != 0){printf("connect(%s:%s) failed.\n",argv[1],argv[2]); close(sockfd);  return -1;}printf("connect ok.\n");for (int ii=0;ii<10000;ii++){// 从命令行输入内容。memset(buf,0,sizeof(buf));printf("please input:"); scanf("%s",buf);// sprintf(buf,"1111111111111111111111ii=%08d",ii);if (write(sockfd,buf,strlen(buf)) <=0){ printf("write() failed.\n");  close(sockfd);  return -1;}memset(buf,0,sizeof(buf));if (read(sockfd,buf,sizeof(buf)) <=0) { printf("read() failed.\n");  close(sockfd);  return -1;}printf("recv:%s\n",buf);// close(sockfd); break;}
} 
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43
  • 44
  • 45
  • 46
  • 47
  • 48
  • 49
  • 50
  • 51
  • 52
  • 53
  • 54
  • 55
  • 56
  • 57
  • 58

三、零拷贝

https://blog.csdn.net/hancoder/article/details/112149121

【网络通信】select、poll、epoll相关推荐

  1. 【C/C++服务器开发】文件,文件描述符,I/O多路复用,select / poll / epoll 详解

    文章目录 一.前言 1.文件的概念 2.文件描述符和文件指针 文件描述符 文件描述符和文件指针的区别 文件描述符太多了怎么办 二.I/O多路复用 1.I/O多路复用的由来 不要打电话给我,有需要我会打 ...

  2. java nio原理 epoll_多路复用 Select Poll Epoll 的实现原理(BIO与NIO)

    BIO blocking阻塞的意思,当我们在后端开发使用的时候,accetp 事件会阻塞主线程. 当accept事件执行的时候,客户的会和服务建立一个socket 连接.一般后端就会开启一个线程执行后 ...

  3. Python之路-python(Queue队列、进程、Gevent协程、Select\Poll\Epoll异步IO与事件驱动)

    一.进程: 1.语法 2.进程间通讯 3.进程池 二.Gevent协程 三.Select\Poll\Epoll异步IO与事件驱动 一.进程: 1.语法 1 简单的启动线程语法 2 def run(na ...

  4. python3 异步 非阻塞 IO多路复用 select poll epoll 使用

    有许多封装好的异步非阻塞IO多路复用框架,底层在linux基于最新的epoll实现,为了更好的使用,了解其底层原理还是有必要的. 下面记录下分别基于Select/Poll/Epoll的echo ser ...

  5. select,poll,epoll区别面试常问

    select,poll,epoll区别: select优点 1)select()的可移植性更好,在某些Unix系统上不支持poll() 2)select() 对于超时值提供了更好的精度:微秒,而pol ...

  6. IO模型(select, poll, epoll的区别和原理)

    参考<unix网络编程> 参考http://blog.csdn.net/blueboy2000/article/details/4485874 参考http://blog.csdn.net ...

  7. select/poll/epoll 与 /dev/poll

    select/poll 这两种实际上差不多,都是把一组fd传送给kernal,然后返回一个就绪fd的数量,然后开始遍历所有的fd,找到那些可读或者可写的. 区别在于,poll相比select来说,传送 ...

  8. select poll epoll IO操作多路复用及猴子补丁

    一:select(能监控数量有限,不能告诉用户程序具体那个连接有数据) select目前几乎所有的平台都支持,其良好的跨平台支持也是一个优点 select的缺点在于单个进程能够监控的文件描述的数量存在 ...

  9. IO多路复用select/poll/epoll详解以及在Python中的应用

    IO multiplexing(IO多路复用) IO多路复用,有些地方称之为event driven IO(事件驱动IO). 它的好处在于单个进程可以处理多个网络IO请求.select/epoll这两 ...

  10. Python异步非阻塞IO多路复用Select/Poll/Epoll使用

    来源:http://www.haiyun.me/archives/1056.html 有许多封装好的异步非阻塞IO多路复用框架,底层在linux基于最新的epoll实现,为了更好的使用,了解其底层原理 ...

最新文章

  1. 收好这份 Git 命令应急手册,关键时刻可保你一命
  2. 记一次升级Oracle驱动引发的死锁
  3. GDB 使用手册(谷歌翻译)
  4. java代码_Java:java五行代码实现Excel的快速导出
  5. Java - 基本语法
  6. CentOS7 Tomcat安装
  7. 【HDU - 5056】Boring count (尺取法)
  8. 怎么添加流程图画布_工作流程图软件,教你绘制简单的工作流程图!
  9. NGUI的slider的滑动条制作(SliderScript)
  10. 简单php web ftp服务器,php 上传文件到ftp服务器的简单示例(单文件)
  11. 远程exp_Windows远程桌面服务漏洞(CVE-2019-0708)攻击代码现身
  12. 深度学习还是鼠标搞定,零基础建网站必备技能
  13. 一个轻量级多功能免费开源web聊天室
  14. AC97 与 HD audio的区别
  15. 网易云课堂课程下载教程
  16. 金蝶云星空(Kingdee)的webapi 使用:修改生产领料单的实收数量,并且影响上下游单据(生产订单)
  17. Matplotlib_2
  18. Word长篇文档排版技巧
  19. pbl和sbl_ROKSO、SBL、XBL、PBL、DBL 是什么意思?
  20. 【ArcGIS微课1000例】0038:注记(Annotation)的使用方法

热门文章

  1. 微软飞行模拟服务器,《微软飞行模拟》大型修复补丁即将上线
  2. 庆阳顺盛铝合金模板CAD系统
  3. Photoshop CC Coloring Comic Characters Photoshop CC漫画人物着色教程 Pluralsight课程中文字幕
  4. 你也可以成为VTuber
  5. 2.2比特币(BTC)中的数据结构
  6. STM32驱动_rc522
  7. 黑马视频学习笔记HTML上
  8. 探索接入网和网络运营商——光纤接入网(FTTH)
  9. 构建完善的帮助中心,降低企业客户服务成本
  10. EDMA SEED 例程