文章目录

  • 1.Netty框架简介
    • 1.1.Netty简介
    • 1.2.Netty主要特性
    • 1.3.Netty和Tomcat的区别
    • 1.4.BIO编写Client-Server通信
  • 2.常见的网络IO模型
    • 2.1.用户空间与内核空间
    • 2.2.文件描述符fd
    • 2.3.TCP发送数据的流程
    • 2.4.阻塞/非阻塞,同步/异步
    • 2.5.Linux中五种I/O模型
    • 2.6.I/O多路复用之select,poll,epoll
    • 2.7.Java的I/O演进历史
    • 2.8.Reactor三种线程模型
  • 3.Netty搭建Echo服务
    • 3.1.什么是Echo服务
    • 3.2.Echo服务搭建
  • 4.Netty核心源码分析
    • 4.1.Java NIO之Selector
    • 4.2.EventLoop和EventLoopGroup
    • 4.3.Netty的启动引导类
    • 4.4.Netty核心组件Channel
    • 4.5.ChannelHander接口详解
    • 4.6.ChannelPipeline接口详解
    • 4.7.ChannelHandlerContext接口详解
    • 4.8.多个入站出战ChannelHandler的执行顺序
    • 4.9.Netty异步回调模式-Future和Promise
  • 5.Netty数据传输编解码
    • 5.1.什么是编码、解码
    • 5.2.Netty解码器之Decoder
    • 5.3.Netty编码器之Encoder
    • 5.4.Netty编解码器之Codec
  • 6.Netty网络传输TCP粘包拆包
    • 6.1.TCP粘包拆包讲解
    • 6.2.半包读写常见解决方案
    • 6.3.Netty自带解决TCP半包读写方案
    • 6.4.半包读写问题案例
    • 6.4.空格解码器案例
    • 6.5.自定义解码器案例
  • 7.Netty核心功能之Buffer
    • 7.1.Netty中BufferAPI
    • 7.2.Netty字节数据容器ByteBuf
    • 7.3.Netty字节级别的操作
    • 7.4.Netty之ByteBufHolder的使用
    • 7.5.Netty之ByteBuf分配
    • 7.6.Netty引用计数器
    • 7.7.Netty中用到的设计模式
  • 8.Netty搭建单机百万连接
    • 8.1.Netty单机百万连接方案
    • 8.2.Netty搭建百万连接案例
    • 8.3.Netty百万连接测试

1.Netty框架简介

1.1.Netty简介

netty是jboss提供的一个java开源框架,netty提供异步的、事件驱动的网络应用程序框架和工具,用以快速开发高性能、高可用性的网络服务器和客户端程序。也就是说netty是一个基于nio的编程框架,使用netty可以快速的开发出一个网络应用。

由于java 自带的nio api使用起来非常复杂,并且还可能出现 Epoll Bug,这使得我们使用原生的nio来进行网络编程存在很大的难度且非常耗时。但是netty良好的设计可以使开发人员快速高效的进行网络应用开发。

1.2.Netty主要特性

  • 统一的API接口,支持多种传输类型,例如OIO,NIO
  • 简单而强大的线程模型
  • 丰富的文档
  • 卓越的性能
  • 拥有比原生Java API 更高的性能与更低的延迟
  • 基于池化和复用技术,使资源消耗更低
  • 安全性
  • 完整的SSL/TLS以及StartTLS支持
  • 可用于受限环境,如Applet以及OSGI

1.3.Netty和Tomcat的区别

Netty和Tomcat最大的区别就在于通信协议,Tomcat是基于Http协议的,他的实质是一个基于http协议的web容器,但是Netty不一样,他能通过编程自定义各种协议,因为netty能够通过codec自己来编码/解码字节流,完成类似redis访问的功能,这就是netty和tomcat最大的不同。

有人说netty的性能就一定比tomcat性能高,其实不然,tomcat从6.x开始就支持了nio模式,并且后续还有APR模式——一种通过jni调用apache网络库的模式,相比于旧的bio模式,并发性能得到了很大提高,特别是APR模式,而netty是否比tomcat性能更高,则要取决于netty程序作者的技术实力了。

1.4.BIO编写Client-Server通信

1、BIOServer服务端

public class BioServer {private static final int PORT = 8080;public static void main(String[] args) throws IOException {//新建socketServerServerSocket serverSocket = null;try{//绑定对应端口serverSocket = new ServerSocket(PORT);System.out.println("the time server is start in port :"+PORT);Socket socket = null;while(true){//拿到请求进来的socketsocket = serverSocket.accept();//线程请求new Thread(new TimeServerHandler(socket)).start();}}catch (Exception e){e.printStackTrace();}finally {if (serverSocket != null){System.out.println("the time server close");serverSocket.close();}}}
}

2、TimeServerHandler统一时间服务

public class TimeServerHandler implements Runnable{private Socket socket;public TimeServerHandler(Socket socket) {this.socket = socket;}public TimeServerHandler() {}@Overridepublic void run() {BufferedReader in = null;PrintWriter out = null;try {in = new BufferedReader(new InputStreamReader(this.socket.getInputStream()));//为true时autoFlush自动刷新,无需在调用flush方法out = new PrintWriter(this.socket.getOutputStream(),true);String body  = null;//循环监听客户端发送的msgwhile ((body = in.readLine())!=null && body.length()!=0){System.out.println("this time server receive msg :"+body);out.println(new Date().toString());}}catch (Exception e){e.printStackTrace();}finally {if(in != null){try {in.close();}catch (Exception e){e.printStackTrace();}}if(out != null){try {out.close();}catch (Exception e){e.printStackTrace();}}if(this.socket != null){try {this.socket.close();}catch (Exception e){e.printStackTrace();}}}}
}

3、BIOcClient客户端

public class BioClient {private static final String HOST = "127.0.0.1";private static final int PORT = 8080;public static void main(String[] args) {Socket socket = null;BufferedReader in = null;PrintWriter out = null;try{//创建连接socket = new Socket(HOST,PORT);in = new BufferedReader(new InputStreamReader(socket.getInputStream()));out = new PrintWriter(socket.getOutputStream(),true);out.println("I am client");String resp = in.readLine();System.out.println("当前服务器时间是:"+resp);}catch (Exception e){e.printStackTrace();}finally {if(in != null){try {in.close();}catch (Exception e){e.printStackTrace();}}if(out != null){try {out.close();}catch (Exception e){e.printStackTrace();}}if(socket != null){try {socket.close();}catch (Exception e){e.printStackTrace();}}}}
}

BIO的优点就是模型简单,编码简单,缺点是性能瓶颈,请求数和线程数保持一致,当有N个请求发送过来,服务端需要开启N个线程去处理,高并发场景下CPU线程切换上下文损耗大。

2.常见的网络IO模型

2.1.用户空间与内核空间

现在操作系统都是采用虚拟存储器,那么对32位操作系统而言,它的寻址空间(虚拟存储空间)为4G(2的32次方)。操作系统的核心是内核,独立于普通的应用程序,可以访问受保护的内存空间,也有访问底层硬件的所有权限。为例保证用户进程不能直接操作内核(kernel),保证内核的安全,操作系统将虚拟空间划分成两部分,一部分为内核空间,一部分为用户空间。只能对Linux操作系统而言,将较高的1G字节供内核使用,称为内核空间,而将较低的3G字节供各个进程使用称为用户空间。

2.2.文件描述符fd

文件描述符(File descriptor)是计算机科学中的一个术语,是一个用于表达指向文件的引用的抽象化概念。

文件描述符在形式上是一个非负整数。实际上,他是一个索引值,指向内核为每一个进程所维护的该进程打开文件的记录表。当程序打开一个现有文件或者创建一个新文件时,内核向进程返回一个文件描述符。在程序设计中,一些涉及底层的程序编写往往会围绕着文件描述符展开。但是文件描述符这一概念往往只适用于UNIX、Linux这样的操作系统。

2.3.TCP发送数据的流程

  • 第一步:应用A把消息发送到TCP发送缓冲区。
  • 第二步:TCP发送缓冲区把消息发送出去,经过网络传输,消息发送到B服务器的TCP接收缓冲区。
  • 第三步:B再从TCP接收缓冲区中去读取属于自己的数据。

2.4.阻塞/非阻塞,同步/异步

**(1)同步阻塞:**发送方发送请求之后一直等待响应。接收方处理请求时进行的IO操作如果不能马上等到返回结果,就会一致等到返回
结果后,才响应发送方,期间不能进行其他工作。

**(2)同步非阻塞:**发送方发送请求后,一致等待响应。接受方处理请求时进行的IO操作如果不能马上得到结果,就立即返回,去做其他事情但是由于没有得到请求处理结果,不响应发送方,发送方一致等待。当IO操作完成后,将完成状态和结果通知接收方,接收方在响应发送方,发送方才进入下一次请求过程。

**(3)异步阻塞:**发送方向接收方请求后,不等待响应,可以继续其他工作。接收方处理请求时进行IO操作如果不能马上得到记过,就会一直等到返回结果后,才响应发送方,期间不能进行其他操作。

**(4)异步非阻塞:**发送方向接收方请求后,不等待响应,可以继续其他工作。接收方处理请求时进行IO操作如果不能马上得到结果,也不等待,而是马上返回去做其他的事情。当IO操作完成后,将完成的状态和结果通知接收方,接收方再响应发送方。

2.5.Linux中五种I/O模型

  • IO的操作也就是应用程序从TCP缓冲区中读取数据的时候。
  • 网络I/O的本质是socket的读取,socket在linux中被抽象为流,I/O可以理解为对流的操作。对于一次I/O访问,数据会先被拷贝到操作系统的内核的缓冲区中,然后才会从操作系统内核的缓冲区拷贝到应用程序的地址空间。所以说当一个read操作发生时,他会经历两个阶段:
第一阶段:等待数据准备(Waiting for the data to be ready)
第二阶段:将数据从内核拷贝到进程中(Copy the data from the kernel to the process)

对于socket流而言:

第一步:通常涉及等待网络上的数据分组到达,然后被复制到内核的某个缓冲区
第二步:把数据从内核缓冲区复制到进程缓冲区

1、阻塞IO

(1)什么是阻塞I/O

阻塞IO就是当应用程序向TCP缓冲区发起读取数据申请时,在内核数据没有准备好之前,应用程序会一致处于等待数据的状态,直到内核把数据准备好交给应用程序才结束。

**术语描述:**在应用程序调用recvfrom读取数据时,其系统调用直到数据包到达别并且被复制到应用缓冲区中或者发生错误时才返回,此期间一致处于等待,进程从调用直到返回这段时间被阻塞的成为阻塞IO。

(2)阻塞I/O流程

  • 第一步:应用程序向内核发起recvfrom读取数据
  • 第二步:准备数据报(应用进程阻塞)
  • 第三步:将数据从内核复制到应用空间
  • 第四步:复制完成后,返回成功提示

2、非阻塞I/O

(1)什么是非阻塞I/O

非阻塞I/O就是当应用程序发起读取数据时,如果内核没有准备好数据报,会返回给应用程序,不会让应用程序一致等待,但是应用程序要时不时去尝试调用,当数据包准备好时,将数据从内核复制到用户空间,这个过程也是同步的,阻塞的。

**术语描述:**非阻塞I/O是在应用调用recvfrom读取数据时,如果缓冲区中没有数据的话,就会直接返回一个EWOULDBLOCK错误,不会让应用一致等待。在没有数据时会即刻返回错误标识,那也意味着如果应用要读取数据就需要不断的调用recvfrom请求,直到读取到它要的数据为止。

(2)非阻塞I/O流程

  • 第一步:应用进程向内核发起recvfrom读取数据
  • 第二步:没有数据报准备好,即刻返回EWOULDBLOCK错误码
  • 第三步:应用程序向内核再次发起recvfrom读取数据
  • 第四步:已有数据报就从内核拷贝到用户空间,否则还是返回错误码

3、I/O多路复用

(1)什么时I/O多路复用

I/O多路复用的思路就是系统提供了一种函数可以同时监控多个网络请求的操作,这个函数就是我们常说的select、poll、epoll函数,有了这个函数后,应用线程通过调用select函数就可以同时监控多个网络请求,select函数监控的网络请求中只要有任何一个数据状态准备就绪了,select函数就会返回可读状态,这时询问线程再去通知处理数据的线程,对应线程此时再发起recvfrom请求去读取数据。

**术语描述:**进程通过将一个或者多个网络请求传递给select,阻塞在select操作之上,select帮我们侦测多个网络请求是否准备就绪,当有网络请求准备就绪时,select返回数据可读状态,应用程序在调用recvfrom读取数据。

(2)I/O多路复用流程

  • 第一步:进程发起网络请求到select函数调用进行阻塞
  • 第二步:select函数调用内核获取数据报
  • 第三步:select函数监控的网络请求中只要有任何一个数据状态准备就绪了,select函数就会返回可读状态
  • 第四步:询问线程再去通知处理数据的线程,对应线程在次发起recvfrom请求去读取数据

4、信号驱动I/O

(1)什么是信号驱动I/O

信号驱动I/O不是循环请求询问的方式去监控数据就绪状态,而是调用sigaction时候建立一个SIGIO的信号联系,当内核数据准备好之后在通过SISGIO信号通知线程数据准备好后的可读状态,当线程收到可读状态的信号后,此时在向内核发起recvfrom读取数据的请求,因为信号驱动I/O的模型下应用线程在发出信号监控后即可返回,不会阻塞,所以这样的方式下,一个应用线程也可以控制多个网络请求。

**术语描述:**首先开启套接字信号驱动I/O功能,并通过系统调用sigaction执行一个信号处理函数,此时请求即可返回,当数据准备就绪时,就生成对应进程的SIGIO信号,通过信号回调通知应用线程调用recvfrom来读取数据。

(2)信号驱动I/O流程

  • 第一步:进程建立SIGIO的信号处理程序调用sigaction,然后返回
  • 第二步:内核准备好数据递交SIGIO给信号处理程序
  • 第三步:应用程序收到信号后,调用数据拷贝,复制完成返回数据报

5、异步I/O

(1)什么是异步I/O

异步I/O应用只需要向内核发送一个read请求,告诉内核他要读取数据后即刻返回,内核收到请求后会建立一个信号联系,但数据准备就绪,内核会主动把数据从内核复制到用户空间,等所有操作都完成之后,内核会发起一个通知告诉应用,处理数据报完成。

**术语描述:**应用告知内核启动某个操作,并让内核在整个操作完成之后,通知应用,这种模型与信号驱动的主要区别在于信号驱动I/O是由内核通知我们何时开始下一个I/O,而异步I/O模型是由内核通知我们操作什么时候完成。

(2)异步I/O流程

  • 第一步:异步I/O应用只需要向内核发送一个read请求,告诉内核他要读取数据后即刻返回
  • 第二步:内核收到请求后会建立一个信号联系,但数据准备就绪
  • 第三步:内核会主动把数据从内核复制到用户空间,等所有操作都完成之后,内核会发起一个通知告诉应用,处理数据报完成

2.6.I/O多路复用之select,poll,epoll

1、select、poll、epoll简介

目前支持I/O多路复用的系统调用有 select,pselect,poll,epoll,I/O多路复用就是通过一种机制,一个进程可以监视多个描述符,一旦某个描述符就绪(一般是读就绪或者写就绪),能够通知程序进行相应的读写操作但select,pselect,poll,epoll本质上都是同步I/O,因为他们都需要在读写事件就绪后自己负责进行读写,也就是说这个读写过程是阻塞的,而异步I/O则无需自己负责进行读写,异步I/O的实现会负责把数据从内核拷贝到用户空间。

epoll跟select都能提供多路I/O复用的解决方案。在现在的Linux内核里有都能够支持,其中epoll是Linux所特有,而select则应该是POSIX所规定,一般操作系统均有实现。

2、select函数

(1)基本原理

int select(int maxfdp1,fd_set *readset,fd_set *writeset,fd_set *exceptset,const struct timeval *timeout);

select函数监视的文件描述符分为3类,分别是writefds、readfds和exceptfds。调用后select函数会阻塞,直到有描述符就绪(有数据 可读、可写、或者有except),或者超时(timeout指定等待时间,如果立即返回设为null即可),函数返回。当select函数返回后,可以通过遍历fd_set,来找到就绪的文件描述符。

  • maxfdp1:待测试的文件描述符的个数,它的值是待测试的最大值加1

  • readfds:select监视的可读文件句柄集合

  • writefds:select监视的可写文件句柄集合

  • exceptfds:select监视的异常文件句柄集合

  • timeout:本次select()的超时结束时间。

(2)fd_set

select()提供了一种fd_set的核心数据结构,实际上是一个long类型的数组,每一个数组元素都能与一个打开的文件句柄(不管是Socket句柄,还是其他文件/命令管道/设备句柄)建立联系。当调用select()时,由内核根据IO状态修改fd_set的内容,由此来通知执行了select()的进程哪一个socket或文件可读。

(3)select函数的优缺点

select目前几乎所有平台上支持,其良好的跨平台支持也是它的一个优点。select的一个缺点在于单个进程能够监视的文件描述符的数量存在最大限制,在Linux上一般为1024,可以通过修改宏定义甚至重新编译内核的方式提升这一限制,但是这样也会造成效率的降低。

select本质上是通过设置或者检查存放fd标志位的数据结构来进行下一步处理。这样所带来的缺点:

  • select最大的缺陷就是单个进程所打开的fd是有一定限制的,它由FD_SETSIZE设置,默认值是1024。
一般来说这个数目和系统的内存关系很大,具体数目可以cat /proc/sys/fs/file-max 查看,32位默认是1024,64位默认是2048
  • 对socket进行扫描时是线性扫描,即采用轮询的方法,效率较低。
当套接字比较多的时候,每次select()都要通过遍历FD_SETSIZE个Socket来完成调度,不管哪个Socket是活跃的,都要遍历一遍,这会浪费很多CPU时间。
  • 需要维护一个用来存放大量fd的数据结构,这样会使用户空间和内核空间在传递该结构时复制开销大。

(4)select()总结

从执行过程来看,使用基于select的IO多路复用和同步阻塞IO没有太大的区别,而且多添加了监视socket以及调用select函数额外的操作,按理说效率更低。但是,select()可以让用户在一个线程内同时处理多个socket的IO请求,用户可以注册多个感兴趣的socket,然后不断的调用select轮询被激活的socket,即可达到单线程处理多个IO请求的目的。而在同步阻塞的的模型中,必须通过多线程的方式才能达到目的。

3、poll函数

(1)基本原理

int poll(struct pollfd *fds,nfds_t nfds,int timeout);typedef struct pollfd{int fd;           //需要被检测或选择的文件描述符short events;   //对文件描述符fd上感兴趣的事件short revents; //文件描述符fd上当前实际发生的事件
} pollfd_t;

poll本质上和select没有区别,它将用户传入的数组拷贝到内核空间,然后查询每个fd对应的设备状态。如果设备就绪则在设备等待队列中加入一项并继续遍历,如果遍历完所有fd后并没有发现就绪设备,则挂起当前进程,直到设备就绪或者主动超时,被唤醒后他又要再次遍历fd,这个过程经历了多次无谓的遍历。

  • poll函数参数说明:

    • pollfd *fds:pollfd类型的数组,指向一个结构体数组的第0个元素,用于存放需要检测状态的socket描述符,并且调用poll函数之后fds数组不会被清空。
    • nfds_t nfds:数组fds中描述符的总数量。
    • timeout:超时连接。
    • pollfd:表示一个被监视的文件描述符,通常传递fds执行poll()监视多个文件描述符。
    • events:指定监视fd的事件(输入,输出,错误),是监视该文件描述符的事件掩码,由用户来设置。
    • revents:文件描述符的操作结果事件掩码,内核在调用返回时设置。

它没有最大连接数限制,原因是它是基于链表来存储的,但是同样有一个缺点:

1、大量的fd的数组被整体复制于用户态和内核地址空间之间,而不管这样的复制是不是有意义的。
2、poll还有一个特点是“水平触发”,如果报告了fd后,没有被处理,那么下次poll时会再次报告该fd。

从上面看,select和poll都需要在返回后,通过遍历文件描述符来获取已经就绪的socket。事实上,同时连接的大量客户端在一时刻可能只有很少的处于就绪状态,因此随着监视的描述符数量的增长,其效率也会线性下降,同样包含大量文件描述符的数组依然会被整体从用户态复制到内核空间,而且内核也要遍历数组,对效率改善不大。

4、epoll函数

epoll是在2.6内核中提出的。是之前的select和poll的增强版本。相比于select和poll来说,epoll更加灵活,没有描述符限制。epoll使用一个文件描述符管理多个描述符,将用户关系的文件描述符的事件存放到内核的一个事件表中,这样在用户空间和内核空间的copy只需一次。

(1)基本原理

epoll()是基于事件驱动的I/O方式,是Linux内核位处理大批量文件描述符而作了改进的poll,其实现机制与select/poll机制完全不同。epoll()没有描述符个数限制,它使用一个文件描述符管理多个描述符,将用户关心的文件描述符的事件存放到内核的一个事件表中,这样在用户空间和内核空间的拷贝操作只需要一次。

epoll()通过在内核中申请一个简易的文件系统,把原先的select/poll调用分成了3个操作部分,在linux中,这三个部分对应的函数如下所示:

int epoll_create(int size);int epoll_ctl(int epfd,int op,int fd,struct epoll_event *event);int epoll_wait(int epfd,struct epoll_event *events,int maxevents,int timeout);
  • epoll_create:负责建立一个epoll对象,在epoll文件系统中为了句柄对象分配资源。参数size表明内核要监听的描述符数量。
  • epoll_ctl:负责向内核的epoll对象中添加要监听的事件类型(文件描述符),已添加的描述符被维护在一颗红黑树上。
  • epoll_wait:负责收集已就绪事件的连接。

eventpoll

struct eventpoll{...//红黑树的根节点,树中存储这所有添加到epoll中需要被监听的事件struct rb_root rbr;//双链表,存放这通过epoll_wait()返回的就绪事件struct list_head rdlist;
}
每个epoll对象都有一个独立的eventpoll,用于存放通过epoll_ctl()添加进来的事件。这些事件维护在红黑树中,红黑树的插入时间效率是log(n)(n为树的高度)
此外,被监听的事件都会与设备驱动程序建立回调关系,每当被监听的事件就绪,系统注册的回调函数就会被调用,将就绪事件放到rdList中,时间复杂度为O(1).
当调用epoll_wait()时,无需遍历整个被监听的描述符集,只需要遍历eventpoll对象中的rdlist双链表中是否有epitem元素即可。然后就把就绪事件复制到用户态,同时将事件数量返回给用户。
struct epitem{struct rb_node  rbn;         // 红黑树节点struct list_head    rdllink; // 双向链表节点struct epoll_filefd  ffd;    // 事件句柄信息struct eventpoll *ep;        // 指向所属的eventpoll对象struct epoll_event event;    // 期待发生的事件类型
}

epoll除了提供水平触发(Level Triggered)外,还提供了边缘触发(Edge Triggered),这使得用户空间程序有可能缓存IO状态,减少epoll_wait的调用,提高应用程序效率。

  • **水平触发(LT):**默认工作模式,当epoll_wait检测到某描述符事件就绪并通知应用进程时,应用进程可以不立即处理该事件,下次调用epoll_wait时,会再次通知进程。
  • 边缘触发(ET): 当epoll_wait检测到某描述符事件就绪并通知应用进程时,应用进程必须立即处理该事件。如果不处理,下次调用epoll_wait时,不会再次通知此事件。这减少了同一事件的触发次数,使效率更高。

select poll epoll
操作方式 遍历 遍历 回调
底层实现 数组 链表 红黑树
IO效率 每次调用都进行线性遍历,时间复杂度为O(n) 每次调用都进行线性遍历,时间复杂度为O(n) 事件通知方式,每当fd就绪,系统注册的回调函数就会被调用,将就绪fd放到readyList里面,时间复杂度O(1)
最大连接数 1024(x86)或2048(x64) 无上限 无上限
fd拷贝 每次调用select,都需要把fd集合从用户态拷贝到内核态 每次调用poll,都需要把fd集合从用户态拷贝到内核态 调用epoll_ctl时拷贝进内核并保存,之后每次epoll_wait不拷贝

2.7.Java的I/O演进历史

1、jdk1.4之前是采用同步阻塞模型,也就是BIO大型服务一般采用C或者C++, 因为可以直接操作系统提供的异步IO,AIO2、jdk1.4推出NIO,支持非阻塞IO,jdk1.7升级,推出NIO2.0,提供AIO的功能,支持文件和网络套接字的异步IO

2.8.Reactor三种线程模型

设计模式——Reactor模式(反应器设计模式),是一种基于事件驱动的设计模式,在事件驱动的应用中,将一个或多个客户的服务请求分离(demultiplex)和调度(dispatch)给应用程序。在事件驱动的应用中,同步地、有序地处理同时接收的多个服务请求
一般出现在高并发系统中,比如Netty,Redis等

1、单线程模型

单个线程以非阻塞IO或事件IO处理所有IO事件,包括连接、读、写、异常、关闭等等。单线程Reactor模型基于同步事件分离器来分发事件,这个同步事件分离器,可以看作是一个单线程的while循环。下图描述了单线程模型的处理过程:

注意上面的Selector之所以会有OP_ACEEPT事件,是因为在单线程模型中,Selector轮询的时监听套接字与已连接客户端套接字的所有IO事件。

单线程处理所有IO事件的弊端很明显。没能利用计算机CPU多核的特性,一个线程某个时刻只能处理单个IO事件,此时如果有其他描述符IO事件就绪,这些IO事件将暂时得不到处理。

c++框架libevent中,基于event_base_loop做消息轮询,使用event_base_dispatch来分发IO消息,本质上是对上述模型的封装。如果不适用evthread_use_pthreads,则其默认的就是单线程模型处理请求。

2、多线程模型

一个线程/进程接收连接、一组线程/进程处理IO读写事件。也就是将accept的线程与处理读、写等IO事件的线程分离,并且使用m多个线程以非阻塞IO或者事件IO来处理n个套接字的IO事件,这里的n一般远大于m,线程数m一般取CPU逻辑核心数的1-3倍,而套接字数n则取决于请求数和进程可以打开的最大描述符个数。下图是多线程模型:

可以看到,这里把客户端的已连接套接字,转交给某个IO线程之后,由此线程轮询处理其他之后的所有IO事件,这实际参考了netty4的线程模型设计。实际reactor的多线程模型,并不需要将已连接套接字绑定在某个线程上,也可以统一放在连接池中,由多个IOWork线程从池中取连接进行轮询并处理,但这样会复杂很多,而且容易出问题,比如说不同线程从同一个channel收到了write事件,这就类似惊群问题了;并且多线程并发操作同一个channel,后续很可能需要你将IO事件进行同步,与其如此,不如直接将channel绑定到一个线程,让channel上触发与处理IO事件逻辑上同步。netty3中channel(已连接套接字)入站事件由固定线程处理,出站事件由触发的线程处理,netty4中修改了设计,将channel绑定到固定的eventloop(线程)。

另外一点,每个已连接套接字的IO事件由固定线程处理,不代表事件也一定由此线程触发,恰恰相反,实际业务中,读(入站)事件来自于客户端写数据触发,而写(出站)事件往往由别的线程触发,例如在发起一个异步mysql操作完成之后,在异步回调线程中写结果数据来触发套接字的出站。

3、主从多线程模型

一组线程/进程接收连接、一组线程/进程处理IO读写事件。它与多线程模型的主要区别在于使用一组线程或进程在一个共享的监听套接字上accept连接。这么做的原因是为了应付**单个线程/进程不足以快速处理内核中监听套接字的已连套接字队列(并发量极大)**的情况。如下:

4、Netty支持的线程模型

  • Netty支持单线程、多线程模型、主从多线程模型。

  • 初始化NioEventLoopGroup , 将为ServerSocketChannel 提供一个 bossGroup 线程池,为 SockerChannel 的I/O 事件处理 提供一个workGroup
  • 使用ServerBootstrap 绑定端口等相关信息,此时会初始化一个ServerSocketChannel 和 bossGroup,并且将 ServerSocketChannel 绑定到 bossGroup 中的一个NioEventLoop 中进行监听客户端的连接请求
  • 当 Client 发起连接请求时,首先经过三次握手通过后,然后服务端被触发,接着收到连接成功的通知(因为是异步所以是触发)
  • ServerSocketChannel 收到连接成功的通知后,将建立好的连接交给 workGroup中的某个NioEventLoop,然后将感兴趣的事件注册到 该 NioEventLoop 持有的Selector上,等待Client 下一次请求
  • 当 Client 发起 READ/WRITE 相关的请求时,则提交给NioEventLoop 进行处理

3.Netty搭建Echo服务

3.1.什么是Echo服务

  • 就是一个应答服务(回显服务器),客户端发送什么数据,服务端就响应对应的数据,常用于检测和调试服务。

搭建Netty项目

  • 创建maven项目,加入netty的依赖包
<!-- https://mvnrepository.com/artifact/io.netty/netty-all --><dependency><groupId>io.netty</groupId><artifactId>netty-all</artifactId><version>4.1.32.Final</version></dependency>

3.2.Echo服务搭建

1、Echo服务端搭建-EchoServer

  • 绑定端口
  • 创建主从线程组
  • 启动线程组,指定通道类型,处理传过来的数据内容
  • 监听端口,关闭端口
  • 释放线程
public class EchoServer{//设定端口号private int port;//构造方法传入端口public EchoServer(int port){this.port = port;}public void run() throws InterruptedException {//创建线程组EventLoopGroup bossGroup = new NioEventLoopGroup();EventLoopGroup workGroup = new NioEventLoopGroup();try{//创建启动引导类ServerBootstrap serverBootstrap = new ServerBootstrap();//设置线程组serverBootstrap.group(bossGroup,workGroup).channel(NioServerSocketChannel.class).childHandler(new ChannelInitializer<SocketChannel>(){protected void initChannel(SocketChannel socketChannel) throws Exception{//设置处理器,可以设置多个socketChannel.pipeline().addLast(new EchoServerHandler());}});System.out.println("Echo服务启动中...");//绑定端口,同步等待ChannelFuture channelFuture = serverBootstrap.bind(port).sync();//等待服务端监听端口关闭channelFuture.channel().closeFuture().sync();}finally{//优雅退出workGroup.shutdownGracefully();bossGroup.shutdownGracefullt();}}public static void main(String[] args) throws InterruptedException {//设置默认的端口int port = 8080;if(args.length>0){port = Integer.parseInt(args[0]);}    //调用启动方法new EchoServer(port).run();}
}

2、Echo服务端的处理器-EchoServerHandler

public EchoServerHandler extends ChannelInboundHandlerAdapter{@Overridepublic void channelRead(ChannelHandlerContext ctx,Object msg) throws Exception{ByteBuf data = (ByteBuf) msg;System.out.println("服务端收到数据:"+data.toString(CharsetUtil.UTF_8));//注意:数据一定要回写出去,不然客户端收不到ctx.writeAndFlush(data);} @Overridepublic void channelReadComplete(ChannelHandlerContext ctx) throws Exception {System.out.println("EchoServerHandler EchoServerHandler()");}@Overridepublic void exceptionCaught(ChannelHandlerContext ctx, Throwable cause) throws Exception {cause.printStackTrace();ctx.close();}
}

3、Echo客户端搭建-EchoClient

public class EchoClient{//客户端发起请求的ip地址private String host;//端口private int port;//构造方法传入ip+端口初始化public EchoClient(String host, int port) {this.host = host;this.port = port;}public void start(){//创建线程组EventLoopGroup group = new NioEventLoopGroup();try{//创建启动引导类BootStrap bootStrap = new BootStrap();bootStrap.group(group).channel(NioSocketChannel.class).remoteAddress(new InetSocketAddress(host,port)).handler(new ChannelInitializer<SocketChannel>{@Overrideprotected void initChannel(SocketChannel socketChannel) throws Exception {//设置客户端处理器socketChannel.pipeline().addLast(new EchoClientHandler());}   });//异步连接,同步阻塞,connect是异步连接ChannelFuture channelFuture = bootStrap.connect().sync();//阻塞住直到客户端通道关闭channelFuture.channel().closeFuture().sync();}finally{//优雅退出group.shutdownGracefully();}}public static void main(String[] args){//启动客户端连接new EchoClient("127.0.0.1",8080).start();}
}

4、EchoClient处理器-EchoClientHandler

  • 与服务端处理类继承的不一样,但是实质是一样的
  • 打印顺序是,先走Active()方法,先激活,标识服务端建立了通道
  • 读取服务端的数据
  • 读取完成,进入channelReadComplete()方法
public class EchoClientHandler extends SimpleChannelInboundHandler<ByteBuf> {@Overrideprotected void channelRead0(ChannelHandlerContext channelHandlerContext, ByteBuf byteBuf) throws Exception {System.out.println("Client received:"+byteBuf.toString(CharsetUtil.UTF_8));}@Overridepublic void channelActive(ChannelHandlerContext ctx) throws Exception {System.out.println("EchoClientHandler.channelActive()");//创建一个缓存,使用Unpooled工具类ctx.writeAndFlush(Unpooled.copiedBuffer("李祥",CharsetUtil.UTF_8));}@Overridepublic void channelReadComplete(ChannelHandlerContext ctx) throws Exception {System.out.println("EchoClientHandler.channelReadComplete()");}@Overridepublic void exceptionCaught(ChannelHandlerContext ctx, Throwable cause) throws Exception {cause.printStackTrace();ctx.close();}
}

5、Echo服务中名词解析

(1)EventLoop和EventLoopGroup

线程和线程组,前者可以理解为线程,后者可以理解为线程组。

(2)BootStrap

启动引导类,用于配置线程组,启动的时候,同时启动线程组,以及开启通道,初始化通道。和一些处理。

(3)channel

channel是客户端和服务端建立的一个连接,是一个socket连接,具有生命周期,建立成功,读取数据,读取完成,出现异常等等。

(4)channelHandler和channelPipeline

channelHandler是做处理的,对接收的数据进行处理到要直接或间接继承channelHandler。channelPipeline就好比一个处理工厂,可以添加很多handler处理类,当进入channelHandler后都要经过pipeline添加的handler进行处理。

6、测试

4.Netty核心源码分析

4.1.Java NIO之Selector

1、什么是Selector

Selector(选择器)是java NIO中能够检测一到多个NIO通道,并能够知晓通道是否为读写事件做好准备的组件。这样,一个单独的线程可以管理多个channel,从而管理多个网络连接。

2、为什么使用Selector

仅用单线程来处理多个channels的好处是,只需要更少的线程来处理通道。事实上,可以只用一个线程来处理所有的通道。对于操作系统来说,线程之间上下文切换的开销很大,而且每个线程都要占用系统一些资源(如内存),因此使用的线程越少越好。

3、Selector的创建

通过调用Selector.open()方法创建一个Selector,如下:

Selector selector = Selector.open();

4、向Selector注册通道

为了将Channel和Selector配合使用,必须将channel注册到selector上。通过SelectableChannel.register()方法来实现,如下:

ServerSocketChannel channel = ServerSocketChannel.open();
channel.configureBlocking(false);
SelecttionKey key = channel.register(selector,SelectionKey.OP_READ);

与Selector一起使用时,Channel必须处于非阻塞模式下,这意味着不能将FileChannel与Selector一起使用,因为FileChannel不能切换到非阻塞模式。而套接字通道可以。

注意register()方法的第二个参数。这是一个interest集合,意思是在通过Selector监听Channel时对什么事件感兴趣。可以监听四种不同类型的事件:

  • Connect:SelectionKey.OP_CONNECT “连接就绪”
  • Accept:SelectionKey.OP_ACCEPT “接收就绪”
  • Read:SelectionKey.OP_READ “读就绪”
  • Write:SelectionKey.OP_WRITE “写就绪”

如果不止对一种事件感兴趣,可以用”位或“操作符将常量符拼接起来,如下:

int interestSet = SelectionKey.OP_READ | SelectionKey.OP_WRITE

5、SelectionKey

当向Selector注册Channel时,register()方法会返回一个SelectionKey对象。这个对象包含了一些属性:

(1)interest集合

interest集合就是你所选择的感兴趣的事件集合。可以通过SelectionKey读写interest集合,用“位与”操作interest 集合和给定的SelectionKey常量,可以确定某个确定的事件是否在interest 集合中。

int interestSet = selectionKey.interestOps();//判断接收接续的事件是否在集合中
boolean isInterestedInAccept = (interestSet & SelectionKey.OP_ACCEPT) == SelectionKey.OP_ACCEPT;
//判断连接就绪的事件是否在集合中
boolean isInterestedInConnect = interestSet & SelectionKey.OP_CONNECT;
//判断读就绪事件是否在集合中
boolean isInterestedInRead    = interestSet & SelectionKey.OP_READ;
//判断写就绪事件是否在集合中
boolean isInterestedInWrite   = interestSet & SelectionKey.OP_WRITE;

(2)ready集合

ready集合是通道已经准备就绪的操作的集合,在一次选择(Selection)之后,你会首先访问这个ready Set。

//获取读就绪事件的个数
int readySet = selectionKey.readyOps();

可以用像检测interest集合那样的方法,来检测channel中什么事件或操作已经就绪。但是,也可以使用以下四个方法,它们都会返回一个布尔类型:

//判断接收就绪的事件
selectionKey.isAcceptable();
//判断连接就绪的事件
selectionKey.isConnectable();
//判断读就绪的事件
selectionKey.isReadable();
//判断写就绪事件
selectionKey.isWriteable();

(3)Channel+Selector

从SelectionKey访问Channel和Selector很简单.

//获取当前channel
Channel channel = selectionKey.channel();//获取当前selector
Selector selector = selectionKey.selector();

(4)附加对象

可以将一个对象或者更多的信息附着在SelectionKey上,这样就能方便的识别某个给定的通道,例如,可以附加与通道一起使用的Buffer,或者包含聚集数据的某个对像。

selectionKey.attach(theObject);
Object attachedObj = selectionKey.attachment();

还可以通过register()方法像Selector注册Channel的时候附加对象。如:

SelectionKey key = channel.register(selector,SelectionKey.OP_READ,thObject);

6、通过Selector选择通道

一旦向Selector注册了一个或者多个通道,就可以调用几个重载的select()方法。这些方法返回你所感兴趣的事件(连接、接受、读或者写)已经准备就绪的那些通道。

(1)int select()

阻塞到至少有一个通道在你注册的事件上就绪了。

(2)int select(long timeout)

和select一样,处理最长会阻塞timeout毫秒(参数)

(3)int selectNow()

不会阻塞,不管什么通道就绪都立即返回,如果没有通道可以选择,此方法直接返回零

select()方法返回的int值表示有多少通道已经准备就绪。

7、selectedKeys()

一旦调用select()方法后,并且返回值有一个或多个准备就绪了,然后就可以通过调用selector的selectedKeys()方法,访问已选择键集中的就绪通道。

Set selectedKeys = selector.selectedKeys();

当像Selector注册Channel时,Channel.register()方法会返回一个SelectionKey 对象。这个对象代表了注册到该Selector的通道。可以通过SelectionKey的selectedKeySet()方法访问这些对象。

Set selectedKeys = selector.selectedKeys();
Iterator keyIterator = selectedKeys.iterator();
while(keyIterator.hasNext()) {SelectionKey key = keyIterator.next();if(key.isAcceptable()) {// a connection was accepted by a ServerSocketChannel.} else if (key.isConnectable()) {// a connection was established with a remote server.} else if (key.isReadable()) {// a channel is ready for reading} else if (key.isWritable()) {// a channel is ready for writing}keyIterator.remove();
}

这个循环遍历已选择键集中的每个键,并检测各个键锁对应的通道的就绪事件。

注意每次迭代末尾的keyIterator.remove()调用。Selector不会自己从已选择键集中移除SelectionKey实例。必须在处理完通道时自己移除。下次该通道变成就绪时,Selector会再次将其放入已选择键集中。

SelectionKey.channel()方法返回的通道需要转型成你要处理的类型,如ServerSocketChannel或SocketChannel等。

8、wakeUp()

某个线程调用select()方法阻塞后,即使没有通道已经就绪,也有办法让其从select()中返回,只要让其他线程在第一个线程调用select()方法的哪个对象上调用Selector.wakeup()方法即可。阻塞在select()方法上的线程会立马返回。

如果有其它线程调用了wakeup()方法,但当前没有线程阻塞在select()方法上,下个调用select()方法的线程会立即“醒来(wake up)”。

9、close()

用完Selector后调用其close()方法会关闭该Selector,且使注册到该Selector上的所有SelectionKey实例无效。通道本身并不会关闭。

10.完整示例

//创建ServerSocketChannel对象
ServerSocketChannel channel = ServerSocketChannel.open();
//创建selector对像
Selector selector = Selector.open();
//设置非阻塞
channel.configureBlocking(false);
//绑定通道,返回读就绪的事件
SelectionKey key = channel.register(selector, SelectionKey.OP_READ);
while(true) {//查询当前已经有多少读就绪的事件int readyChannels = selector.select();//如果都就绪事件为0推出当前循环if(readyChannels == 0) continue;//调用select方法后,只要有就绪的通道,就开始遍历通道Set selectedKeys = selector.selectedKeys();Iterator keyIterator = selectedKeys.iterator();while(keyIterator.hasNext()) {SelectionKey key = keyIterator.next();//判断是否是那四种事件类型,做除响应的处理if(key.isAcceptable()) {// a connection was accepted by a ServerSocketChannel.} else if (key.isConnectable()) {// a connection was established with a remote server.} else if (key.isReadable()) {// a channel is ready for reading} else if (key.isWritable()) {// a channel is ready for writing}keyIterator.remove();}
}

4.2.EventLoop和EventLoopGroup

1、EventLoop和EventLoopGroup简介

为解决系统在运行中频繁切换上下文带来的性能的损耗。而且要考虑并发下数据的安全。Netty采用了串行化的设计理念,从消息的读取、编码以及后续ChannelHandler的执行,始终都由IO线程EventLoop负责,这就意味着整个流程不会进行线程上下文的切换,数据也不会面临被并发修改的风险。

EventLoopGroup是一组EventLoop的抽象,一个EventLoopGroup当中包含一个或者多个EventLoop,EventLoopGroup提供next接口,可以从一组EventLoop里卖弄按照一定的规则获取其中一个EventLoop来进行工作。

2、分析这两块代码

EventLoopGroup bossGroup = new NioEventLoopGroup(1);
EventLoopGroup workerGroup = new NioEventLoopGroup();

这里创建了两个EventLoopGroup对象bossGroup和workGroup,bossGroup主要用来处理server socket监听client socket的连接请求,server socket接收了新的连接后,会把connection socket放到workGroup中进行处理,也就是说workGroup主要用来处理connection socket的网络IO和相关的业务逻辑。workGroup会由next选择其中一个EventLoop来讲这个SocketChannel注册到其维护的Selector并对后续的IO事件进行处理。

ChannelPipeline中每一个ChannelHandler都是通过它的EventLoop(I/O线程)来处理传递给它的事件的。所以至关重要不要阻塞这个线程。

总结:

  • NioEventLoopGroup实际上就是个线程池,一个EventLoopGroup包含一个或者多个EventLoop
  • 一个EventLoop在它的生命周期内只和一个Thread绑定
  • 所有的EventLoop处理的I/O事件都将在它专有的Thread上被处理
  • 一个Channel在它的生命周期内只注册一个EventLoop
  • 每一个EventLoop负责处理一个或者多个Channel
  • 一个EventLoop维护一个Selector

3、跟踪NioEventLoopGroup构造函数

(1)NioEventLoopGroup

 public NioEventLoopGroup(int nThreads) {this(nThreads, (Executor) null);}public NioEventLoopGroup() {this(0);}

(2)进入到NioEventLoopGroup的父类MultithreadEventLoopGroup

protected MultithreadEventLoopGroup(int nThreads, Executor executor, Object... args) {super(nThreads == 0 ? DEFAULT_EVENT_LOOP_THREADS : nThreads, executor, args);
}

可以看见NioEventGroup的构造函数如果nThreads为非0值时,则为传入的实际值,如果为0的话或者没有参数,则为DEFAULT_EVENT_LOOP_THREADS,DEFAULT_EVENT_LOOP_THREADS为系统内核的2倍。

    static {//获取系统的内核*2付给DEFAULT_EVENT_LOOP_THREADS,静态块加载DEFAULT_EVENT_LOOP_THREADS = Math.max(1, SystemPropertyUtil.getInt("io.netty.eventLoopThreads", NettyRuntime.availableProcessors() * 2));if (logger.isDebugEnabled()) {logger.debug("-Dio.netty.eventLoopThreads: {}", DEFAULT_EVENT_LOOP_THREADS);}}

4.3.Netty的启动引导类

Netty的启动类分为客户端启动类和服务端启动类,分别是Bootstrap和ServerBootStrap。他们都是AbstractBootStrap的子类,总的来说他们都是Netty中的辅助类,提供了链式配置方法,方便Channel的引导和启动。

1、服务端启动引导类ServerBootStrap

(1)group:设置线程模型,Reactor线程模型对比EventLoopGroup

  • 先看一下ServerBootStrap的group方法

    • 双参group方法

    • 单参group方法

  • 单线程方式

  • 多线程方式

  • 主从线程方式

(2)channel:设置channel通道类型NioServerSocketChannel、OioServerSocketChannel

  • 用来设置交互模型的,5种IO模型

(3)option:作用于每个新建立的channel,设置TCP连接中的一些参数

  • ChannelOption.SO_BACKLOG:存放已完成三次握手的请求的等待队列的最大长度。
  • 设置ChannelOption.SO_BACKLOG参数

  • Linux服务器TCP连接底层:

    • syn queue:半连接队列,tcp_max_syn_backlog
    • accept_queue:全连接队列,net.core.somaxconn
  • 系统默认的somaxconn参数要足够大,如果backlog比somaxconn大,则会优先用后者。

  • ChannelOption.TCP_NODELAY:为解决Nagle算法的问题,默认是false,要求高实时性,有数据时马上发送,就将该选项设置为true打开Nagle算法。

(4)childOption: 作用于被accept之后的连接

(5)childHandler:用于对每个通道里面的数据处理

2、客户端启动引导类Bootstrap

3、客户端与服务端的引导过程

(1)引导服务器

(2)引导客户端

4.4.Netty核心组件Channel

  • 什么是Channel:客户端和服务器建立连接的一个连接通道

  • 什么是ChannelHandler:负责Channel的逻辑处理

  • 什么是ChannelPipeline:负责管理ChannelHandler的有序容器

  • 三者的关系:

    • 一个Channel包含一个ChannelPipeline,所有ChannelHandler都会顺序加入到ChannelPipeline中创建Channel时会自动创建一个ChannelPipeline,每个Channel都有一个管理它的pipeline,这关联是永久性的。
  • Channel当状态出现的变化,就会触发对应的事件

    • channelRegistered:channel注册到一个EventLoop
    • channelActive:变为活跃状态(连接到了远程主机),可以接收和发送数据
    • channelInactive:channel处于非活跃状态,没有连接到远程主机
    • channelUnregistered:channel已经创建,但是未注册到一个EventLoop里面,也就是没有和Selector绑定。

4.5.ChannelHander接口详解

1、ChannelHandler的生命周期

接口ChannelHandler定义的生命周期相关定义如下表。这些操作在ChannelHandler被添加到一个ChannelPipline,或者从一个ChannelPipeline中移除时被调用,每一个方法都有一个ChannelHandlerContext作为参数。

类型 描述
handlerAdded 当ChannelHandler被添加到一个ChannelPipeline时被调用
handlerRemoved 当ChannelHandler从一个ChannelPipeline中移除时被调用
exceptionCaught 处理过程中ChannelPipeline中发生错误时被调用

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-JP1ksSGR-1667215373972)(images/4.2(2).jpg)]

Netty定义了下面两个重要的ChannelHandler子接口

  • ChannelInboundHandler:处理输入数据和所有类型的状态变化
  • ChannelOutboundHandler:处理输出数据,可以拦截所有操作。

2、ChannelInboundHandler接口

ChannelInboundHandler方法

类型 描述
channelRegistered 当一个Channel注册到EventLoop上调用的方法
channelUnregistered 当一个Channel从它的EventLoop上解除注册,不再处理I/O时被调用
channelActive 当Channel变成活跃状态时被调用;Channel是连接/绑定、就绪的
channelInactive 当Channel离开活跃状态,不再连接到某个远端时被调用
channelReadComplete 当Channel上某个读操作完成时调用
channelRead 当从Channel中读数据时被调用
userEventTriggered 因某个POJO穿过ChannelPipeline引发ChannelnboundHandler.fireUserEventTriggered()时被调用

示例:

当一个ChannelInboundHandler实现类重写channelRead()方法时,它负责释放ByteBuf的内存。Netty为此提供了工具方法,ReferenceCountUtil.release()。

对未释放的资源,Netty会打印一个警告(WARN-level)的日志消息,让你很方便的查找代码中的问题,但是用这种方式管理资源有些麻烦,还有一个更简单的替代方法就是用SimpleChannelInboundHandler

因为SimpleChannelInboundHandler自动释放资源,任何对消息的引用都会变成无效,所以你不能保存这些引用在后面的ChannelHandler中再次使用。

3、ChannelOutboundHandler接口

输出的操作和数据由ChannelOutBoundHandler处理。它的方法可以被Channel,ChannelPipeline和ChannelHandlerContext调用。

ChannelOutboundHandler有一个强大的功能,可以按需推迟一个操作,这使得处理请求可以用到更为复杂的策略。比如,如果写数据到远端被暂停,你可以推迟flush操作,稍后再试。

ChannelOutboundHandler方法

类型 描述
bind(ChannelHandlerContext,SocketAddress,ChannelPromise) 请求绑定Channel到一个本地地址
connect(ChannelHandlerContext,SocketAddress,SocketAddress,ChannelPromise) 请求连接Channel到远端
disconnect(ChannelHandlerContext,ChannelPromise) 请求从远端离开Channel
close(ChannelHandlerContext,ChannelPromise) 请求关闭Channel
deregister(ChannelHandlerContext,ChannelPromise) 请求Channel从它的EventLoop上解除注册
read(ChannelHandlerContext) 请求从Channel中读取更多的数据
flush(ChannelHandlerContext) 请求通过Channel刷新队列数据到远端
write(ChannelHandlerContext,Object, ChannelPromise) 请求通过Channel写数据到远端

ChannelOutboundHander的大部分方法都用了一个ChannelPromise输入参数,用于当操作完成时收到通知。ChannelPromise是ChannelFuture的子接口,定义了可写的方法,比如setSuccess(),或者setFailure(),而ChannelFuture则是不可变的对象。

4、ChannelHandler适配器类

刚开始尝试些写你自己的ChannelHandler时,你可以用ChannelInboundHandlerAdapter和ChannelOutboundHandlerAdapter这两个类。这两个适配器类分别提供了ChannelInboundHandler和ChannelOutboundHandler的基本实现。它们继承了共同的父接口ChannelHandler的方法,扩展了抽象类ChannelHandlerAdapter。

ChannelHandlerAdapter类层级关系

ChannelHandlerAdapter还提供了一个工具方法isSharable()。如果实现类带有@Sharable注解,那么这个方法就会返回true,意味着这个对象可以被添加到多个ChannelPipeline中。

ChannelInboundHandlerAdapter和ChannelOutboundHandlerAdapter中的方法调用相关ChannelHandlerContext中的等效方法,一次将事件转发到管道中的下一个ChannelHandler。

5、资源管理

无论何时你对数据操作ChannelInboundHandler.channelRead()或者ChannelOutboundHandler.write(),你需要确保没有资源泄露。Netty采用计数来处理ByteBuf池。所以在你用完一个ByteBuf后,调整引用计数的值是很重要的。

为了帮助检测潜在问题,Netty提供了ResourceLeakDetector类,它通过采样应用程序1%的buffer分配来检查是否有内存泄露。这个过程开销是很小的。

如果泄露被检测到,会产生类似下面的日志消息:

内存泄露检测级别

级别 描述
DISABLED 关闭内存泄露检测。只有在大量测试后,才能引用这个级别。
SIMPLE 报告默认的1%采样率中发现的任何泄露。
ADVANCED 报告发现的泄露和消息的位置。使用默认的采样率。
PARANOID 类似ADVANCED级别,但是每个消息的获取都被检测采样。这对性能有很大影响,只能在调试阶段使用。

在你实现ChannelInboundHandler.channelRead()或者ChannelOutboundHandler.write()时,你怎样用这个诊断工具来防止内存泄露呢。让我们来看看当前handler没有通过ChannelContext.fireChannelRead()把消息传递到下一个ChannelInboundHandler。下面的代码说明了如何释放这条消息占用的内存。

因为读取和释放输入消息是一个非常罕见的任务,Netty提供了一个特殊的ChannelInboundHandler实现类-SimpleChannelInboundHandler。一条消息在被SimplateChannelInboundHandler的channelRead0()读取后,会被自动释放资源。

在输出方向,如果你处理一个write()操作并且丢弃一条消息(没有写入Channel),你就应该负责释放这条消息。下面代码实现丢弃所有待写的数据。

重要的是,不仅要释放资源,而且要通知ChannelPromise,否则会出现某个ChannelFutureListener没有被告知消息已被处理的情况。

总之,如果一个消息被“消费”或者丢弃,没有送到ChannelPipeline中的下一个ChannelOutboundHandler,用户就要负责调用ReferenceCountUtil.release()。如果消息到达了真正的传输层,在它被写到socket中或者Channel关闭时,会被自动释放(这种情况下用户就不用管了)。

4.6.ChannelPipeline接口详解

1、ChannelPipeline接口简介

如果你把ChannelPipeline看成是一串ChannelHandler实例,连接穿过Channel的输入输出event,那么就很容易理解,每个新创建的Channel都会分配一个新的ChannelPipeline,这个关系是恒定的,Channel不可以换别的ChannelPipeline,也不可以解除当前分配的ChannelPipeline。

根据来源一个event可以被一个ChannelInboundHandler或者ChannelOutboundHandler处理,接下来通过调用ChannelHandlerContext的方法,它会被转发到下一个同类型的handler。

2、ChannelHandlerContext

**ChannelHandlerContext让一个ChannelHandler可以和它的ChannelPipeline和其他的Handler交互。**通过ChannelHandlerContext,一个handler可以通知ChannelPipeline中的下一个ChannelHandler。甚至动态改变他所属ChannelPipeline。

3、修改一个ChannelPipeline

一个ChannelHandler可以通过增加,删除或者替换其他ChannelHandler来改变一个ChannelPipeline的布局。这是ChannelHandler最重要的特性之一。

改动ChannelPipeline的ChannelHandler方法

方法名 描述
addFirst / addBefore / addAfter / addLast 添加一个ChannelHandler到ChannelPipeline
remove 从ChannelPipeline中删除一个ChannelHandler
replace 用一个ChannelHandler替换ChannelPipeline中的另一个ChannelHandler

4、ChannelPipeline获取ChannelHandler的操作

方法名 描述
get 通过类型或者名字返回一个ChannelHandler
context 返回ChannelHandler绑定的ChannelHandlerContext
names 返回ChannelPipeline中所有ChannelHandler的名字

5、ChannelPipeline输入方法

ChannelPipeline API提供了一些调用输入和输出操作的额外方法。用来通知ChannelInboundHandler在ChannelPipline发生的event。

方法名 描述
fireChannelRegistered 调用ChannelPipeline中下一个ChannelInboundHandler的channelRegistered(ChannelHandlerContext)
fireChannelUnregistered 调用ChannelPipeline中下一个ChannelInboundHandler的channelUnRegistered(ChannelHandlerContext)
fireChannelActive 调用ChannelPipeline中下一个ChannelInboundHandler的channelActive(ChannelHandlerContext)
fireChannelInactive 调用ChannelPipeline中下一个ChannelInboundHandler的channelInactive(ChannelHandlerContext)
fireExceptionCaught 调用ChannelPipeline中下一个ChanneHandler的exceptionCaught(ChannelHandlerContext,Throwable)
fireUserEventTriggered 调用ChannelPipeline中下一个ChannelInboundHandler的userEventTriggered(ChannelHandlerContext, Object)
fireChannelRead 调用ChannelPipeline中下一个ChannelInboundHandler的channelRead(ChannelHandlerContext, Object msg)
fireChannelReadComplete 调用ChannelPipeline中下一个ChannelStateHandler的channelReadComplete(ChannelHandlerContext)

实现类为DefaultChannelPipeline中具体实现

6、ChannelPipeline输出方法

方法名 描述
bind 绑定Channel到一个本地地址。这会调用ChannelPipeline中下一个ChannelOutboundHandler的bind(ChannelHandlerContext, SocketAddress, ChannelPromise)
connect 连接Channel到一个远端地址。这会调用ChannelPipeline中下一个ChannelOutboundHandler的connect(ChannelHandlerContext, SocketAddress, ChannelPromise)
disconnect 断开Channel。这会调用ChannelPipeline中下一个ChannelOutboundHandler的disconnect(ChannelHandlerContext, ChannelPromise)
close 关闭Channel。这会调用ChannelPipeline中下一个ChannelOutboundHandler的close(ChannelHandlerContext,ChannelPromise)
deregister Channel从它之前分配的EventLoop上解除注册。这会调用ChannelPipeline中下一个ChannelOutboundHandler的deregister(ChannelHandlerContext, ChannelPromise)
flush 刷所有Channel待写的数据。这会调用ChannelPipeline中下一个ChannelOutboundHandler的flush(ChannelHandlerContext)
write 往Channel写一条消息。这会调用ChannelPipeline中下一个ChannelOutboundHandler的write(ChannelHandlerContext, Object msg, ChannelPromise) 注意:不会写消息到底层的Socket,只是排队等候。如果要写到Socket中,调用flush()或者writeAndFlush()
writeAndFlush 这是先后调用write()和flush()的便捷方法。
read 请求从Channel中读更多的数据。这会调用ChannelPipeline中下一个ChannelOutboundHandler的read(ChannelHandlerContext)

7、总结

  • ChannelPipeline保存了所有Channel相关的ChannelHandler
  • 可以通过增加和减少ChannelHandler来动态修改ChannelPipeline
  • ChannelPipeline有大量的API,用来对输入输出做出响应行动

4.7.ChannelHandlerContext接口详解

1、ChannelHandlerContext接口简介

  • ChannelHandlerContext代表了一个ChannelHandler和一个ChannelPipeline之间的关系,它在ChannelHandler被添加到ChannelPipeline时被创建。ChannelHandlerContext的主要功能是管理它对应的ChannelHandler和属于同一个ChannelPipeline的其他ChannelHandler之间的交互。

  • ChannelHandlerContext有很多方法,其中一些方法和Channel与ChannelPipeline中相同,但是还是有些区别的,如果你在Channel或者ChannelPipeline实例上调用这些方法,他们会贯穿整个pipeline,但是ChannelHandlerContext中调用相同的方法,仅仅从当前ChannelHandler开始,走到pipeline中下一个可以处理这个event的ChannelHandler。

  • 一个ChannelHandler绑定的ChannelHandlerContext 永远不会改变,所以把它的引用缓存起来是安全的。

2、ChannelHandlerContext的使用

通过Channel或者ChannelPipeline传递event

通过ChannelHandlerContext触发event流操作

4.8.多个入站出战ChannelHandler的执行顺序

1、一般项目中,InboundHandler和OutboundHandler有多个,在Pipeline中执行顺序?

  • InboundHandler顺序执行,OutboundHandler逆序执行。

2、测试执行顺序

(1)按照InboundHandler1、InboundHandler2、OutboundHandler1、OutboundHandler2顺序存放

socketChannel.pipeline().addLast(new InboundHandler1());
socketChannel.pipeline().addLast(new InboundHandler2());
socketChannel.pipeline().addLast(new OutboundHandler1());
socketChannel.pipeline().addLast(new OutboundHandler2());

ChannelHandlerContext不会贯穿整个pipeline,寻找到要处理的Handler开始处理。

(2)按照OutboundHandler1、OutboundHandler2、InboundHandler1、InboundHandler2顺序存放

socketChannel.pipeline().addLast(new OutboundHandler1());
socketChannel.pipeline().addLast(new OutboundHandler2());
socketChannel.pipeline().addLast(new InboundHandler1());
socketChannel.pipeline().addLast(new InboundHandler2());

(3)按照InboundHandler1、InboundHandler2、OutboundHandler1、OutboundHandler2顺序存放,用pipeline调用

socketChannel.pipeline().addLast(new InboundHandler1());
socketChannel.pipeline().addLast(new InboundHandler2());
socketChannel.pipeline().addLast(new OutboundHandler1());
socketChannel.pipeline().addLast(new OutboundHandler2());

3、结论

  • InboundHandler顺序执行,OutboundHandler逆序执行
  • InboundHandler之间传递数据,通过ctx.fireChannelRead(msg)
  • InboundHandler通过ctx.write(msg),则会传递outboudnHandler
  • 使用ctx.write(msg)传递消息,Inbound需要放在结尾,在Outbound之后,不然outboundhandler会不执行,但是使用channel.write(msg)、pipeline.write(msg)情况会不一致,都会执行。
  • outBound和Inbound谁先执行,针对客户端和服务端而言,客户端是发起请求在接收数据,先outbound在inbound,服务端则相反。

4.9.Netty异步回调模式-Future和Promise

1、Future简介

我们知道Netty的I/O操作都是异步的,例如bind、connect、write等操作,会返回一个Future接口。Netty源码中大量使用了异步回调处理模式。在做Netty应用开发时,我们也会用到,所以了解Netty的异步监听,无论是做Netty应用开发还是阅读源码都是十分重要的。

2、Future接口剖析

可知:ChannelFuture继承了Netty的Future,Netty的Future继承了JDK的Future

JDK的Future,用的最多的就是线程池ThreadPoolExecutor,通过submit方法提交任务返回一个Future实例,通过它来查询任务的执行状态和执行结果,最常用的方法就是isDone()和get()。

Netty的Future,在继承JDK的Future基础上,扩展了自己的方法:

public interface Future<V> extends java.util.concurrent.Future<V> {// 任务执行成功,返回trueboolean isSuccess();// 任务被取消,返回trueboolean isCancellable();// 支付执行失败,返回异常Throwable cause();// 添加Listener,异步非阻塞处理回调结果Future<V> addListener(GenericFutureListener<? extends Future<? super V>> listener);Future<V> addListeners(GenericFutureListener<? extends Future<? super V>>... listeners);// 移除ListenerFuture<V> removeListener(GenericFutureListener<? extends Future<? super V>> listener);Future<V> removeListeners(GenericFutureListener<? extends Future<? super V>>... listeners);// 同步阻塞等待任务结束;执行失败话,会将“异常信息”重新抛出来Future<V> sync() throws InterruptedException;Future<V> syncUninterruptibly();// 同步阻塞等待任务结束,和sync方法一样,只不过不会抛出异常信息Future<V> await() throws InterruptedException;Future<V> awaitUninterruptibly();boolean await(long timeout, TimeUnit unit) throws InterruptedException;boolean await(long timeoutMillis) throws InterruptedException;boolean awaitUninterruptibly(long timeout, TimeUnit unit);boolean awaitUninterruptibly(long timeoutMillis);// 非阻塞,获取执行结果V getNow();// 取消任务@Overrideboolean cancel(boolean mayInterruptIfRunning);
}

我们知道JDK的Future的任务结果获取需要主动查询,而Netty的Future通过添加监听器Listener,可以做到异步非阻塞处理任务结果,可以称为被动回调

同步阻塞有两种方式:sync和await(),区别:sync()方法在任务失败后,会把异常信息抛出,await()方法对异常信息不做任何处理,当我们不关心异常信息的时候可以用await(),通过阅读源码我们知道sync()方法其实里面调的就是await()方法。

Future接口没有和IO操作关联在一起,Future的子接口ChannelFuture,它和IO操作中的channel通道关联在一起了,用于异步处理channel事件,这个接口用的最多。

public interface ChannelFuture extends Future<Void> {// 获取channel通道Channel channel();@OverrideChannelFuture addListener(GenericFutureListener<? extends Future<? super Void>> listener);@OverrideChannelFuture addListeners(GenericFutureListener<? extends Future<? super Void>>... listeners);@OverrideChannelFuture removeListener(GenericFutureListener<? extends Future<? super Void>> listener);@OverrideChannelFuture removeListeners(GenericFutureListener<? extends Future<? super Void>>... listeners);@OverrideChannelFuture sync() throws InterruptedException;@OverrideChannelFuture syncUninterruptibly();@OverrideChannelFuture await() throws InterruptedException;@OverrideChannelFuture awaitUninterruptibly();// 标记Futrue是否为Void,如果ChannelFuture是一个void的Future,不允许调// 用addListener(),await(),sync()相关方法boolean isVoid();
}

ChannelFuture接口相比父类Future接口,就增加了**channel()isVoid()**两个方法,其他方法都是覆盖父类的接口,没有别的扩展。

了解一下ChannelFuture的状态转换

ChannelFutue就两种状态Uncompleted(未完成)和Completed(完成),Completed包括三种,执行成功,执行失败和任务取消。注意:执行失败和任务取消都属于Completed

让我们来看一下Future的另一个子接口Promise,它是个可写的Future

public interface Promise<V> extends Future<V> {// 执行成功,设置返回值,并通知所有listener,如果已经设置,则会抛出异常Promise<V> setSuccess(V result);// 设置返回值,如果已经设置,返回falseboolean trySuccess(V result);// 执行失败,设置异常,并通知所有listenerPromise<V> setFailure(Throwable cause);boolean tryFailure(Throwable cause);// 标记Future不可取消boolean setUncancellable();@OverridePromise<V> addListener(GenericFutureListener<? extends Future<? super V>> listener);@OverridePromise<V> addListeners(GenericFutureListener<? extends Future<? super V>>... listeners);@OverridePromise<V> removeListener(GenericFutureListener<? extends Future<? super V>> listener);@OverridePromise<V> removeListeners(GenericFutureListener<? extends Future<? super V>>... listeners);@OverridePromise<V> await() throws InterruptedException;@OverridePromise<V> awaitUninterruptibly();@OverridePromise<V> sync() throws InterruptedException;@OverridePromise<V> syncUninterruptibly();
}

Future接口只提供了获取返回值的get()方法,不可设置返回值。

Promise接口在Future基础上,还提供了设置返回值和异常信息并立即通知listeners。而且,一旦setSuccess()或setFailure()后,那些await()或者sync()的线程就会从等待中返回。

接下来,让我们来看看ChannelFuture的可写的子接口ChannelPromise

public interface ChannelPromise extends ChannelFuture, Promise<Void> {// 覆盖ChannelFuture接口@OverrideChannel channel();// 覆盖Promise接口@OverrideChannelPromise setSuccess(Void result);ChannelPromise setSuccess();boolean trySuccess();@OverrideChannelPromise setFailure(Throwable cause);@OverrideChannelPromise addListener(GenericFutureListener<? extends Future<? super Void>> listener);@OverrideChannelPromise addListeners(GenericFutureListener<? extends Future<? super Void>>... listeners);@OverrideChannelPromise removeListener(GenericFutureListener<? extends Future<? super Void>> listener);@OverrideChannelPromise removeListeners(GenericFutureListener<? extends Future<? super Void>>... listeners);@OverrideChannelPromise sync() throws InterruptedException;@OverrideChannelPromise syncUninterruptibly();@OverrideChannelPromise await() throws InterruptedException;@OverrideChannelPromise awaitUninterruptibly();ChannelPromise unvoid();
}

ChannelPromise接口只是综合了ChannelFuture和Promise接口,没有新增的功能。

3、Promise的实现类

DefaultPromise的主要属性

// setSuccess设置result为null时,设置成SUCCESS
private static final Object SUCCESS = new Object();
// 不可取消值
private static final Object UNCANCELLABLE = new Object();
// 取消异常信息持有者
private static final CauseHolder CANCELLATION_CAUSE_HOLDER = new CauseHolder(StacklessCancellationException.newInstance(DefaultPromise.class, "cancel(...)"));
//执行结果,使用volatile修饰,保证可见性
private volatile Object result;
// 当Promise执行完成时需要通知Listener,此时就使用这个executor
private final EventExecutor executor;
// 要通知的listener,因为它可能是不同的类型,所以定义为Object类型,使用时再判断类型
private Object listeners;
// 要使用wait()/notifyAll()机制,这个变量记录了waiter的数量
private short waiters;
// 是否正在通知listener
private boolean notifyingListeners;

从属性中可以看出, DefaultPromise 通过 Object 的 wait/notify 机制实现线程间的同步,通过 volatile 属性保证线程间的可见性。

@Override
public Promise<V> setSuccess(V result) {// 第一次成功设置返回值后,返回Promise对象if (setSuccess0(result)) {return this;}// 否则抛出异常throw new IllegalStateException("complete already: " + this);
}
private boolean setSuccess0(V result) {// result为null,设置为SUCCESSreturn setValue0(result == null ? SUCCESS : result);
}
private boolean setValue0(Object objResult) {// CAS设置result值,只有当result为null或者UNCANCELLABLE,才可以执行成功if (RESULT_UPDATER.compareAndSet(this, null, objResult) ||RESULT_UPDATER.compareAndSet(this, UNCANCELLABLE, objResult)) {// 唤醒等待的waiter,同时判断是否存在listenerif (checkNotifyWaiters()) {// 通知所有的listenernotifyListeners();}return true;}return false;
}
private synchronized boolean checkNotifyWaiters() {if (waiters > 0) {// 通知所有waitersnotifyAll();}// 判断是否添加了监听者listenersreturn listeners != null;
}
private void notifyListeners() {EventExecutor executor = executor();// 是否是同一个线程if (executor.inEventLoop()) {final InternalThreadLocalMap threadLocals = InternalThreadLocalMap.get();final int stackDepth = threadLocals.futureListenerStackDepth();if (stackDepth < MAX_LISTENER_STACK_DEPTH) {threadLocals.setFutureListenerStackDepth(stackDepth + 1);try {notifyListenersNow();} finally {threadLocals.setFutureListenerStackDepth(stackDepth);}return;}}// 用自己的executor执行safeExecute(executor, new Runnable() {@Overridepublic void run() {notifyListenersNow();}});
}

DefaultPromise的方法实现逻辑挺简单,不再全部讲解了,只需知道通过 Object 的 wait/notify 机制实现线程间的同步观察者设计模式进行通知就可以了。

DefaultPromise还有个子类DefaultChannelPromise,这个类在Netty中用的最多的,其内部逻辑调用的都是父类DefaultPromise的方法。DefaultChannelPromise类层次结构图如下:

Netty的Future继承JDK的Future,通过Object的wait/notify机制,实现了线程间的同步,使用观察者设计模式,实现了异步非阻塞回调处理。

5.Netty数据传输编解码

5.1.什么是编码、解码

  • 高性能RPC框架的三个要素:IO模型、数据协议、线程模型
  • 最开始接触的编码:Java序列化/反序列化、URL编码、base64编解码
  • java自带序列化的缺点:
    • 无法跨语言
    • 序列化后的码流太大,也就是数据报太大
    • 序列化和反序列化性能比较差
  • 业界里面也有其他编码框架:
    • ProtoBuf(PB):ProtoBuf是google的一个结构数据序列化方法框架,可简单类比XML,语言无关、平台无关,支持java、c、python等多种语言,高效,比XML更小,扩展性、兼容性好。
    • Trift:Facebook下的一款编解码框架,thrift可以支持多种程序语言,在多种不同的语言之间通信thrift可以作为二进制的高性能的通讯中间件,支持数据(对象)序列化和多种类型的RPC服务。Thrift适用于程序对程序静态的数据交换,需要先确定好他的数据结构,他是完全静态化的,当数据结构发生变化时,必须重新编辑IDL文件。
  • Netty里面的编解码
    • 解码器:负责处理“入站 InboundHandler”数据
    • 编码器:负责处理“出站 OutboundHandler”数据
    • Netty里面提供默认的编解码器,也支持自定义编解码器
      • Encoder:编码器
      • Decoder:解码器
      • Codec:编解码器

5.2.Netty解码器之Decoder

Netty提供了丰富的节码器抽象基类,我们可以很容易的实现这些基类来实现自定义的解码器。

  • 解码字节到消息:ByteToMessageDecoder和ReplayingDecoder
  • 解码消息到消息:MessageToMessageDecoder

decoder负责将“入站”数据从一种格式转换成另一种格式,Netty的节码是一种ChannelInboundHandler的抽象实现。实践中使用解码器很简单,就是将入站数据转换格式后传递到ChannelPipeline中的下一个ChannelInboundHandler进行处理,这样的处理是很灵活的,我们可以将解码器放在ChannelPipeline中,重用逻辑。

1、ByteToMessageDecoder

ByteToMessageDecoder是用于将字节转为消息(或其他字节序列)

你不能确定远端是否会一次发送完一个完整的“消息”,因此这个类会缓存入站的数据,直到准备好了用于处理。

方法名称 描述
decode 它是用一个ByteBuf调用的,ByteBuf包含传入的字节和一个添加解码消息的列表。重复调用decode(),直到返回时列表为空。然后将列表的内容传递给管道中的下一个处理程序。
decodeLast 提供的默认实现只调用decode()。当通道处于非活动状态时,此方法只调用一次。覆盖以提供特殊的。

假如我们接收了一个包含简单整数的字节流,每个都要单独处理,,我们将从入站 ByteBuf 读取每个整数并将其传递给 pipeline 中的下一个ChannelInboundHandler。“解码”字节流成整数我们将扩展ByteToMessageDecoder,实现类为“ToIntegerDecoder”。

每次从入站的ByteBuf读取四个字节,解码成整型,并添加到一个List,当不能在添加数据到List中时,它所包含的内容就会被发送到下一个ChannelInboudnHandler。

(1)继承ByteToMessageDecoder实现decode方法

(2)检查可读的字节是否少于4个(int类型是四个字节长度)

(3)从入站ByteBuf读取int,添加到节码消息的List中

尽管ByteToMessageDecoder简化了这个模式,但是在实际操作中(readInt()之前),必须要验证下ByteBuf要有足够的数据。

2、ReplayingDecoder

ReplayingDecoder是ByteToMessageDecoder的一个实现类,读取缓存中数据之前需要先检查下缓存中数据是否有足够字节,使用ReplayingDecoder就无需自己检查,若ByteBuf中有足够的字节,则会正常读取,若没有足够的字节则会停止解码。

正因为ReplayingDecoder是ByteToMessage的包装类,所以它会带有一定的局限性:

  • 不是所有的标准ByteBuf操作都被支持,如果调用一个不支持的操作会抛出UnreplayableOperationException
  • ReplayingDecoder性能慢于ByteToMessageDecoder

如果这些局限性是你可以接受的,那么你可以使用ReplayingDecoder,相反,如果没有引入过多的复杂性,使用ByteToMessageDecoder更优。

(1)继承ReplayingDecoder用于将字节码转换为消息

(2)从入站的ByteBuf中读取整型,并添加到节码消息的List中

3、MessageToMessageDecoder

用于从一种消息解码成另一种消息(例如:POIO到POJO)

将Integer转换为String,我们自定义IntegerToStringDecoder,继承自MessageToMessageDecoder。

也就是说,入站消息是按照在类定义中声明的参数类型(这里是 Integer) 而不是 ByteBuf来解析的。在之前的例子,解码消息(这里是String)将被添加到List,并传递到下个 ChannelInboundHandler。

代码实现:

(1)实现继承自 MessageToMessageDecoder

(2)转换消息为字符串,加到节码队列中

4、解码时太大的帧处理

Netty是异步框架需要缓冲区字节在内存中,直到你能够节码它们。一次,不能让解码器缓存太多的数据以免耗尽可用内存。为了解决这个问题,Netty提供了一个TooLongFrameException,通常由解码器在帧时间过长抛出。

TooLongFrameException 抛出(并由 ChannelHandler.exceptionCaught() 捕获)。然后由译码器的用户决定如何处理它。虽然一些协议,比如 HTTP、允许这种情况下有一个特殊的响应,有些可能没有,事件唯一的选择可能就是关闭连接。ByteToMessageDecoder 可以利用 TooLongFrameException 通知其他 ChannelPipeline 中的 ChannelHandler。

(1)实现继承 ByteToMessageDecoder 来将字节解码为消息

(2)检测缓冲区数据是否大于 MAX_FRAME_SIZE

(3)忽略所有可读的字节,并抛出 TooLongFrameException 来通知 ChannelPipeline 中的 ChannelHandler 这个帧数据超长

5、Netty中常用的几种解码器

  • LineBasedFrameDecoder
  • DelimiterBaesdFrameDecoder
  • FixedLengthFrameDecoder
  • StringDecoder

(1)LineBasedFrameDecoder

LineBasedFrameDecoder行解码器,遍历ByteBuf中可读字节,按行(\n \r\n)处理。

(2)StringDecoder

StringDecoder将接收的码流转化为字符串

  • 代码中使用

(3)DelimiterBasedFrameDecoder

DelimiterBasedFrameDecoder,将特定分隔符作为码流结束标志的解码器。

  • 代码中使用

(4)FixedLengthFrameDecoder

FixedLengthFrameDecoder固定长度节码器,只会读取指定长度的码流。

  • 代码中使用

5.3.Netty编码器之Encoder

Encoder是用来把出站数据从一种格式转换成另外一种格式,因此它实现了ChannelOutboundHandler。就像Decoder一样,Netty也为你提供了一组类来写Encoder,当然这些提供的是与Decoder完全相反的方法,如下所示:

  • 编码从消息到字节
  • 编码从消息到消息

1、MessageToByteEncoder

这个类只有一个方法,而Decoder却有两个,原因就是Decoder经常需要在Channel关闭时产生一个“最后的消息”。出于这个原因,提供了decodeLast(),而Encoder没有这个需求。

方法名称 描述
encode encode方法是您需要实现的唯一抽象方法。它是通过出站消息调用的,这个类将把出站消息编码为ByteBuf。然后将ByteBuf转发到ChannelPipeline中的下一个ChannelOutboundHandler。

下图实例,我们想生产值,并将他们编码成ByteBuf来发送到线上,我们提供了ShortToByteEncoder来实现该目的。

上图展示了,Encoder收到了Short消息,进行编码,并把它们写入ByteBuf。ByteBuf接着前面进到下一个pipeline的ChannelOutboundHandler。每个 Short 将占用 ByteBuf 的两个字节。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-2ZqO6x78-1667215373979)(images/5.4(2).jpg)]

(1)实现继承自 MessageToByteEncoder

(2)写 Short 到 ByteBuf

Netty 提供很多 MessageToByteEncoder 类来帮助你的实现自己的 encoder 。其中 WebSocket08FrameEncoder 就是个不错的范例。

2、MessageToMessageEncoder

我们已经知道了如何将入站数据从一个消息格式解码成另一个格式。现在我们需要一种方法来将出站数据从一种消息编码成另一种消息。MessageToMessageEncoder 提供此功能,同样的只有一个方法,因为不需要产生“最后的消息”。

下面例子,我们将要解码 Integer 消息到 String 消息。可简单使用 MessageToMessageEncoder。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-7DHocuyE-1667215373980)(images/5.4(3).jpg)]

encoder 从出站字节流提取 Integer,以 String 形式传递给ChannelPipeline 中的下一个 ChannelOutboundHandler 。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-C641NNQq-1667215373980)(images/5.4(4).jpg)]

(1)实现继承自 MessageToMessageEncoder

(2)转 Integer 为 String,并添加到 MessageBuf

5.4.Netty编解码器之Codec

我们在讨论解码器和编码器的时候,都是把它们当成不同的实体的,但是有时候如果在同一个类中同时放入入站和出站的数据和信息转换的话,发现会更加实用。而Netty中的抽象Codec(变解码器)类就能达到这个目的,它们成对的组合解码器和编码器,以此提供对于字节和消息都相同的操作(这些类实现了ChannelInboundHandler和ChannelOutboundHandler)。

1、ByteToMessageCodec

我们需要解码字节到消息,也许是一个POJO,然后转回来,ByteToMessageCodec将为我们处理这个问题,因为他结合了ByteToMessageDecoder和MessageToByteEncoder。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-qHTzcVX4-1667215373980)(images/5.5(1).jpg)]

类的继承图中我们可以看出,ByteToMessageCodec继承自ChannelDuplexHandler,ChannelDuplexHandler继承自ChannelInboundHandlerAdapter,实现于ChannelOutboundHandler接口,前面我们知道ByteToMessageDecoder继承ChannelInboundHandlerAdapter,MessageToByteEncoder继承自ChannelOutboundHandlerAdapter。所以ByteToMessageCodec兼顾编码、解码的功能。

2、MessageToMessageCodec

和ByteToMessageCodec一样。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-gapS6SNb-1667215373981)(images/5.5(2).jpg)]

3、编解码器的优缺点

  • 优点:成对出现,编解码都是在一个类里面完成
  • 缺点:耦合在一起,扩展性不佳

6.Netty网络传输TCP粘包拆包

6.1.TCP粘包拆包讲解

1、TCP粘包、TCP拆包

TCP粘包就是指发送方发送的若干包数据到达接收方时粘成一个包,从接收缓冲区来看,后一包数据的头紧接着前一包数据的尾,出现粘包的原因是多方面的,可能是来自发送方,也可能来自接收方。

2、出现TCP粘包的原因

(1)发送方原因

TCP默认使用Nagle算法(主要作用:减少网络中报文段的数量),而Nagle算法主要做两件事:

  • 只有上一个分组得到确认,才会发送下一个分组

  • 收集多个小分组,在一个确认到来时一起发送

Nagle算法造成了发送方可能会出现粘包问题

Nagle算法是指发送方发送的数据不会立即发出,而是先放在缓冲区,等待缓冲区满了在发出,发送完一批数据后,会等待接收方对这批数据的回应,然后在发送下一批数据。Nagle算法适用于发送方需要发送大批量数据,并且接收方会及时做出回应的场合,这种算法通过减少传输数据的次数来提高通信效率。

(2)接收方原因

TCP接收到数据包时,并不会马上交到应用层进行处理,或者说应用层并不会立即处理。实际上,TCP将收到的数据包保存在接收缓存里,然后应用程序主动从缓存读取收到的分组。这样一来,如果TCP接收数据包到缓存的速度大于应用程序从缓存中读取数据包的速度,多个包就会被缓存,应用程序就有可能读取到多个首尾相接粘到一起的包。

3、什么时候需要处理粘包现象

如果发送方发送的多组数据本来就是同一块数据的不同部分,比如说一个文件被分成多个部分发送,这时当然不需要处理粘包现象。

如果多个分组毫不相干,甚至是并列关系,那么这个时候就一定要处理粘包现象了。

4、如何处理粘包现象

(1)发送方

对于发送方造成的粘包问题,可以通过关闭Nagle算法来解决,使用TCP_NODELAY选项来关闭。

(2)接收方

接收方没有办法来处理粘包现象,只能将问题交给应用层来处理。

(3)应用层

应用层的解决办法简单可行,不仅能解决接收方的粘包问题,还可以解决发送方的粘包问题。

解决办法:循环处理,应用程序从接收缓存中读取分组时,读完一条数据,就应该循环读取下一条数据,直至所有数据都别处理完成。

如何判断每条数据的长度呢?

格式化数据:每条数据有固定的格式(开始符,结束符),这种方法简单易行,但是选择开始符和结束符时一定要确保每条数据的内部不包含开始符和结束符。

发送长度:发送每条数据时,将数据的长度一并发送,例如规定数据的前4位是数据的长度,应用层在处理时可以根据长度来判断每个分组的开始和结束位置。

5、UDP不会产生粘包问题

TCP为例保证可靠性传输并减少额外的开销(每次发包都要验证),采用了基于流的传输,基于流的传输不认为消息是一条一条的,是无保护消息边界的(保护消息边界:指传输协议把数据当做一条独立的消息在网上传输,接收端一次只能接受一条独立的消息)。

UDP则是面向消息传输的,是有保护消息边界的,接收方一次只接受一条独立的信息,所以不存在粘包问题。
UDP不存在粘包问题,是由于UDP发送的时候,没有经过Negal算法优化,不会将多个小包合并一次发送出去。另外,在UDP协议的接收端,采用了链式结构来记录每一个到达的UDP包,这样接收端应用程序一次recv只能从socket接收缓冲区中读出一个数据包。也就是说,发送端send了几次,接收端必须recv几次(无论recv时指定了多大的缓冲区)。

举个例子:有三个数据包,大小分别为2k、4k、6k,如果采用UDP发送的话,不管接受方的接收缓存有多大,我们必须要进行至少三次以上的发送才能把数据包发送完,但是使用TCP协议发送的话,我们只需要接受方的接收缓存有12k的大小,就可以一次把这3个数据包全部发送完毕。

6、TCP拆包

TCP拆包就是一个完整的包可能会被TCP拆分为多个包进行发送。

发生拆包的原因:

  • 要发送的数据大于TCP发送缓冲区剩余空间大小,将会发生拆包。

  • 待发送数据大于MSS(最大报文长度),TCP在传输前将进行拆包。

TCP拆包同样可以通过添加边界信息或者数据报长度信息来解决。

6.2.半包读写常见解决方案

  • 发送方:关闭Nagle算法

  • 接受方:TCP是无界的数据流,并没有处理粘包现象的机制,且协议本身无法避免粘包,可以在应用层处理。

  • 应用层:

    • 设置定长消息(24个字符)
    • 设置消息的边界($_切割)
    • 使用带消息头的协议,消息头存储消息开始标识及消息的长度信息(Header+Body)

6.3.Netty自带解决TCP半包读写方案

  • DelimiterBasedFrameDecoder:指定消息分隔符的解码器

  • LineBaseFrameDecoder:以换行符为结束标志的解码器

  • FixedLengthFrameDecoder:固定长度解码器

  • LengthFieldBasedFrameDecoder:message=header+body,基于长度解码的通用解码器

6.4.半包读写问题案例

(1)EchoServer编写

//创建启动引导类ServerBootstrap serverBootstrap = new ServerBootstrap();//加入服务端线程组serverBootstrap.group(bossGroup,workGroup)//设置管道.channel(NioServerSocketChannel.class).option(ChannelOption.SO_BACKLOG,1024)//加入处理器.childHandler(new ChannelInitializer<SocketChannel>() {protected void initChannel(SocketChannel socketChannel) throws Exception {//加入处理器ServerHandlersocketChannel.pipeline().addLast(new ServerHandler());}});System.out.println("Echo服务启动中...");

(2)ServerHandler处理器编写

    private int counter;@Overridepublic void channelRead(ChannelHandlerContext ctx, Object msg) throws Exception {ByteBuf byteBuf = (ByteBuf) msg;byte[] bytes = new byte[byteBuf.readableBytes()];byteBuf.readBytes(bytes);String body = new String(bytes,"UTF-8").substring(0,bytes.length - System.getProperty("line.separator").length());System.out.println("服务端收到消息内容为:"+body+",收到消息次数:"+ ++counter);}

(3)测试

6.4.空格解码器案例

LineBasedFrameDecoder

(1)EchoServer编写

//加入服务端线程组serverBootstrap.group(bossGroup,workGroup)//设置管道.channel(NioServerSocketChannel.class).option(ChannelOption.SO_BACKLOG,1024)//加入处理器.childHandler(new ChannelInitializer<SocketChannel>() {protected void initChannel(SocketChannel socketChannel) throws Exception {//1024参数为,当没有截取到换行符时,但是字节已经超过1024个,就会抛异常TooLongFrameExceptionsocketChannel.pipeline().addLast(new LineBasedFrameDecoder(1024));//String解码器,InboundHandler接收到的消息能只直接转换成String类型socketChannel.pipeline().addLast(new StringDecoder());socketChannel.pipeline().addLast(new ServerHandler());}});System.out.println("Echo服务启动中...");

(2)ServerHandler处理器

 @Overridepublic void channelRead(ChannelHandlerContext ctx, Object msg) throws Exception {String body = (String) msg;System.out.println("服务端收到消息内容为:"+body+",收到消息次数:"+ ++counter);}

(3)客户端都一样,测试

6.5.自定义解码器案例

DelimiterBasedFrameDecoder

(1)EchoClient编写

    @Overridepublic void channelActive(ChannelHandlerContext ctx) throws Exception {String message = "11111111111111111&_222222222222222222222&_33333333333333333333&_444444444444444444444444&_";ByteBuf msg = null;msg = Unpooled.buffer(message.getBytes().length);msg.writeBytes(message.getBytes());ctx.writeAndFlush(msg);}

(2)ServerHandler编写

//加入服务端线程组serverBootstrap.group(bossGroup,workGroup)//设置管道.channel(NioServerSocketChannel.class).option(ChannelOption.SO_BACKLOG,1024)//加入处理器.childHandler(new ChannelInitializer<SocketChannel>() {//指定分隔符为"&_"ByteBuf delimiter = Unpooled.copiedBuffer("&_".getBytes());//构建DelimiterBasedFrameDecoder处理器//1024参数为,当没有截取到换行符时,但是字节已经超过1024个,就会抛异常TooLongFrameExceptionsocketChannel.pipeline().addLast(new DelimiterBasedFrameDecoder(1024,delimiter));socketChannel.pipeline().addLast(new StringDecoder());socketChannel.pipeline().addLast(new ServerHandler());}});System.out.println("Echo服务启动中...");

(3)测试

7.Netty核心功能之Buffer

7.1.Netty中BufferAPI

Buffer API主要包括

  • ByteBuf

  • ByteBufHolder

Netty根据reference-counting(引用计数)来确定何时可以释放ByteBufByteBufHolder和其他相关资源,从而可以利用池和其他技巧来提高性能和降低内存的消耗。这一点上不需要开发人员做任何事情,但是在开发Netty应用程序时,尤其是使用ByteBufByteBufHolder时,你应该尽早的释放资源。Netty缓冲API提供了几个优势:

  • 可以自定义缓冲类型

  • 扩展性好,比如StringBuilder

  • 通过一个内置的复合缓冲类型实现零拷贝

  • 不需要调用flip()来切换读写/模式

  • 读取和写入索引分开

  • 方法链

  • 引用计数器

  • Pooling(池)

7.2.Netty字节数据容器ByteBuf

既然所有的网络通信都是基于底层的字节流来传输,那么传输所使用的数据接口就要求是效率高的、使用方便的,NettyByteBuf更好的能达到这些需求。

ByteBuf是一个已经经过优化的很好的使用的数据容器,字节数据可以有效的被添加到ByteBuf中或者也可以从ByteBuf中之直接获取数据。ByteBuf中有两个索引,一个用来读,一个用来写。这两个索引达到了便于操作的目的。我们可以按照顺序的读取数据,也可以通过调整读取数据的索引或者直接将读取位置索引作为参数传递给get方法。而JDK中的ByteBuffer共用读写索引,每次读写操作都需要Flip()(复位操作)扩容麻烦,而且孔融后容易造成浪费。

1、ByteBuf的工作原理

写入数据到ByteBuf后,**writerIndex(写入索引)**增加写入的字节数。读取字节后,**readerIndex(读取索引)**也增加读取出的字节数。你可以读取字节,直到写入索引和读取索引位置相同时,此时ByteBuf不可读,所以下一次操作将会抛出IndexOutOfBoundsException,就像读取数组时越位一样。

调用ByteBuf的以“read”或“write”开头的任何方法都将自动增加相应的索引。另一方面“set”、“get”操作字符将不会移动索引位置,他们只会在指定的相对位置上操作字节。

可以给ByteBuf指定一个最大容量值,这个值限制这ByteBuf的容量,任何尝试将写入超过这个值的数据的行为都将导致抛出异常。ByteBuf的默认最大容量限制是Integer.MAX_VALUE

ByteBuf类似于一个字节数组,最大的区别是读和写的索引可以来控制对缓冲区数据的访问。

2、ByteBuf使用模式

HEAP BUFFER(堆缓冲区)

最常用的模式是ByteBuf将数据存储在JVM的堆空间,这是通过将数据存储在数组里实现。堆缓冲区可以快速分配,当不使用时也可以快速释放。他还提供了直接访问数组的方法,通过ByteBuf.array()来获取byte[]数据。这种方法时最适合用来处理遗留数据的。如下:

(1)检查 ByteBuf 是否有支持数组。

(2)如果有的话,得到引用数组。

(3)计算第一字节的偏移量。

(4)获取可读的字节数。

(5)使用数组,偏移量和长度作为调用方法的参数。

创建堆缓冲区的方式:

注意:

  • 访问非缓冲区ByteBuf的数组会导致UnsupportedOperationException,可以使用ByteBuf.hasArray()来检查是否支持访问数组

  • 这个方法与JDK的ByteBuffer类似

DIRECT BUFFER(直接缓冲区)

“直接缓冲区”是另一种ByteBuf模式。在JDK1.4引入NIO的ByteBuffer类允许JVM通过本地方法调用分配内存,其目的是

  • 通过免去中间交换的内存拷贝,提升IO处理速度,直接缓冲区的内容可以驻留在垃圾回收扫描的堆区以外。
  • DireBuffer在 -XX:MaxDirectMemorySize=xxM大小限制,使用heap以外的内存。

这也就解释了为什么“直接缓冲区”,对于那些通过socket实现数据传输的应用来说,是一种非常理想的方式。如果你的数据是存放在堆中分配的缓冲区,那么实际上,在通过socket发送数据之前,JVM需要将数据复制到缓冲区。

但是直接缓冲区的缺点在内存空间的分配和释放上比堆缓冲区更复杂,另外一个缺点就是如果将数据传递给遗留代码处理,因为数据不是堆上,你可能不得不做出一个副本:

(1)检查 ByteBuf 是不是由数组支持。如果不是,这是一个直接缓冲区。

(2)获取可读的字节数

(3)分配一个新的数组来保存字节

(4)字节复制到数组

(5)将数组,偏移量和长度作为参数调用某些处理方法

创建直接缓冲区的方式:

显然,这比使用数组要多做一些工作。因此,如果你事前就知道容器里的数据将作为一个数组被访问,你可能更愿意使用堆内存。

COMPOSITE BUFFER(复合缓冲区)

最后一种模式是复合缓冲区,我们可以创建多个不同的 ByteBuf,然后提供一个这些 ByteBuf 组合的视图。复合缓冲区就像一个列表,我们可以动态的添加和删除其中的 ByteBuf,JDK 的 ByteBuffer 没有这样的功能。

Netty 提供了 ByteBuf 的子类 CompositeByteBuf 类来处理复合缓冲区,CompositeByteBuf 只是一个视图。

CompositeByteBuf.hasArray() 总是返回 false,因为它可能既包含堆缓冲区,也包含直接缓冲区。

一条消息由 header 和 body 两部分组成,将 header 和 body 组装成一条消息发送出去,可能 body 相同,只是 header 不同,使用CompositeByteBuf 就不用每次都重新分配一个新的缓冲区。下图显示CompositeByteBuf 组成 header 和 body:

来看一下用JDK的ByteBuffer的一个实现,两个ByteBuf的数组创建保存消息的组件,第三个用于保存所有的数据副本。

这种做法显然是低效的;分配和复制操作不是最优的方法,操纵数组使代码显得很笨拙。

下面看使用 CompositeByteBuf 的改进版本,你可以把CompositeByteBuf当做一个可迭代遍历的容器。

(1)追加 ByteBuf 实例的 CompositeByteBuf

(2)删除 索引1的 ByteBuf

(3)遍历所有 ByteBuf 实例。

CompositeByteBuf不允许访问其内部可能存在的支持数组,也不允许直接访问数据,这一点类似于直接缓冲区模式,如下代码:

(1)得到可读的字节数

(2)分配一个新的数组数组长度为可读字节长度

(3)读取字节到数组

(4)使用数组,把偏移量和长度作为参数

7.3.Netty字节级别的操作

除了基本的读写操作,ByteBuf还提供了它所包含的数据的修改方法。

随机访问索引

ByteBuf使用zero-based的indexing(从0开始的索引),第一个字节的索引是0,最后一个字节的索引是ByteBuf的capacity-1,下面代码是遍历ByteBuf的所有字节:

注意通过索引访问时不会推进readerIndex(读索引)和writeIndex(写索引),我们可以通过ByteBuf的readerIndex(index)或者writerIndex(index)来分别推进读索引和写索引。

7.4.Netty之ByteBufHolder的使用

我们时不时的会遇到这样的情况:即需要另外存储除有效的实际数据各种属性值。HTTP响应就是一个很好的例子。与内容一起的字节的还有状态码,cookies等。

Netty提供的ByteBufHolder可以对这种常见情况进行处理。ByteBufHolder还提供了堆于Netty的高级功能,如缓冲池,其中保存实际数据的ByteBuf可以从池中借用,如果需要还可以自动释放。

ByteBufHolder有那么几个方法。到底层的致谢支持接入数据和引用计数。

名称 描述
data() 返回ByteBuf保存的数据
copy() 制作一个ByteBufHolder的拷贝但不共享其数据(所以数据也是拷贝的)

7.5.Netty之ByteBuf分配

ByteBuf实例管理的方式

1、ByteBufAllocator

为了减少分配和释放内存的开销,Netty通过支持池类ByteBufAllocator,可用于分配的任何ByteBuf。是否使用池是由应用程序决定的。

以下提供几个常用的API:

名称 描述
ByteBuf directBuffer() 组合分配,把多个ByteBuf组合到一起变成一个整体
ByteBuf buffer() 尽可能的分配一块堆外直接内存,如果系统不支持则分配堆内内存
ByteBuf ioBuffer() 分配一块堆内内存
ByteBuf heapBuffer() 分配一块堆外内存

通过一些方法接收整型参数允许用户指定ByteBuf的初始和最大容量值。ByteBuf存储可以扩大到其最大容量。得到一个ByteBufAlloctor的引用很简单。你可以从Channel,或者通过绑定到的ChannelHandler的ChannelHandlerContext得到它,用它实现了你的数据处理。

下面列表说明获得ByteBufAllocator的两种方式。

(1)从 channel 获得 ByteBufAllocator

(2)从 ChannelHandlerContext 获得 ByteBufAllocator

Netty提供了两种ByteBufAllocator的实现,一种是PooledByteBufAllocator池化的,一种是UnpooledByteBufAllocator非池化的。

2、Unpooled(非池化)缓存

当未引用ByteBufAllocator时,上面的方法无法访问到ByteBuf。对于这个用例Netty提供了一个实用工具类称为Unpooled,它提供了静态辅助方法来创建非池化的ByteBuf实例。

在ByteBuf下有三个重要的属性,writeIndex、readIndex、capacity

  • writeIndex:就是当前操作写的下标

  • readIndex:就是当前操纵读的下标

  • capacity:当前ByteBuf的容量

ByteBuf实际就是将数据存储在了一个array[]数组中,里面来存储实际的数据,readIndex,writeIndex就是在操作这个数据,capacity就是这个数组的长度。

ByteBuf相比于NIO的ByteBuffer,它不用flip进行翻转,在NIO中操作ByteBuffer每次之后都需要读写进行翻转之后进行相反的操作,比如现在在操作读的操作,只有当flip之后,才能进行写的操作,可在Netty中并不使用flip,即可进行直接的读写切换,非常的方便。

根据ByteBuf维护的三个变量,readIndex,writeIndex,capacity,则可将arr[]数组分为三个区

  • 0–readIndex —>已经读取过数据的区域

  • readIndex–writeIndex —>未读取过数据的区域

  • writeIndex–capacity —>可写数据的区域

在非联网项目,该Unoopled类也使得它更容易使用的ByteBuf API,获得一个高性能的可缓冲的API,而不需要Netty的其他部分。

3、ByteBufUtil

ByteBufUtil静态辅助方法来操作ByteBuf,因为这个API是通用的,与使用池无关,这些方法已经在外面的分配类实现。

也许最有价值的是hexDump()方法,这个方法返回值指定ByteBuf中可读字节的十六进制字符串,可以用于调试程序时打印ByteBuf的内容。一个典型的用途是记录一个ByteBuf的内容进行调试。十六进制字符串相比字节而言对用户更加友好。而且十六进制版本可以很容易的转换回实际字节表示。

另一个有用的方法是使用boolean equals(ByteBuf,ByteBuf),用来比较ByteBuf实例是否相等。在实现自己ByteBuf的子类时经常用到。

4、池化/非池化ByteBuf的类关系图


7.6.Netty引用计数器

在Netty中ByteBuf和ByteBufHolder(两者都实现了ReferenceCounted接口)引入了引用计数器。

引用计数器本身并不复杂,他能够在特定的对象上跟踪引用的数目,实现了ReferenceCoundted的类的实例通常开始于一个活动的引用计数器为1。而如果对象活动的引用计数器大于0,就会被保证不被释放。当数量引用减少到0,将释放该实例。需要注意的是“释放”的语义是特定于具体的实现。最起码,一个对象,它已被释放应不再可用。

这种技术就是诸如 PooledByteBufAllocator 这种减少内存分配开销的池化的精髓部分。

(1)从 channel 获取 ByteBufAllocator

(2)从 ByteBufAllocator 分配一个 ByteBuf

(3)检查引用计数器是否是 1

(1)release()将会递减对象引用的数目。当这个引用计数达到0时,对象已被释放,并且该方法返回 true。

如果尝试访问已经释放的对象,将会抛出 IllegalReferenceCountException 异常。

需要注意的是一个特定的类可以定义自己独特的方式其释放计数的“规则”。 例如,release() 可以将引用计数器直接计为 0 而不管当前引用的对象数目。

7.7.Netty中用到的设计模式

  • 建造者模式:ServerBootstap
  • 责任链模式:pipline的事件传播
  • 工厂模式:创建channel信道
  • 适配器模式:HandlerAdapter

8.Netty搭建单机百万连接

8.1.Netty单机百万连接方案

实现单机的百万连接,瓶颈有以下几点:

(1)如何模拟百万连接

(2)突破局部文件句柄的限制

(3)突破全局文件句柄的限制

在Linux系统中,单个进程打开的句柄数是非常有限的,一条TCP连接就对应一个文件句柄,而对于我们应用程序来说,一个服务端默认建立的连接数是有限制的。

如下图所示,通常一个客户端去除一些被占用的端口之后,可用的端口大于只有6w个左右,要想模拟百万连接要比较多的客户端,而且比较麻烦,所以比较麻烦,所以这种方案不适合。

在服务端启动800~8100,而客户端依旧使用1025-65535范围内可用的端口号,让同一个端口号,可以连接Server的不同端口。这样的话,6W的端口可以连接Server的100个端口,累加起来就能实现近600W左右的连接,TCP是以一个四元组概念,以原IP、原端口号、目的IP、目的端口号来确定的,当原IP 和原端口号相同,但目的端口号不同,最终系统会把他当成两条TCP 连接来处理,所以TCP连接可以如此设计。

8.2.Netty搭建百万连接案例

1、NettyServer服务端代码

public class NettyServer {public void run(int beginPort, int endPort) {System.out.println("服务端启动中。。");//配置服务端线程组EventLoopGroup bossGroup = new NioEventLoopGroup();EventLoopGroup workGroup = new NioEventLoopGroup();ServerBootstrap serverBootstrap = new ServerBootstrap();serverBootstrap.group(bossGroup, workGroup).channel(NioServerSocketChannel.class)//.childOption(ChannelOption.SO_BACKLOG, 1024).childOption(ChannelOption.TCP_NODELAY, true).childOption(ChannelOption.SO_REUSEADDR, true); //快速复用端口serverBootstrap.childHandler(new TCPCountHandler());for (; beginPort < endPort; beginPort++) {int port = beginPort;serverBootstrap.bind(port).addListener((ChannelFutureListener) future -> {System.out.println("服务端成功绑定端口 port = " + port);});}}/*** 启动入口** @param args*/public static void main(String[] args) {new NettyServer().run(NettyConfig.BEGIN_PORT, NettyConfig.END_PORT);}}

2、TCPCountHandler代码编写

@ChannelHandler.Sharable
public class TCPCountHandler extends ChannelInboundHandlerAdapter {//使用原子类,避免线程安全问题private AtomicInteger atomicInteger = new AtomicInteger();public TCPCountHandler(){Executors.newSingleThreadScheduledExecutor().scheduleAtFixedRate(()->{System.out.println("当前连接数为 = "+atomicInteger.get());},0,3, TimeUnit.SECONDS);}@Overridepublic void channelActive(ChannelHandlerContext ctx) throws Exception {atomicInteger.incrementAndGet();}@Overridepublic void channelInactive(ChannelHandlerContext ctx) throws Exception {atomicInteger.decrementAndGet();}@Overridepublic void exceptionCaught(ChannelHandlerContext ctx, Throwable cause) throws Exception {System.out.println("TCPCountHandler exceptionCaught");cause.printStackTrace();ctx.close();}
}

3、NettyConfig配置类

public class NettyConfig {public static int BEGIN_PORT = 8000;public static int END_PORT = 8050;public static String SERVER_ADDR = "127.0.0.1";}

4、NettyClient客户端代码

public class NettyClient {public void run(int beginPort,int endPort){System.out.println("客户端启动中。。");EventLoopGroup group = new NioEventLoopGroup();Bootstrap bootstrap = new Bootstrap();bootstrap.group(group).channel(NioSocketChannel.class).option(ChannelOption.SO_REUSEADDR,true) //快速复用端口.option(ChannelOption.TCP_NODELAY, true).handler(new ChannelInitializer<SocketChannel>() {@Overrideprotected void initChannel(SocketChannel socketChannel) throws Exception {}});int index = 0;while(true){int finalPort = beginPort + index;try {bootstrap.connect(NettyConfig.SERVER_ADDR,finalPort).addListener((ChannelFutureListener) future ->{if (!future.isSuccess()){System.out.println("创建连接失败 port = "+finalPort);}}).get();} catch (InterruptedException e) {e.printStackTrace();} catch (ExecutionException e) {e.printStackTrace();}++index;if(index == (endPort - beginPort)){index = 0;}}}/*** 启动入口* @param args*/public static void main(String[] args) {new NettyClient().run(NettyConfig.BEGIN_PORT,NettyConfig.END_PORT);}
}

5、maven打包依赖加入pom.xml中

分两次打包,先打包server,在打包client,打包哪个主类的时候,把另一个先注掉。注意这块,打包之前先把NettyConfig中的地址改掉,改成Netty-server的地址。

<build><plugins><!--maven的默认编译使用的jdk版本貌似很低,使用maven-compiler-plugin插件可以指定项目源码的jdk版本--><plugin><groupId>org.apache.maven.plugins</groupId><artifactId>maven-compiler-plugin</artifactId><version>3.7.0</version><configuration><source>1.8</source><target>1.8</target><encoding>utf-8</encoding></configuration></plugin><!--将依赖的jar包打包到当前jar包,常规打包是不会将所依赖jar包打进来的--><plugin><groupId>org.apache.maven.plugins</groupId><artifactId>maven-shade-plugin</artifactId><version>1.2.1</version><executions><execution><phase>package</phase><goals><goal>shade</goal></goals><configuration><transformers><transformer implementation="org.apache.maven.plugins.shade.resource.ManifestResourceTransformer"><!-- 打包server主类 --><mainClass>com.lixiang.NettyServer</mainClass> <!-- 打包client主类 --><!--<mainClass>com.lixiang.NettyClient</mainClass>--></transformer></transformers></configuration></execution></executions></plugin></plugins></build>

8.3.Netty百万连接测试

1、环境准备

两台机器:192.168.159.60(netty-server)、192.168.159.61(netty-client)

虚拟机:centos7系统 4核8G(注意:这块系统参数至少要4核6G)

192.168.159.60(netty-server)放置NettyServer主类jar包

192.168.159.61(netty-client)放置NettyClient主类jar包

先启动server端的jar包,在启动client端的jar包,启动命令:java -jar million-server-1.0-SNAPSHOT.jar

我们可以看到当前的连接数一直在4000上不去。出现异常 Caused by: java.io.IOException: Too many open files

too many open files:顾名思义即打开过多文件数。不过这里的files不单是文件的意思,也包括打开的通讯链接(比如socket),正在监听的端口等等,所以有时候也可以叫做句柄(handle),这个错误通常也可以叫做句柄数超出系统限制。Linux是有文件句柄限制的,而且默认不是很高,一般都是1024。查看当前用户句柄数限制:

ulimit -n

我们可以看到当前的文件句柄数是1024,我们的机器是4核的所以大概的连接数在4000左右,那么如何提高文件句柄数呢?

2、修改文件句柄数,让netty-server支持百万连接

(1)root身份下编解/etc/security/limits.conf

 vi /etc/security/limits.conf增加如下:
root soft nofile 1000000
root hard nofile 1000000
* soft nofile 1000000
* hard nofile 1000000

(2)修改全局文件句柄限制(所有进程最大打开的文件数,不同系统是不一样,可以直接echo临时修改)

查看命令:cat /proc/sys/fs/file-max

(3)永久修改全局文件句柄, 修改后生效 sysctl -p

vi /etc/sysctl.conf增加 fs.file-max = 1000000使其生效:sysctl -p

(4)修改完成后重启机器,client端配置也是一样的

reboot

(5)启动运行jar包

java -jar million-server-1.0-SNAPSHOT.jar  -Xms5g -Xmx5g -XX:NewSize=3g -XX:MaxNewSize=3g

一文搞定Netty,打造单机百万连接测试!相关推荐

  1. Netty 单机百万连接测试

    1.Netty框架简介 1.1.Netty简介 netty是jboss提供的一个java开源框架,netty提供异步的.事件驱动的网络应用程序框架和工具,用以快速开发高性能.高可用性的网络服务器和客户 ...

  2. 单机百万连接调优和Netty应用级别调优

    单机百万连接调优 准备两台Linux服务器,一个充当服务端,一个充当客户端. 服务端 操作系统:CentOS 7 配置:4核8G IP:192.168.118.138 客户端 操作系统:CentOS ...

  3. 单机百万连接调优和 Netty 应用级别调优

    单机百万连接调优和 Netty 应用级别调优 作者:Grey 原文地址: 博客园:单机百万连接调优和 Netty 应用级别调优 CSDN:单机百万连接调优和 Netty 应用级别调优 说明 本文为深度 ...

  4. 用Netty实现单机百万TCP长连接

    一  服务实现模型 单机百万连接有多种方式, 这里采用一个netty server 占用8888 端口,用客户端机器模拟百万客户端连接 模拟实现的方式 以下是示意图 如果一台客户端模拟3万个连接,那么 ...

  5. php带参数单元测试_一文搞定单元测试核心概念

    基础概念 单元测试(unittesting),是指对软件中的最小可测试单元进行检查和验证,这里的最小可测试单元通常是指函数或者类.单元测试是即所谓的白盒测试,一般由开发人员负责测试,因为开发人员知道被 ...

  6. 【Python基础】一文搞定pandas的数据合并

    作者:来源于读者投稿 出品:Python数据之道 一文搞定pandas的数据合并 在实际处理数据业务需求中,我们经常会遇到这样的需求:将多个表连接起来再进行数据的处理和分析,类似SQL中的连接查询功能 ...

  7. 一文搞定Swing和Qt按钮和文本框的创建

    一文搞定Swing和Qt按钮和文本框的创建 Qt的截图 java的 源码 package com.lujun;import java.awt.Container;import javax.swing. ...

  8. 一文搞定C#关于NPOI类库的使用读写Excel以及io流文件的写出

    一文搞定C#关于NPOI类库的使用读写Excel以及io流文件的写出 今天我们使用NPOI类库读写xlsx文件, 最终实现的效果如图所示 从太平洋官网下载相应的类库,大概4~5MB,不要从github ...

  9. 一文搞定Qt读写excel以及qt读写xml数据

    一文搞定Qt读写excel以及qt读写xml数据 最终的实现效果图 RC_ICONS = logo.ico .pro文件同级目录下加入 logo.ico 图标文件,运行文件,文件的图标就被写入软件 u ...

最新文章

  1. jquery $.each()函数编程实例五则图解
  2. Java动态编程初探——Javassist
  3. 了解这些电源知识能提高机房供电可靠性
  4. python程序运行时间计时软件_python中的计时器timeit的使用方法
  5. python unittest库的入门学习
  6. 网站攻击软件_佳能遭严重勒索软件攻击,10TB的数据被窃取,大量服务宕机
  7. EMNLP2021 | 标签推理的细粒度实体识别
  8. 2019年第四次课程设计实验报告
  9. APP下载页源码-带后台
  10. 汇川plc c语言,汇川小型PLC梯形图编程教程(十):输入输出继电器X和Y元件及常开常闭触点介绍...
  11. oauth样例项目【01】之 使用auth-code进行认证授权
  12. nodejs EADDRINUSE API拒绝访问
  13. Linux Shell学习-第二讲(进阶篇)
  14. TestNG教程三:TestNG中的监听
  15. Kafka系列 —— 生产实践分享
  16. java 健身会所_基于jsp的健身俱乐部会员-JavaEE实现健身俱乐部会员 - java项目源码...
  17. CondConv: Conditionally Parameterized Convolutions for Efficient Inference论文解读
  18. 一文学会回溯算法解题技巧
  19. 关于笔记本电脑屏幕的亮,暗点问题的民意调查
  20. Lect6_Value_Function_Approximation

热门文章

  1. python文字转语音女声_python文字转语音
  2. ESP32设备驱动-MS5611气压传感器驱动
  3. db2 查询表、模式、用户和权限,版本
  4. Windows Server 2003 sp1升级到sp2报错解决办法
  5. ESP32 ESP-IDF LVGL8 显示中文
  6. java dbcp连接池_DBCP-基于Java8导入DBCP连接池所需JAR包并编写DBCPUtils工具类
  7. 算法学习---关于哈密顿图的哈密顿通路求解问题
  8. 前端微信支付步骤(笔记)
  9. ppt模板新拟态效果怎么做?让你的PPT像UI设计一样高端
  10. 华硕固件安装扩展插件_华硕RT-AC1200GU安装迅雷插件简要教程