Nettty线程模型和Reactor模式

本文介绍了线程模型的基本概念,对比了传统阻塞I/O服务模型与Reactor模型的不同之处,重点阐述了Netty线程模型的设计原理,包括其主从Reactor多线程模式及其优劣。

线程模型基本介绍

不同的线程模式,对程序的性能有很大影响,在学习Netty线程模式之前,首先讲解下 各个线程模式, 最后看看 Netty 线程模型有什么优越性.目前存在的线程模型有:

(1)传统阻塞 I/O 服务模型

(2)Reactor 模型

根据 Reactor 的数量和处理资源池线程的数量不同,有 3 种典型的实现:

单 Reactor 单线程

单 Reactor 多线程

主从 Reactor 多线程

传统阻塞 I/O 服务模型

采用阻塞 IO 模式获取输入的数据, 每个连接都需要独立的线程完成数据的输入 , 业务处理和数据返回工作。

 

存在问题:

1. 当并发数很大,就会创建大量的线程,占用很大系统资源。

2. 连接创建后,如果当前线程暂时没有数据可读,该线程会阻塞在 read 操作,造成线程资源浪费。

Reactor 模型

Reactor 模式,通过一个或多个输入同时传递给服务处理器的模式 , 服务器端程序处理传入的多个请求,并将它们同步分派到相应的处理线程, 因此 Reactor 模式也叫 Dispatcher模式. Reactor 模式使用IO 复用监听事件, 收到事件后,分发给某个线程(进程), 这点就是网络服务器高并发处理关键。

单 Reactor 单线程

 

1.Selector是可以实现应用程序通过一个阻塞对象监听多路连接请求。

2.Reactor 对象通过 Selector监控客户端请求事件,收到事件后通过 Dispatch 进行分发。

3.是建立连接请求事件,则由 Acceptor 通过 Accept 处理连接请求,然后创建一个 Handler 对象处理连接完成后的后续业务处理。

4.Handler 会完成 Read→业务处理→Send 的完整业务流程。

 优点:模型简单,没有多线程、进程通信、竞争的问题,全部都在一个线程中完成。

 缺点:

1. 性能问题: 只有一个线程,无法完全发挥多核 CPU 的性能。Handler 在处理某个连接上的业务时,整个进程无法处理其他连接事件,很容易导致性能瓶颈。

2. 可靠性问题: 线程意外终止或者进入死循环,会导致整个系统通信模块不可用,不能接收和处理外部消息,造成节点故障。

单 Reactor多线程

 

 

1.Reactor 对象通过 selector 监控客户端请求事件, 收到事件后,通过 dispatch 进行分发

2.如果建立连接请求, 则右 Acceptor 通过accept 处理连接请求。

3.如果不是连接请求,则由 reactor 分发调用连接对应的 handler 来处理。

4.handler 只负责响应事件,不做具体的业务处理, 通过 read 读取数据后,会分发给后面的

worker 线程池的某个线程处理业务。

5.worker 线程池会分配独立线程完成真正的业务,并将结果返回给 handler。

6.handler 收到响应后,通过 send 将结果返回给 client。

优点:

可以充分的利用多核 cpu 的处理能力。

缺点:

多线程数据共享和访问比较复杂, reactor 处理所有的事件的监听和响应,在单线程运行, 在高并发场景容易出现性能瓶颈。

Netty线程模型

Netty 的设计主要基于主从 Reactor 多线程模式,并做了一定的改进。

1. 简单版Netty模型

 

1.BossGroup 线程维护 Selector,ServerSocketChannel 注册到这个 Selector 上,只关注连接

建立请求事件(主 Reactor)。

2.当接收到来自客户端的连接建立请求事件的时候,通过 ServerSocketChannel.accept 方法获得对应的 SocketChannel,并封装成 NioSocketChannel 注册到 WorkerGroup 线程中的

Selector,每个 Selector 运行在一个线程中(从 Reactor)。

3.当 WorkerGroup 线程中的 Selector 监听到自己感兴趣的 IO 事件后,就调用 Handler 进行处理。

2. 进阶版Netty模型

 

 

1.有两组线程池:BossGroup 和 WorkerGroup,BossGroup 中的线程专门负责和客户端建立

连接,WorkerGroup 中的线程专门负责处理连接上的读写。

2.BossGroup 和 WorkerGroup 含有多个不断循环的执行事件处理的线程,每个线程都包含一个 Selector,用于监听注册在其上的 Channel。

3.每个 BossGroup 中的线程循环执行以下三个步骤

一.轮训注册在其上的 ServerSocketChannel 的 accept 事件(OP_ACCEPT 事件)。

二.处理 accept 事件,与客户端建立连接,生成一个 NioSocketChannel,并将其注册到

WorkerGroup 中某个线程上的 Selector 上。

三.再去以此循环处理任务队列中的下一个事件。

4.每个 WorkerGroup 中的线程循环执行以下三个步骤

一.轮训注册在其上的 NioSocketChannel 的 read/write 事件(OP_READ/OP_WRITE 事

件)

二.在对应的 NioSocketChannel 上处理 read/write 事件

三.再去以此循环处理任务队列中的下一个事件

### Reactor 线程模型的工作原理 Reactor 模式是一种用于处理输入/输出操作的事件驱动架构,特别适用于高并发网络编程环境。在这种模式下,应用程序通过一个或多个线程来监听并响应各种 I/O 事件。 #### 单 Reactor线程模型 最简单的形式是单 Reactor线程模型,在此模型中只有一个线程负责所有的读写操作以及连接请求的接收。当有新的连接到来时,这个唯一的线程会先完成对该连接的初始化设置;之后每当发生任何可读写的 socket 就绪状态变化时,也是由这同一个线程来进行相应的业务逻辑处理[^2]。 然而,由于所有任务都在同一根线上串行执行,因此如果某个耗时较长的任务占据了 CPU 时间片,则其他等待中的任务会被延迟处理,从而影响整体性能表现。 #### 单 Reactor线程模型 为了克服上述局限性,可以采用单 Reactor 多线程方案。这里仍然存在单一入口点用来侦听新到达的数据包或者建立的新链接,但是针对每一个发生的 IO 事件(比如数据准备就绪),都会创建一个新的工作线程去具体承担实际的数据传输职责。这种方式能够在一定程度上缓解因个别长时间运行的操作而导致整个系统变得缓慢的问题[^1]。 不过需要注意的是,频繁地创建销毁临时性的 worker threads 可能带来额外开销,并且可能导致资源竞争现象的发生。 #### 主从 Reactor线程模型 更高级别的设计思路体现在所谓的 "main-sub reactor" 或者说 “master-slave reactors”。在这个版本里面引入了两层结构: - **主 Reactor (Master)**:专门从事于监听端口上的新连接尝试,并将其转发给预先设定好的一组子处理器之一; - **从 Reactors (Slaves)** :各自独立运作,专注于管理自己所辖范围内的活动套接字对象及其关联的各种异步通知机制。一旦发现目标文件描述符处于活跃态即刻唤醒对应的 handler 进入下一步骤——调用 read/write 函数实施真正的交互动作[^3]。 这样的安排不仅能够有效减轻主线程负担,而且还可以充分利用现代计算机硬件所提供的多核特性,进而达到更高的吞吐量指标。 ### 实际应用场景下的实现方式 考虑到不同框架对于内部组件的具体定义有所差异,下面给出基于 Java 平台之上构建的一个简化版 netty server demo 来展示如何运用 master/slave 架构搭建高性能的服务端程序[^4]。 ```java import io.netty.bootstrap.ServerBootstrap; import io.netty.channel.ChannelFuture; import io.netty.channel.EventLoopGroup; import io.netty.channel.nio.NioEventLoopGroup; import io.netty.channel.socket.nio.NioServerSocketChannel; public class NettyServer { public static void main(String[] args) throws Exception { EventLoopGroup bossGroup = new NioEventLoopGroup(); // Master thread group for accepting connections. EventLoopGroup workerGroup = new NioEventLoopGroup(); // Slave thread groups for handling actual data transfer. try { ServerBootstrap b = new ServerBootstrap(); b.group(bossGroup, workerGroup) .channel(NioServerSocketChannel.class); ChannelFuture f = b.bind(8080).sync(); System.out.println("Server started and listening on port 8080"); f.channel().closeFuture().sync(); } finally { bossGroup.shutdownGracefully(); workerGroup.shutdownGracefully(); } } } ``` 这段代码片段展示了如何使用 Netty 库快速建立起具备良好扩展性稳定性的 TCP/IP 服务器实例。其中 `bossGroup` `workerGroup` 分别对应着前面提到过的两种类型的反应堆实体,它们共同协作实现了高效稳定的通信链路维护功能[^5]。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值