【Redis 原理】网络模型
文章目录
- 用户空间 && 内核空间
- 阻塞IO
- 非阻塞IO
- 信号驱动IO
- 异步IO
- IO多路复用
- select
- poll
- epoll
- Web服务流程
- Redis 网络模型
- Redis单线程网络模型的整个流程
- Redis多线程网络模型的整个流程
用户空间 && 内核空间
为了避免用户应用导致冲突甚至内核崩溃,用户应用与内核是分离的
- 进程的寻址空间会划分为两部分:内核空间、用户空间
- 用户空间只能执行受限的命令(Ring3),而且不能直接调用系统资源,必须通过内核提供的接口来访问
- 内核空间可以执行特权命令(Ring0),调用一切系统资源
阻塞IO
顾名思义,阻塞IO就是两个阶段都必须阻塞等待:
阶段一:
- 用户进程尝试读取数据(比如网卡数据)
- 此时数据尚未到达,内核需要等待数据
- 此时用户进程也处于阻塞状态
阶段二:
- 数据到达并拷贝到内核缓冲区,代表已就绪
- 将内核数据拷贝到用户缓冲区
- 拷贝过程中,用户进程依然阻塞等待
- 拷贝完成,用户进程解除阻塞,处理数据
非阻塞IO
顾名思义,非阻塞IO的recvfrom
操作会立即返回结果而不是阻塞用户进程
阶段一:
- 用户进程尝试读取数据(比如网卡数据)
- 此时数据尚未到达,内核需要等待数据
- 返回异常给用户进程
- 用户进程拿到error后,再次尝试读取
- 循环往复,直到数据就绪
阶段二:
- 将内核数据拷贝到用户缓冲区
- 拷贝过程中,用户进程依然阻塞等待
- 拷贝完成,用户进程解除阻塞,处理数据
可以看到,非阻塞IO模型中,用户进程在第一个阶段是非阻塞,第二个阶段是阻塞状态。虽然是非阻塞,但性能并没有得到提高。而且忙等机制会导致CPU空转,CPU使用率暴增
信号驱动IO
信号驱动IO是与内核建立SIGIO的信号关联并设置回调,当内核有FD就绪时,会发出SIGIO信号通知用户,期间用户应用可以执行其它业务,无需阻塞等待。
阶段一:
- 用户进程调用sigaction,注册信号处理函数
- 内核返回成功,开始监听FD
- 用户进程不阻塞等待,可以执行其它业务
- 当内核数据就绪后,回调用户进程的SIGIO处理函数
阶段二:
- 收到SIGIO回调信号
- 调用recvfrom,读取
- 内核将数据拷贝到用户空间
- 用户进程处理数据
当有大量IO操作时,信号较多,SIGIO处理函数不能及时处理可能导致信号队列溢出,而且内核空间与用户空间的频繁信号交互性能也较低。
异步IO
异步IO的整个过程都是非阻塞的,用户进程调用完异步API后就可以去做其它事情,内核等待数据就绪并拷贝到用户空间后才会递交信号,通知用户进程.
阶段一:
- 用户进程调用aio_read,创建信号回调函数
- 内核等待数据就绪
- 用户进程无需阻塞,可以做任何事情
阶段二:
- 内核数据就绪
- 内核数据拷贝到用户缓冲区
- 拷贝完成,内核递交信号触发aio_read中的回调函数
- 用户进程处理数据
判断同步还是异步的依据:
IO多路复用
无论是阻塞IO还是非阻塞IO,用户应用在第一阶段都需要调用recvfrom来获取数据,差别在于无数据时的处理方案:
- 如果调用recvfrom时,恰好没有数据,阻塞IO会使CPU阻塞,非阻塞IO使CPU空转,都不能充分发挥CPU的作用。
- 如果调用recvfrom时,恰好有数据,则用户进程可以直接进入第二阶段,读取并处理数据
而在单线程情况下,只能依次处理IO事件,如果正在处理的IO事件恰好未就绪(数据不可读或不可写),线程就会被阻塞,所有IO事件都必须等待,性能自然会很差。
文件描述符(File Descriptor
):简称FD,是一个从0 开始的无符号整数,用来关联Linux中的一个文件。在Linux中,一切皆文件,例如常规文件、视频、硬件设备等,当然也包括网络套接字(Socket)。
IO多路复用:是利用单个线程来同时监听多个FD,并在某个FD可读、可写时得到通知,从而避免无效的等待,充分利用CPU资源
select
select是Linux最早是由的I/O多路复用技术,其数据结构定义如下:
// 定义类型别名 __fd_mask,本质是 long int
typedef long int __fd_mask;
//fd_set 记录要监听的fd集合,及其对应状态
typedef struct {
// fds_bits是long类型数组,长度为 1024/32 = 32
// 共1024个bit位,每个bit位代表一个fd,0代表未就绪,1代表就绪
__fd_mask fds_bits[__FD_SETSIZE / __NFDBITS];
// ...
} fd_set;
// select函数,用于监听fd_set,也就是多个fd的集合
int select(
int nfds, // 要监视的fd_set的最大fd + 1
fd_set *readfds, // 要监听读事件的fd集合
fd_set *writefds,// 要监听写事件的fd集合
fd_set *exceptfds, // // 要监听异常事件的fd集合
// 超时时间,null-用不超时;0-不阻塞等待;大于0-固定等待时间
struct timeval *timeout
);
这里对参数作以下说明:
nfds
:要监听的文件描述符的最大值 + 1,目的:告诉内核服务组要遍历的最大范围readfds
、writefds
、exceptfds
:分别表示需要监听的事件集合。需要监听fd的哪一个操作就将对应的文件描述都写入到相应的集合timeout
:设置select的等待时间
①NULL:表示select没有timeout,select将一直被阻塞,直到某个文件描述符上发生了事件
②0:仅检测描述符集合的状态,然后立即返回,并不等待外部事件的发生
③特定的时间值:如果在指定时间内没有事件发生,select将超时返回fd_set
:形式上来讲这个结构是一个整数数组,但是实际上是按照位图的思想来使用的。使用位图中对应的比特位来表示要监视的文件描述符
阶段一:
- 用户进程调用select,指定要监听的FD集合
- 内核监听FD对应的多个socket
- 任意一个或多个socket数据就绪则返回readable
- 此过程中用户进程阻塞
阶段二:
- 用户进程找到就绪的socket
- 依次调用recvfrom读取数据
- 内核将数据拷贝到用户空间
- 用户进程处理数据
下面通过一个例子来说明:
假设我们现在需要监听的fd为1,2,5,并且内核中监听到了fd=1的文件描述符上有事件发生,那么我们会得到如下的结果:
紧接着,内核需要将更新后的位图信息copy到用户空间中的位图中,这样用户空间通过遍历位图就可以得到就绪的文件描述符,进而做相关业务处理。
而后,需要继续监听刚开始的1,2,5号文件描述符的时候就需要我们手动设置位图内容后才能正常监听。
select模式存在的问题:
- 需要将整个fd_set从用户空间拷贝到内核空间,select结束还要再次拷贝回用户空间
- select无法得知具体是哪个fd就绪,需要遍历整个fd_set
- fd_set监听的fd数量有限
- 每次调用select,都需要手动设置fd集合,从接口使用角度来讲非常不便
poll
poll模式对select模式做了简单改进,但性能提升不明显,部分关键代码如下:
// pollfd 中的事件类型
#define POLLIN //可读事件
#define POLLOUT //可写事件
#define POLLERR //错误事件
#define POLLNVAL //fd未打开
// pollfd结构
struct pollfd {
int fd; /* 要监听的fd */
short int events; /* 要监听的事件类型:读、写、异常 */
short int revents;/* 实际发生的事件类型 */
};
// poll函数
int poll(
struct pollfd *fds, // pollfd数组,可以自定义大小
nfds_t nfds, // 数组元素个数
int timeout // 超时时间
);
IO流程:
- 创建pollfd数组,向其中添加关注的fd信息,数组大小自定义
- 调用poll函数,将pollfd数组拷贝到内核空间,转链表存储,无上限
- 内核遍历fd,判断是否就绪
- 数据就绪或超时后,拷贝pollfd数组到用户空间,返回就绪fd数量n
- 用户进程判断n是否大于0
- 大于0则遍历pollfd数组,找到就绪的fd
与select的对比:
- select模式中的fd_set大小固定为
sizeof(fd_set)
,而pollfd在内核中采用链表,理论上无上限 - 监听FD越多,每次遍历消耗时间也越久,性能反而会下降
epoll
epoll模式是对select和poll的改进,它提供了三个函数:
struct eventpoll {
//...
struct rb_root rbr; // 一颗红黑树,记录要监听的FD
struct list_head rdlist;// 一个链表,记录就绪的FD
//...
};
// 1.创建一个epoll实例,内部是event poll,返回对应的句柄epfd
int epoll_create(int size);
// 2.将一个FD添加到epoll的红黑树中,并设置ep_poll_callback
// callback触发时,就把对应的FD加入到rdlist这个就绪列表中
int epoll_ctl(
int epfd, // epoll实例的句柄
int op, // 要执行的操作,包括:ADD、MOD、DEL
int fd, // 要监听的FD
struct epoll_event *event // 要监听的事件类型:读、写、异常等
);
// 3.检查rdlist列表是否为空,不为空则返回就绪的FD的数量
int epoll_wait(
int epfd, // epoll实例的句柄
struct epoll_event *events, // 空event数组,用于接收就绪的FD
int maxevents, // events数组的最大长度
int timeout // 超时时间,-1用不超时;0不阻塞;大于0为阻塞时间
);
我们可以看到。epoll中是将select的功能进行了拆分,拆分为epoll_ctl
和 epoll_wait
。
其中epoll_ctl
是将一个FD添加到epoll的红黑树中,并设置ep_poll_callback
在callback触发时,就把对应的FD加入到rdlist 这个 绪列表中。
epoll_wait
主要是检查rdlist列表是否为空,不为空则返回就绪的FD的数量
总结:
select模式存在的问题:
- 能监听的FD最大不超过
sizeof(fd_set)
- 每次select都需要把所有要监听的FD都拷贝到内核空间
- 每次都要遍历所有FD来判断就绪状态
- 每次调用select,都需要手动设置fd集合,从接口使用角度来讲非常不便
poll模式的问题:
- 和select函数一样,poll返回后,需要轮询pollfd来获取就绪的文件描述符
- 每次调用poll都需要把大量的pollfd结构从用户态拷贝到内核中
- 同时连接的大量客户端在一时刻可能只有很少的处于就绪状态,因此随着监视的文件描述符数量的增长,其效率也会线性下降
epoll模式中如何解决这些问题的
- 基于epoll实例中的红黑树保存要监听的FD,理论上无上限,而且增删改查效率都非常高
- 每个FD只需要执行一次epoll_ctl添加到红黑树,以后每次epol_wait无需传递任何参数,无需重复拷贝FD到内核空间
- 利用ep_poll_callback机制来监听FD状态,无需遍历所有FD,因此性能不会随监听的FD数量增多而下降
事件通知机制
当FD有数据可读时,我们调用epoll_wait(或者select、poll)可以得到通知。但是事件通知的模式有两种:
LevelTriggered
:简称LT
,也叫做水平触发。只要某个FD中有数据可读,每次调用epoll_wait都会得到通知。EdgeTriggered
:简称ET
,也叫做边沿触发。只有在某个FD有状态变化时,调用epoll_wait才会被通知。
举个栗子:
- 假设一个客户端socket对应的FD已经注册到了epoll实例中
- 客户端socket发送了2kb的数据
- 服务端调用epoll_wait,得到通知说FD就绪
- 服务端从FD读取了1kb数据
- 回到步骤3(再次调用epoll_wait,形成循环)
结果:
如果我们采用LT模式,因为FD中仍有1kb数据,则第⑤步依然会返回结果,并且得到通知
如果我们采用ET模式,因为第③步已经消费了FD可读事件,第⑤步FD状态没有变化,因此epoll_wait不会返回,数据无法读取,客户端响应超时。
LT是epoll的默认行为,使用ET能够减少epoll触发的次数,但是代价就是要求程序员一次响应就绪过程中就把所有的数据都处理完
相当于一个文件描述符就绪后,不会反复被提示就绪,看起来就是比LT更高效一些,但是在LT情况下如果也能做到每次就绪文件描述符都立刻处理,不让这个就绪信息被重复提示的话,其实性能也是一样的。另一方面。ET的代码复杂度相比之下更高。
Web服务流程
基于epoll模式的web服务的基本流程如图:
epoll_create
创建实例
①创建红黑树,用于记录要监听的fd
②创建链表,用于记录就绪的fd- 创建
serverSocket
,得到对应的fd - 调用
epoll_ctl
监听步骤2中获取到的fd
①将fd注册到步骤1中的红黑树中
②注册相应的回调函数,在fd就绪时通过该函数处理 - 调用
epoll_wait
,等待fd就绪 - 判断就绪事件类型,根据类型作出相应的处理
Redis 网络模型
问题引入:
Q1:Redis到底是单线程还是多线程?
- 如果仅仅聊Redis的核心业务部分(命令处理),答案是单线程
- 如果是聊整个Redis,那么答案就是多线程
- 在Redis版本迭代过程中,在两个重要的时间节点上引入了多线程的支持:
①Redis v4.0:引入多线程异步处理一些耗时较旧的任务,例如异步删除命令unlink
②Redis v6.0:在核心网络模型中引入 多线程,进一步提高对于多核CPU的利用率
因此,对于Redis的核心网络模型,在Redis 6.0之前确实都是单线程。是利用epoll(Linux系统)这样的IO多路复用技术在事件循环中不断处理客户端情况
Q2:为什么Redis要选择单线程?
- 抛开持久化不谈,Redis是纯内存操作,执行速度非常快,它的性能瓶颈是网络延迟而不是执行速度,因此多线程并不会带来巨大的性能提升。
- 多线程会导致过多的上下文切换,带来不必要的开销
- 引入多线程会面临线程安全问题,必然要引入线程锁这样的安全手段,实现复杂度增高,而且性能也会大打折扣
Redis单线程网络模型的整个流程
根据上面的模型结合web服务流程,我们对其进行详细展开:
-
server Socket
初始化阶段
上图源码中包含了server socket的创建,IO多路复用模型的epoll的初始化,客户端连接server的处理函数注册,客户端读、写事件 处理函数的注册 -
客户端读事件触发流程
①client_server 发出读请求
②aeApiPoll监听到该就绪事件
③触发命令请求处理器readQueryFromClient
④将请求写入输入缓冲区c->queryBuf
⑤解析queryBuf数据为redis 命令
⑥选择并执行命令,将结果视情况写入到buf或者reply。(c->buf可以写的下就写,否则写到c->reply,这是一个链表,理论无上限)
⑦将客户端添加到server.clients_pending_write
队列。等待被命令回复处理器sendReplyToClient
处理返回
Redis多线程网络模型的整个流程
Redis 6.0版本中引入了多线程,目的是为了提高IO读写效率。
因此在解析客户端命令、写响应结果时采用了多线程。
核心的命令执行、IO多路复用模块依然是由主线程执行。