概述
Linux的内核将所有的外部设备都看做一个文件来操作,对一个文件的读写操作会调用内核提供的系统命令,返回一个file descriptor(fd 文件描述符)。而对一个socket的读写也会有相应的描述符,称为socketfd(socket描述符)。描述符就是一个数字,它指向内核中的一个结构体(文件路径,数据区等一些属性)。
根据UNIX网络编程对I/O模型的分类,UNIX提供了5种I/O模型,分别如下。
【1】五种IO模型
① 阻塞I/O模型
最常用的I/O模型就是阻塞IO模型,缺省情况下,所有文件操作都是阻塞的。
我们以套接字接口为例来讲解此模型:在进程空间中调用recvfrom,其系统调用直到数据包到达且被复制到应用进程的缓冲区中或者发生错误时才返回,在此期间一直会等待。进程在从调用recvfrom开始到它返回的整段时间内都是被阻塞的,因此称为阻塞IO模型。
② 非阻塞I/O模型
recvfrom从应用层到内核的时候,如果该缓冲区没有数据的话,就直接返回一个EWOULDBLOCK
错误,一般都对非阻塞IO模型进行轮询检查这个状态
,看内核是不是有数据到来。
③ I/O复用模型
由于同步非阻塞方式需要不断主动轮询,轮询占据了很大一部分过程,轮询会消耗大量的CPU时间,而 “后台” 可能有多个任务在同时进行,人们就想到了循环查询多个任务的完成状态,只要有任何一个任务完成,就去处理它。如果轮询不是进程的用户态,而是有人帮忙就好了。那么这就是所谓的 “IO 多路复用”。
Linux提供了select/poll,进程通过将一个或多个fd传递给select或poll
系统调用,阻塞在select操作上,这样select/poll可以帮我们侦测多个fd是否处于就绪
状态。select/poll是顺序扫描
fd是否就绪,而且支持的fd数量有限,因此它的使用受到了一些制约。Linux还提供了一个epoll系统调用,epoll使用基于事件驱动方式
代替顺序扫描,因此性能更高。当有fd就绪时,立即回调函数rollback
。
select调用是内核级别的,select轮询相对非阻塞的轮询的区别在于—前者可以等待多个socket,能实现同时对多个IO端口进行监听,当其中任何一个socket的数据准好了,就能返回进行可读,然后进程再进行recvform系统调用,将数据由内核拷贝到用户进程,当然这个过程是阻塞的。select或poll调用之后,会阻塞进程,与blocking IO阻塞不同在于,此时的select不是等到socket数据全部到达再处理, 而是有了一部分数据就会调用用户进程来处理。
④ 信号驱动I/O模型
首先开启套接口信号驱动I/O
功能,并通过系统调用sigaction
执行一个信号处理函数
(此系统调用立即返回,进程继续工作,它是非阻塞的)。当数据准备就绪
时,就为该进程生成一个SIGIO信号,
通过信号回调
通知应用程序调用recvfrom来读取数据,并通知主循环函数
处理数据。
可以这样理解,去饭店吃饭,服务员给你一个点菜器(信号处理函数)就走了,你点好以后在点菜器上点击确定(产生SIGIO信号),回调通知服务员你已经好了,可以上菜了。
⑤ 异步I/O
相对于同步IO,异步IO不是顺序执行。用户进程进行aio_read系统调用之后,无论内核数据是否准备好,都会直接返回给用户进程,然后用户态进程可以去做别的事情。等到socket数据准备好了,内核直接复制数据给进程,然后从内核向进程发送通知。IO两个阶段,进程都是非阻塞的。
Linux提供了AIO库函数实现异步,但是用的很少。目前有很多开源的异步IO库,例如libevent、libev、libuv。
告知内核启动某个操作,并让内核在整个操作完成后(包括将数据从内核复制到用户自己的缓冲区)通知我们
。这种模型与信号驱动模型的主要区别是:信号驱动模型由内核通知我们何时可以开始一个IO操作;异步IO模型由内核通知我们IO操作何时完成。
【2】IO多路复用技术
① IO多路复用
在IO编程过程中,当需要同时处理多个客户端接入请求时,可以利用多线程或者IO多路复用技术进行处理。IO多路复用技术通过把多个IO的阻塞复用到同一个select的阻塞上,从而使得系统在单线程环境下可以同时处理多个客户端请求
。
② IO多路复用优势
与传统的多线程/多进程模型相比,IO多路复用的最大优势是系统开销小,系统不需要创建新的额外进程或者线程,也不需要维护这些进程和线程的运行,降低了系统的维护工作量,节省了系统资源,IO多路复用的应用场景如下:
- 服务器需要同时处理多个处于监听状态或者多个连接状态的套接字;
- 服务器需要同时处理多种网络协议的套接字;
③ epoll的改进
目前支持IO多路复用的系统调用有select、pselect、poll、epoll,在Linux网络编程过程中,很长一段时间都使用select做轮询和网络事件通知,然而select的一些固有缺陷导致了它的应用受到了很大的限制,最终Linux不得不在新的内核版本中寻找select的替代方案,最终选择了epoll。
epoll与select的原理比较类似,为了克服select的缺点,epoll做了很多重大改进,总结如下。
(1)支持一个进程打开的socket描述符(fd)不受限制(仅受限于操作系统的最大文件句柄数)
select最大的缺陷就是单个进程所打开的FD是有一定限制的,它有FD_SETSIZE设置,默认值是1024
。对于那些需要支持上万个TCP连接的大型服务器来说显然太少了。可以选择修改这个宏然后重新编译内核,不过这会带来网络效率的下降。
我们也可以通过选择多进程的方案
(传统的Apache方案解决这个问题),不过虽然在Linux上创建进程的代价比较小,但仍旧是不可忽视的。另外进程间数据交互非常麻烦,对于Java来说,由于没有共享内存,需要通过socket通信或者其他方式进行数据同步,这带来了额外的性能损耗,增加了程序复杂度,所以也不是一种完美的解决方案。
值得庆幸的是,epoll并没有这个限制它所支持的FD上限是操作系统的最大文件句柄数
,这个数字远远大于1024。例如,在1GB内存的机器上大约是10万个句柄左右,具体的值可以通过cat /proc/sys/fs/file-max查看,通常情况下这个值跟系统的内存关系比较大。
(2) IO效率不会随着FD数目的增加而线性下降
传统select/poll的另一个致命弱点是当你拥有一个很大的socket集合时,由于网络延时或者链路空闲,任一时刻只有少部分的socket是“活跃的”
,但是select/poll每次调用都会线性扫描全部的集合
,导致效率呈现线性下降
。
epoll不存在上述问题。它只会对“活跃”的socket进行操作
-这是因为在内核实现中,epoll是根据每个fd上面的callback函数实现的。那么只有“活跃”的socket才会去主动调用callback函数,其他idle状态的socket则不会。在这点上epoll实现了一个伪AIO。
针对epoll和select性能对比的benchmark测试表明:如果所有的socket都处于活跃状态–例如一个高速的LAN环境,epoll并不比select/poll效率高太多;相反,如果过多使用epoll_ctl,效率相比还有稍微地降低。但是一旦使用idle connections模拟WAN环境,epoll的效率就远在select/poll之上了。
(3) 使用mmap加速内核与用户空间的消息传递
无论是select、poll还是epoll都需要内核把FD消息通知给用户空间,如何避免不必要的内存复制就显得非常重要,epoll是通过内核和用户空间mmap同一块内存来实现的。
(4)epoll的api更加简单
包括创建一个epoll描述符、添加监听事件、阻塞等待所监听的事件发生、关闭epoll描述符等。
值得说明的是,用来克服select/poll缺点的方法不只有epoll,epoll只是一种Linux的实现方案。在FreeBSD下有kqueue,而dev/poll是最古老的Solaris的方案,使用难度依次递增。
kqueue是FreeBSD的宠儿,它实际上一个功能相当丰富的kernel事件队列,它不仅仅是select/poll的升级,而且可以处理signal、目录结构变化、进程等多种事件。kqueue是边缘触发的。
/dev/poll
是Solaris的产物,是这一系列高性能API中最早出现的。Kernel提供了一个特殊的设备文件/dev/poll,应用程序打开这个文件得到操作fd_set的句柄,通过写入pollfd来修改它,一个特殊的ioctl调用用来替换select。不过由于出现的年代比较早,所以/dev/poll
的接口实现比较原始。
【3】几个重要概念
① 用户空间与内核空间
现在操作系统都是采用虚拟存储器
,那么对32位操作系统而言,它的寻址空间(虚拟存储空间)为4G(2的32次方)
。操作系统的核心是内核,独立于普通的应用程序,可以访问受保护的内存空间,也有访问底层硬件设备的所有权限。为了保证用户进程不能直接操作内核(kernel),保证内核的安全,操作系统将虚拟空间划分为两部分,一部分为内核空间,一部分为用户空间
。针对linux操作系统而言,将最高的1G字节(从虚拟地址0xC0000000到0xFFFFFFFF)
,供内核使用,称为内核空间
,而将较低的3G字节(从虚拟地址0x00000000到0xBFFFFFFF)
,供各个进程使用,称为用户空间
。
② 进程切换
为了控制进程的执行,内核必须有能力挂起正在CPU上运行的进程,并恢复以前挂起的某个进程的执行。这种行为被称为进程切换。因此可以说,任何进程都是在操作系统内核的支持下运行的,是与内核紧密相关的。
从一个进程的运行转到另一个进程上运行,这个过程中经过下面这些变化:
-
保存处理机上下文,包括程序计数器和其他寄存器。
-
更新PCB信息。
-
把进程的PCB移入相应的队列,如就绪、在某事件阻塞等队列。
-
选择另一个进程执行,并更新其PCB。
-
更新内存管理的数据结构。
-
恢复处理机上下文。
注:总而言之就是很耗资源,具体的可以参考这篇文章:进程切换。
③ 进程的阻塞
正在执行的进程,由于期待的某些事件未发生,如请求系统资源失败、等待某种操作的完成、新数据尚未到达或无新工作做等,则由系统自动执行阻塞原语(Block),使自己由运行状态变为阻塞状态。可见,进程的阻塞是进程自身的一种主动行为,也因此只有处于运行态的进程(获得CPU),才可能将其转为阻塞状态。当进程进入阻塞状态,是不占用CPU资源的
。
④ 文件描述符fd
文件描述符(File descriptor)是计算机科学中的一个术语,是一个用于表述指向文件的引用的抽象化概念
。
文件描述符在形式上是一个非负整数。实际上,它是一个索引值,指向内核为每一个进程所维护的该进程打开文件的记录表
。当程序打开一个现有文件或者创建一个新文件时,内核向进程返回一个文件描述符。在程序设计中,一些涉及底层的程序编写往往会围绕着文件描述符展开。但是文件描述符这一概念往往只适用于UNIX、Linux这样的操作系统。
⑤ 缓存 IO
缓存 IO 又被称作标准 IO,大多数文件系统的默认 IO 操作都是缓存 IO。在 Linux 的缓存 IO 机制中,操作系统会将 IO 的数据缓存在文件系统的页缓存( page cache )中,也就是说,数据会先被拷贝到操作系统内核的缓冲区中,然后才会从操作系统内核的缓冲区拷贝到应用程序的地址空间。
缓存 IO 的缺点:
数据在传输过程中需要在应用程序地址空间和内核进行多次数据拷贝操作,这些数据拷贝操作所带来的 CPU 以及内存开销是非常大的。
参考博文:
聊聊Linux 五种IO模型
最后
以上就是霸气水蜜桃为你收集整理的Linux(UNIX)五种网络I/O模型与IO多路复用的全部内容,希望文章能够帮你解决Linux(UNIX)五种网络I/O模型与IO多路复用所遇到的程序开发问题。
如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。
发表评论 取消回复