1.从根上理解IO等待—案例篇
2.fsIO调度算法之NOOP
3.redis源码解读(一):事件驱动的指标io模型,为什么,源码是指标什么,怎么做
4.Autoware.io源码编译安装
5.这是源码一份很全很全的IO基础知识与概念
6.go源码解析之TCP连接(六)——IO多路复用之事件注册
从根上理解IO等待—案例篇
当系统显示I/O等待指标上升,意味着进程在等待硬件资源响应,指标进入不可中断睡眠状态。源码销售保外呼系统源码在D状态,指标进程无法被任何信号中断,源码即使强制终止也无效。指标使用ps或top命令可见此类进程。源码
不同状态的指标进程如何识别?top和ps工具帮助我们理解。R状态表示运行,源码D状态是指标Disk Sleep的缩写,表示进程处于不可中断睡眠状态,源码常见于等待磁盘I/O。指标Z状态表示进程终止,是僵尸进程,停留在进程表中直到父进程处理。S状态是可中断的睡眠状态,可被信号中断。I状态则是空闲状态,适用于内核线程。
D状态进程导致平均负载升高,I状态则不会。理解这些状态有助于评估系统性能和进程行为。
除了R、D、Z、S、I状态,进程还有T或t状态,表示暂停或跟踪状态,接收到SIGSTOP信号时出现。X状态是Dead状态,表示进程终止且不在top或ps命令输出中。
案例分析:多进程应用中,大量进程处于D状态,僵尸进程增加,I/O等待高。应用在C语言下开发,通过Docker容器模拟环境。ps命令确认应用启动,显示Ss+和D+状态,s表示领导进程,+为前台进程组。top命令显示平均负载升高至CPU个数,僵尸进程持续增加,CPU使用率不高,六大门派 源码但iowait分别为.5%和.6%,用户CPU使用率0.3%。分析后发现,iowait升高与磁盘读请求大相关,应用进程在进行直接磁盘I/O操作。
为了解决iowait问题,首先使用dstat命令查看系统I/O情况,确认问题出在磁盘读操作。使用top命令定位到D状态的可疑进程,再通过pidstat命令获取进程详细信息,发现app进程进行大量磁盘读操作,每秒读取MB数据。使用strace命令跟踪进程系统调用,发现app进程通过sys_read系统调用进行磁盘直接读取,绕过了系统缓存。
为了解决直接读取磁盘的问题,修改应用源代码,删除O_DIRECT选项,避免直接磁盘I/O。运行修改后的代码,iowait降低至0.3%,问题得到解决。但僵尸进程问题依然存在,通过pstree命令找到僵尸进程的父进程,检查其源代码,发现wait函数错误地放在循环外部,导致无法正确回收子进程资源。修复wait函数调用位置,确保每次循环都调用wait函数等待子进程结束。停止应用,重新运行修复后的代码,最终僵尸进程消失,iowait降至0,问题解决。
fsIO调度算法之NOOP
NOOP,全称为No Operation,即电梯式调度算法。在Linux2.4或更早版本的系统中,它是唯一的I/O调度算法。NOOP实现了一个简单的FIFO队列,其运作原理类似于电梯的工作方式,将新来的I/O请求合并到最近的请求之后,从而保证了请求在同一介质上的连续性。NOOP倾向于优先处理写请求,对读请求较为不利。在闪存设备、RAM和嵌入式系统中,macd指标源码mt4NOOP表现最佳。
电梯算法导致读请求“饿死”的原因在于,写请求比读请求更容易处理。写请求通过文件系统缓存,无需等待一次写操作完成即可开始下一次写操作。写请求可以通过合并和堆积在I/O队列中。而读请求需要在前面的所有读操作完成后才能进行下一次读操作。在读操作之间存在几毫秒的等待时间,而在此期间,新的写请求到来,导致后续的读请求“饿死”。
在Linux 3.0版本中,对NOOP调度器进行了优化和改进。
在I/O调度器NOOP中,请求的处理流程如下:
1. 向前合并请求:`noop_merged_requests`。
参考资料:
IO调度器NOOP与deadline源码级分析 - hiyachen - ChinaUnix博客
redis源码解读(一):事件驱动的io模型,为什么,是什么,怎么做
Redis作为一个高性能的内存数据库,因其出色的读写性能和丰富的数据结构支持,已成为互联网应用不可或缺的中间件之一。阅读其源码,可以了解其内部针对高性能和分布式做的种种设计,包括但不限于reactor模型(单线程处理大量网络连接),定时任务的实现(面试常问),分布式CAP BASE理论的实际应用,高效的数据结构的实现,其次还能够通过大神的代码学习C语言的编码风格和技巧,让自己的代码更加优雅。
下面进入正题:为什么需要事件驱动的io模型
我们可以简单地将一个服务端程序拆成三部分,接受请求->处理请求->返回结果,其中接收请求和处理请求便是我们常说的网络io。那么网络io如何实现呢,首先我们介绍最基础的io模型,同步阻塞式io,也是很多同学在学校所学的“网络编程”。
使用同步阻塞式io的单线程服务端程序处理请求大致有以下几个步骤
其中3,4步都有可能使线程阻塞(6也会可能阻塞,这里先不讨论)
在第3步,如果没有客户端请求和服务端建立连接,那么服务端线程将会阻塞。如果redis采用这种io模型,那主线程就无法执行一些定时任务,比如过期key的清理,持久化操作,集群操作等。
在第4步,如果客户端已经建立连接但是方维上门服务 源码没有发送数据,服务端线程会阻塞。若说第3步所提到的定时任务还可以通过多开两个线程来实现,那么第4步的阻塞就是硬伤了,如果一个客户端建立了连接但是一直不发送数据,服务端便会崩溃,无法处理其他任何请求。所以同步阻塞式io肯定是不能满足互联网领域高并发的需求的。
下面给出一个阻塞式io的服务端程序示例:
刚才提到,阻塞式io的主要问题是,调用recv接收客户端请求时会导致线程阻塞,无法处理其他客户端请求。那么我们不难想到,既然调用recv会使线程阻塞,那么我们多开几个几个线程不就好了,让那些没有阻塞的线程去处理其他客户端的请求。
我们将阻塞式io处理请求的步骤改造下:
改造后,我们用一个线程去做accept,也就是获取已经建立的连接,我们称这个线程为主线程。然后获取到的每个连接开一个新的线程去处理,这样就能够将阻塞的部分放到新的线程,达到不阻塞主线程的目的,主线程仍然可以继续接收其他客户端的连接并开新的线程去处理。这个方案对高并发服务器来说是一个可行的方案,此外我们还可以使用线程池等手段来继续优化,减少线程建立和销毁的开销。
将阻塞式io改为多线程io:
我们刚才提到多线程可以解决并发问题,然而redis6.0之前使用的是单线程来处理,之所以用单线程,官方给的答复是redis的瓶颈不在cpu,既然不在cpu那么用单线程可以降低系统的复杂度,避免线程同步等问题。如何在一个线程中非阻塞地处理多个socket,进而实现多个客户端的并发处理呢,那就要借助io多路复用了。
io多路复用是操作系统提供的另一种io机制,这种机制可以实现在一个线程中监控多个socket,返回可读或可写的socket,当一个socket可读或可写时再去操作它,这样就避免了对某个socket的阻塞等待。
将多线程io改为io多路复用:
什么是事件驱动的io模型(Reactor)
这里只讨论redis用到的单线程Reactor模型
事件驱动的io模型并不是一个具体的调用,而是高并发服务器的一种抽象的编程模式。
在Reactor模型中,有三种事件:
与这三种事件对应的,有三种handler,负责处理对应的事件。我们在一个主循环中不断判断是php源码 自定义菜单否有事件到来(一般通过io多路复用获取事件),有事件到来就调用对应的handler去处理时间。
听着玄乎,实际上也就这一张图:
事件驱动的io模型在redis中的实现
以下提及的源码版本为 5.0.8
文字的苍白的,建议参照本文最后的方法下载代码,自己调试下
整体框架
redis-server的main方法在 src/server.c 最后,在main方法中,首先进行一系列的初始化操作,最后进入进入Reactor模型的主循环中:
主循环在aeMain函数中,aeMain函数传入的参数 server.el ,是一个 aeEventLoop 类型的全局变量,保存了主循环的一些状态信息,包括需要处理的读写事件、时间事件列表,epoll相关信息,回调函数等。
aeMain函数中,我们可以看到当 eventLoop->stop 标志位为0时,while循环中的内容会被重复执行,每次循环首先会调用beforesleep回调函数,然后处理时间。beforesleep函数在main函数中被注册,会进行集群状态更新、AOF落盘等任务。
之所以叫beforesleep,是因为aeProcessEvents函数中包含了获取事件和处理事件的逻辑,其中获取读写事件时通过epoll_wait实现,会将线程阻塞。
在aeProcessEvents函数中,处理读写事件和时间事件,参数flags定义了需要处理的事件类型,我们可以暂时忽略这个参数,认为读写时间都需要处理。
aeProcessEvents函数的逻辑可以分为三个部分,首先获取距离最近的时间事件,这一步的目的是为了确定epoll_wait的超时时间,并不是实际处理时间事件。
第二个部分为获取读写事件并处理,首先调用epoll_wait,获取需要处理的读写事件,超时时间为第一步确定的时间,也就是说,如果在超时时间内有读写事件到来,那么处理读写时间,如果没有读写时间就阻塞到下一个时间事件到来,去处理时间事件。
第三个部分为处理时间事件。
事件注册与获取
上面我们讲了整体框架,了解了主循环的大致流程。接下来我们来看其中的细节,首先是读写事件的注册与获取。
redis将读、写、连接事件用结构aeFileEvent表示,因为这些事件都是通过epoll_wait获取的。
事件的具体类型通过mask标志位来区分。aeFileEvent还保存了事件处理的回调函数指针(rfileProc、wfileProc)和需要读写的数据指针(clientData)。
既然读写事件是通过epoll io多路复用实现,那么就避不开epoll的三部曲 epoll_create epoll_ctrl epoll_wait,接下来我们看下redis对epoll接口的封装。
我们之前提到aeMain函数的参数是一个 aeEventLoop 类型的全局变量,aeEventLoop中保存了epoll文件描述符和epoll事件。在aeApiCreate函数(src/ae_epoll.c)中,会调用epoll_create来创建初始化epoll文件描述符和epoll事件,调用关系为 main -> initServer -> aeCreateEventLoop -> aeApiCreate
调用epoll_create创建epoll后,就可以添加需要监控的文件描述符了,需要监控的情形有三个,一是监控新的客户端连接连接请求,二是监控客户端发送指令,也就是读事件,三是监控客户端写事件,也就是处理完了请求写回结果。
这三种情形在redis中被抽象为文件事件,文件事件通过函数aeCreateFileEvent(src/ae.c)添加,添加一个文件事件主要包含三个步骤,通过epoll_ctl添加监控的文件描述符,指定回调函数和指定读写缓冲区。
最后是通过epoll_wait来获取事件,上文我们提到,在每次主循环中,首先根据最近到达的时间事件来计算epoll_wait的超时时间,然后调用epoll_wait获取事件,再处理事件,其中获取事件在函数aeApiPoll(src/ae_epoll.c)中。
获取到事件后,主循环中会逐个调用事件的回调函数来处理事件。
读写事件的实现
写累了,有空补上……
如何使用vscode调试redis源码
编译出二进制程序
这一步有可能报错:
jemalloc是内存分配的一种更高效的实现,用于代替libc的默认实现。这里报错找不到jemalloc,我们只需要将其替换成libc默认实现就好:
如果报错:
我们可以在src目录找到一个脚本名为mkreleasehdr.sh,其中包含创建release.h的逻辑,将报错信息网上翻可以发现有一行:
看来是这个脚本没有执行权限,导致release.h没有成功创建,我们需要给这个脚本添加执行权限然后重新编译:
2. 创建调试配置(vscode)
创建文件 .vscode/launch.json,并填入以下内容:
然后就可以进入调试页面打断点调试了,main函数在 src/server.c
Autoware.io源码编译安装
要编译安装Autoware.io,首先请确保已安装ROS1,如Ubuntu .版本的Melodic。以下步骤将指导你完成依赖安装及源码编译过程。安装依赖
1. 对于CUDA的支持(可选但建议),你需要下载CUDA .0,链接位于developer.nvidia.com/cuda。安装时,遇到驱动安装询问时选择n,后续步骤默认安装即可。 2. 安装cudnn,从developer.nvidia.com/rd...获取并进行安装。在cuda目录下进行软链接配置,并通过验证测试。其他依赖安装
3. 安装eigen3.3.7,接着是opencv3,安装时需先安装依赖库,然后解压、配置和编译。源码下载与编译
4. 创建新的工作区,下载并配置工作区,然后下载Autoware.ai源码。 5. 使用rosdep安装依赖库,有CUDA版本和无CUDA版本两种编译方式。测试与问题解决
6. 下载并运行demo,可能遇到的问题包括编译错误和链接问题。问题1:calibration_publisher报错,需修改CMakeList.txt文件。
问题2:ndt_gpu编译错误,需替换Eigen3Config.cmake文件中的版本信息。
问题3:opencv链接问题,需要检查和调整。
问题4:rosdep更新慢,可通过修改源码和配置文件解决。
问题5:runtime manager花屏,需安装wxPython 4.和libsdl1.2-dev。
通过上述步骤,你应该能够成功编译并测试Autoware.io。如有任何疑问,查阅官方文档或社区论坛寻求帮助。这是一份很全很全的IO基础知识与概念
在操作系统的核心领域,输入/输出(IO)扮演着至关重要的角色,它主要分为磁盘IO和网络IO两个模块,两者在用户空间和内核空间之间穿梭,确保数据传输的高效与稳定。让我们深入探讨一下这两个关键概念。 首先,IO操作涉及数据在用户空间和内核空间之间的传输,这种切换往往伴随着数据拷贝。读取操作中,内核会检查缓冲区,可能直接读取数据,或者在数据未就绪时等待。相比之下,写入操作则从用户空间拷贝数据到内核空间,由操作系统决定何时执行磁盘或网络写入。这种内核与用户空间的隔离,是系统稳定性的基石。 代码示例生动地展示了这种切换:在用户空间执行的赋值操作,一旦涉及到文件写入,就会切换到内核空间。系统调用(如写文件)、异常处理(如缺页)和设备中断是用户态转内核态的常见途径。通过命令行工具top,我们可以实时监控CPU的使用情况,理解任务的运行状态。 CPU时间分配方面,理想状态是大部分时间处于空闲(idle),而用户空间和内核空间的运行时间则相对较少。例如,7.%的CPU用于用户空间处理,7.0%用于内核空间,其余大部分时间则在等待任务。 在数据传输方式上,PIO和DMA各有利弊。PIO需要CPU频繁介入,效率相对较低,而DMA则允许CPU在数据传输时处理其他任务,降低了CPU的负担。DMA的工作流程包括用户进程请求、操作系统调度、DMA读取数据至内核缓冲区,最后由CPU将数据复制到用户空间。 在数据复制的过程中,DMA负责内核缓冲区到磁盘或网络设备的传输,而用户空间与内核空间之间的操作则主要由CPU处理。尽管PIO模式在现代系统中已不太常见,理解这些细节对于优化IO性能至关重要。 缓冲IO和直接IO是两种常见的数据传输策略。缓冲IO通过在内核和用户空间之间设置缓冲区,提升性能,但会增加CPU和内存消耗。而直接IO则跳过内核缓冲,减少数据拷贝,但可能影响性能,尤其在数据不在缓存时。零拷贝IO技术则试图在两者之间找到平衡,减少不必要的拷贝和进程切换,显著提高效率。 在实际应用中,Apache和Kafka等工具采用零拷贝技术,如sendfile()接口,通过文件描述符和socket操作,实现高效的数据传输。同时,理解同步/异步和阻塞/非阻塞的概念也对网络编程至关重要。同步操作会阻塞等待结果,而非阻塞则会立即返回,如看病和看手机的场景。异步操作允许任务并行进行,提升系统响应速度。 总的来说,掌握IO操作、其背后的原理以及同步/异步、阻塞/非阻塞的概念,是构建高效网络服务的基础。深入研究操作系统对IO的优化策略,将有助于我们理解高性能服务器的运作机制。如果你对此领域感兴趣,可以参考以下文章来进一步深化理解: 嵌入式开发进阶:腾讯首发Linux内核源码 嵌入式转内核开发经验分享 通过这些资源,你将能够更好地把握IO操作的精髓,为你的编程实践增添更强的实战能力。go源码解析之TCP连接(六)——IO多路复用之事件注册
在探讨go源码解析之TCP连接(六)——IO多路复用之事件注册这一主题时,我们首先需要理解IO多路复用的基本概念及其在go语言中的实现方式。通常,我们通过系统函数如select、poll、epoll等来实现多路复用,尤其是在Linux操作系统下运行的网络应用程序中。对于直接使用C或C++进行网络程序编写的场景,这种方法较为常见。在这些场景下,应用程序可能在循环中执行epoll wait以等待可读事件,之后将读取网络数据的任务分配给一组线程完成。
然而,在go语言中,情况有所不同。go语言有自己的运行时环境,使用的是轻量级的协程而非传统的线程。这意味着在实现TCP服务器时,go语言能够通过将协程与epoll结合起来,有效地实现IO多路复用。这种结合使得go应用程序在处理网络连接时,能够以更高效的方式响应事件,避免阻塞单个协程。
在实现一个TCP server时,我们通常会为每个连接启动一个协程,这些协程负责循环读取连接中的数据并执行业务逻辑。在go语言中,当使用epoll实现IO多路复用时,其流程包括以下几个关键步骤:
1. **初始化epoll**:在go应用程序中,首先需要初始化epoll实例,以便于监控和响应各种事件。
2. **事件注册**:将新连接的socket加入epoll中,这一步骤类似于将文件描述符与epoll实例关联起来,以便在特定事件发生时接收通知。
3. **事件检测与处理**:在应用程序的主循环中,利用epoll wait检测到可读或可写事件后,根据事件类型执行相应的处理逻辑,如读取数据或写入数据,以及后续的业务逻辑处理。
4. **协程调度与唤醒**:当网络数据可读时,epoll会将事件通知到相应的协程。在go中,协程通过被挂起等待网络数据的到来,当数据可读时,epoll通过调用协程的等待函数(如fd.pd.waitRead),将协程从挂起状态唤醒,从而继续执行读取操作或其他业务逻辑。
通过这一系列过程,go语言成功地将协程与epoll结合,实现了高效的IO多路复用。这种方法不仅提高了并发性能,还简化了网络应用程序的实现,使得go语言在构建高性能、高并发的网络服务时具有显著优势。
总结而言,go语言通过巧妙地将协程与内核级别的IO多路复用技术(如epoll)整合在一起,实现了高效、灵活的网络编程模型。这一设计使得go语言在处理并发网络请求时,能够保持高性能和高响应性,是其在现代网络服务开发中脱颖而出的重要原因之一。