ThinkChat2.0新版上线,更智能更精彩,支持会话、画图、阅读、搜索等,送10W Token,即刻开启你的AI之旅 广告
### 概述       在前面的文章中《[Nginx 事件模块](http://blog.csdn.net/chenhanzhun/article/details/42805757)》介绍了Nginx 的事件驱动框架以及不同类型事件驱动模块的管理。本节基于前面的知识,简单介绍下在Linux 系统下的 epoll 事件驱动模块。关于 epoll 的使用与原理可以参照文章 《[epoll 解析](http://blog.csdn.net/chenhanzhun/article/details/42747127)》。在这里直接介绍Nginx 服务器基于事件驱动框架实现的epoll 事件驱动模块。 ### ngx_epoll_module 事件驱动模块 ### ngx_epoll_conf_t 结构体      ngx_epoll_conf_t 结构体是保存ngx_epoll_module 事件驱动模块的配置项结构。该结构体在文件[src/event/modules/ngx_epoll_module.c](http://lxr.nginx.org/source/src/event/modules/ngx_epoll_module.c) 中定义: ~~~ /* 存储epoll模块配置项结构体 */ typedef struct { ngx_uint_t events; /* 表示epoll_wait函数返回的最大事件数 */ ngx_uint_t aio_requests; /* 并发处理异步IO事件个数 */ } ngx_epoll_conf_t; ~~~ ### ngx_epoll_module 事件驱动模块的定义       所有模块的定义都是基于模块通用接口 ngx_module_t 结构,ngx_epoll_module 模块在文件[src/event/modules/ngx_epoll_module.c](http://lxr.nginx.org/source/src/event/modules/ngx_epoll_module.c) 中定义如下: ~~~ /* epoll模块定义 */ ngx_module_t ngx_epoll_module = { NGX_MODULE_V1, &ngx_epoll_module_ctx, /* module context */ ngx_epoll_commands, /* module directives */ NGX_EVENT_MODULE, /* module type */ NULL, /* init master */ NULL, /* init module */ NULL, /* init process */ NULL, /* init thread */ NULL, /* exit thread */ NULL, /* exit process */ NULL, /* exit master */ NGX_MODULE_V1_PADDING }; ~~~       在 ngx_epoll_module 模块的定义中,其中定义了该模块感兴趣的配置项ngx_epoll_commands 数组,该配置项数组在文件[src/event/modules/ngx_epoll_module.c](http://lxr.nginx.org/source/src/event/modules/ngx_epoll_module.c) 中定义: ~~~ /* 定义epoll模块感兴趣的配置项结构数组 */ static ngx_command_t ngx_epoll_commands[] = { /* * epoll_events配置项表示epoll_wait函数每次返回的最多事件数(即第3个参数), * 在ngx_epoll_init函数中会预分配epoll_events配置项指定的epoll_event结构体; */ { ngx_string("epoll_events"), NGX_EVENT_CONF|NGX_CONF_TAKE1, ngx_conf_set_num_slot, 0, offsetof(ngx_epoll_conf_t, events), NULL }, /* * 该配置项表示创建的异步IO上下文能并发处理异步IO事件的个数, * 即io_setup函数的第一个参数; */ { ngx_string("worker_aio_requests"), NGX_EVENT_CONF|NGX_CONF_TAKE1, ngx_conf_set_num_slot, 0, offsetof(ngx_epoll_conf_t, aio_requests), NULL }, ngx_null_command }; ~~~       在 ngx_epoll_module 模块的定义中,定义了该模块的上下文结构ngx_epoll_module_ctx,该上下文结构是基于事件模块的通用接口ngx_event_module_t 结构来定义的。该上下文结构在文件[src/event/modules/ngx_epoll_module.c](http://lxr.nginx.org/source/src/event/modules/ngx_epoll_module.c) 中定义: ~~~ /* 由事件模块通用接口ngx_event_module_t定义的epoll模块上下文结构 */ ngx_event_module_t ngx_epoll_module_ctx = { &epoll_name, ngx_epoll_create_conf, /* create configuration */ ngx_epoll_init_conf, /* init configuration */ { ngx_epoll_add_event, /* add an event */ ngx_epoll_del_event, /* delete an event */ ngx_epoll_add_event, /* enable an event */ ngx_epoll_del_event, /* disable an event */ ngx_epoll_add_connection, /* add an connection */ ngx_epoll_del_connection, /* delete an connection */ NULL, /* process the changes */ ngx_epoll_process_events, /* process the events */ ngx_epoll_init, /* init the events */ ngx_epoll_done, /* done the events */ } }; ~~~       在 ngx_epoll_module 模块的上下文事件接口结构中,重点定义了ngx_event_actions_t 结构中的接口回调方法。 ### ngx_epoll_module 事件驱动模块的操作       ngx_epoll_module 模块的操作由ngx_epoll_module 模块的上下文事件接口结构中成员actions 实现。该成员实现的方法如下所示: ~~~ ngx_epoll_add_event, /* add an event */ ngx_epoll_del_event, /* delete an event */ ngx_epoll_add_event, /* enable an event */ ngx_epoll_del_event, /* disable an event */ ngx_epoll_add_connection, /* add an connection */ ngx_epoll_del_connection, /* delete an connection */ NULL, /* process the changes */ ngx_epoll_process_events, /* process the events */ ngx_epoll_init, /* init the events */ ngx_epoll_done, /* done the events */ ~~~ #### ngx_epoll_module 模块的初始化       ngx_epoll_module 模块的初始化由函数ngx_epoll_init 实现。该函数主要做了两件事:创建epoll 对象 和 创建 event_list 数组(调用epoll_wait 函数时用于存储从内核复制的已就绪的事件);该函数在文件[src/event/modules/ngx_epoll_module.c](http://lxr.nginx.org/source/src/event/modules/ngx_epoll_module.c) 中定义: ~~~ static int ep = -1; /* epoll对象描述符 */ static struct epoll_event *event_list; /* 作为epoll_wait函数的第二个参数,保存从内存复制的事件 */ static ngx_uint_t nevents; /* epoll_wait函数返回的最多事件数 */ /* epoll模块初始化函数 */ static ngx_int_t ngx_epoll_init(ngx_cycle_t *cycle, ngx_msec_t timer) { ngx_epoll_conf_t *epcf; /* 获取ngx_epoll_module模块的配置项结构 */ epcf = ngx_event_get_conf(cycle->conf_ctx, ngx_epoll_module); if (ep == -1) { /* 调用epoll_create函数创建epoll对象描述符 */ ep = epoll_create(cycle->connection_n / 2); /* 若创建失败,则出错返回 */ if (ep == -1) { ngx_log_error(NGX_LOG_EMERG, cycle->log, ngx_errno, "epoll_create() failed"); return NGX_ERROR; } #if (NGX_HAVE_FILE_AIO) /* 若系统支持异步IO,则初始化异步IO */ ngx_epoll_aio_init(cycle, epcf); #endif } /* * 预分配events个epoll_event结构event_list,event_list是存储产生事件的数组; * events由epoll_events配置项指定; */ if (nevents < epcf->events) { /* * 若现有event_list个数小于配置项所指定的值epcf->events, * 则先释放,再从新分配; */ if (event_list) { ngx_free(event_list); } /* 预分配epcf->events个epoll_event结构,并使event_list指向该地址 */ event_list = ngx_alloc(sizeof(struct epoll_event) * epcf->events, cycle->log); if (event_list == NULL) { return NGX_ERROR; } } /* 设置正确的epoll_event结构个数 */ nevents = epcf->events; /* 指定IO的读写方法 */ /* * 初始化全局变量ngx_io, ngx_os_io定义为: ngx_os_io_t ngx_os_io = { ngx_unix_recv, ngx_readv_chain, ngx_udp_unix_recv, ngx_unix_send, ngx_writev_chain, 0 };(位于src/os/unix/ngx_posix_init.c) */ ngx_io = ngx_os_io; /* 设置ngx_event_actions 接口 */ ngx_event_actions = ngx_epoll_module_ctx.actions; #if (NGX_HAVE_CLEAR_EVENT) /* ET模式 */ ngx_event_flags = NGX_USE_CLEAR_EVENT #else /* LT模式 */ ngx_event_flags = NGX_USE_LEVEL_EVENT #endif |NGX_USE_GREEDY_EVENT |NGX_USE_EPOLL_EVENT; return NGX_OK; } ~~~ #### ngx_epoll_module 模块的事件处理       ngx_epoll_module 模块的事件处理由函数ngx_epoll_process_events 实现。ngx_epoll_process_events 函数是实现事件收集、事件发送的接口。该函数在文件[src/event/modules/ngx_epoll_module.c](http://lxr.nginx.org/source/src/event/modules/ngx_epoll_module.c) 中定义: ~~~ /* 处理已准备就绪的事件 */ static ngx_int_t ngx_epoll_process_events(ngx_cycle_t *cycle, ngx_msec_t timer, ngx_uint_t flags) { int events; uint32_t revents; ngx_int_t instance, i; ngx_uint_t level; ngx_err_t err; ngx_event_t *rev, *wev, **queue; ngx_connection_t *c; /* NGX_TIMER_INFINITE == INFTIM */ ngx_log_debug1(NGX_LOG_DEBUG_EVENT, cycle->log, 0, "epoll timer: %M", timer); /* 调用epoll_wait在规定的timer时间内等待监控的事件准备就绪 */ events = epoll_wait(ep, event_list, (int) nevents, timer); /* 若出错,设置错误编码 */ err = (events == -1) ? ngx_errno : 0; /* * 若没有设置timer_resolution配置项时, * NGX_UPDATE_TIME 标志表示每次调用epoll_wait函数返回后需要更新时间; * 若设置timer_resolution配置项, * 则每隔timer_resolution配置项参数会设置ngx_event_timer_alarm为1,表示需要更新时间; */ if (flags & NGX_UPDATE_TIME || ngx_event_timer_alarm) { /* 更新时间,将时间缓存到一组全局变量中,方便程序高效获取事件 */ ngx_time_update(); } /* 处理epoll_wait的错误 */ if (err) { if (err == NGX_EINTR) { if (ngx_event_timer_alarm) { ngx_event_timer_alarm = 0; return NGX_OK; } level = NGX_LOG_INFO; } else { level = NGX_LOG_ALERT; } ngx_log_error(level, cycle->log, err, "epoll_wait() failed"); return NGX_ERROR; } /* * 若epoll_wait返回的事件数events为0,则有两种可能: * 1、超时返回,即时间超过timer; * 2、在限定的timer时间内返回,此时表示出错error返回; */ if (events == 0) { if (timer != NGX_TIMER_INFINITE) { return NGX_OK; } ngx_log_error(NGX_LOG_ALERT, cycle->log, 0, "epoll_wait() returned no events without timeout"); return NGX_ERROR; } /* 仅在多线程环境下有效 */ ngx_mutex_lock(ngx_posted_events_mutex); /* 遍历由epoll_wait返回的所有已准备就绪的事件,并处理这些事件 */ for (i = 0; i < events; i++) { /* * 获取与事件关联的连接对象; * 连接对象地址的最低位保存的是添加事件时设置的事件过期标志位; */ c = event_list[i].data.ptr; /* 获取事件过期标志位,即连接对象地址的最低位 */ instance = (uintptr_t) c & 1; /* 屏蔽连接对象的最低位,即获取连接对象的真正地址 */ c = (ngx_connection_t *) ((uintptr_t) c & (uintptr_t) ~1); /* 获取读事件 */ rev = c->read; /* * 同一连接的读写事件的instance标志位是相同的; * 若fd描述符为-1,或连接对象读事件的instance标志位不相同,则判为过期事件; */ if (c->fd == -1 || rev->instance != instance) { /* * the stale event from a file descriptor * that was just closed in this iteration */ ngx_log_debug1(NGX_LOG_DEBUG_EVENT, cycle->log, 0, "epoll: stale event %p", c); continue; } /* 获取连接对象中已准备就绪的事件类型 */ revents = event_list[i].events; ngx_log_debug3(NGX_LOG_DEBUG_EVENT, cycle->log, 0, "epoll: fd:%d ev:%04XD d:%p", c->fd, revents, event_list[i].data.ptr); /* 记录epoll_wait的错误返回状态 */ /* * EPOLLERR表示连接出错;EPOLLHUP表示收到RST报文; * 检测到上面这两种错误时,TCP连接中可能存在未读取的数据; */ if (revents & (EPOLLERR|EPOLLHUP)) { ngx_log_debug2(NGX_LOG_DEBUG_EVENT, cycle->log, 0, "epoll_wait() error on fd:%d ev:%04XD", c->fd, revents); } #if 0 if (revents & ~(EPOLLIN|EPOLLOUT|EPOLLERR|EPOLLHUP)) { ngx_log_error(NGX_LOG_ALERT, cycle->log, 0, "strange epoll_wait() events fd:%d ev:%04XD", c->fd, revents); } #endif /* * 若连接发生错误且未设置EPOLLIN、EPOLLOUT, * 则将EPOLLIN、EPOLLOUT添加到revents中; * 即在调用读写事件时能够处理连接的错误; */ if ((revents & (EPOLLERR|EPOLLHUP)) && (revents & (EPOLLIN|EPOLLOUT)) == 0) { /* * if the error events were returned without EPOLLIN or EPOLLOUT, * then add these flags to handle the events at least in one * active handler */ revents |= EPOLLIN|EPOLLOUT; } /* 连接有可读事件,且该读事件是active活跃的 */ if ((revents & EPOLLIN) && rev->active) { #if (NGX_HAVE_EPOLLRDHUP) /* EPOLLRDHUP表示连接对端关闭了读取端 */ if (revents & EPOLLRDHUP) { rev->pending_eof = 1; } #endif if ((flags & NGX_POST_THREAD_EVENTS) && !rev->accept) { rev->posted_ready = 1; } else { /* 读事件已准备就绪 */ /* * 这里要区分active与ready: * active是指事件被添加到epoll对象的监控中, * 而ready表示被监控的事件已经准备就绪,即可以对其进程IO处理; */ rev->ready = 1; } /* * NGX_POST_EVENTS表示已准备就绪的事件需要延迟处理, * 根据accept标志位将事件加入到相应的队列中; */ if (flags & NGX_POST_EVENTS) { queue = (ngx_event_t **) (rev->accept ? &ngx_posted_accept_events : &ngx_posted_events); ngx_locked_post_event(rev, queue); } else { /* 若不延迟处理,则直接调用事件的处理函数 */ rev->handler(rev); } } /* 获取连接的写事件,写事件的处理逻辑过程与读事件类似 */ wev = c->write; /* 连接有可写事件,且该写事件是active活跃的 */ if ((revents & EPOLLOUT) && wev->active) { /* 检查写事件是否过期 */ if (c->fd == -1 || wev->instance != instance) { /* * the stale event from a file descriptor * that was just closed in this iteration */ ngx_log_debug1(NGX_LOG_DEBUG_EVENT, cycle->log, 0, "epoll: stale event %p", c); continue; } if (flags & NGX_POST_THREAD_EVENTS) { wev->posted_ready = 1; } else { /* 写事件已准备就绪 */ wev->ready = 1; } /* * NGX_POST_EVENTS表示已准备就绪的事件需要延迟处理, * 根据accept标志位将事件加入到相应的队列中; */ if (flags & NGX_POST_EVENTS) { ngx_locked_post_event(wev, &ngx_posted_events); } else { /* 若不延迟处理,则直接调用事件的处理函数 */ wev->handler(wev); } } } ngx_mutex_unlock(ngx_posted_events_mutex); return NGX_OK; } ~~~ #### ngx_epoll_module 模块的事件添加与删除       ngx_epoll_module 模块的事件添加与删除分别由函数ngx_epoll_add_event 与ngx_epoll_del_event 实现。这两个函数的实现都是通过调用epoll_ctl 函数。具体实现在文件 [src/event/modules/ngx_epoll_module.c](http://lxr.nginx.org/source/src/event/modules/ngx_epoll_module.c) 中定义: ~~~ /* 将某个描述符的某个事件添加到epoll对象的监控机制中 */ static ngx_int_t ngx_epoll_add_event(ngx_event_t *ev, ngx_int_t event, ngx_uint_t flags) { int op; uint32_t events, prev; ngx_event_t *e; ngx_connection_t *c; struct epoll_event ee; /* 每个事件的data成员都存放着其对应的ngx_connection_t连接 */ /* 获取事件关联的连接 */ c = ev->data; /* events参数是方便下面确定当前事件是可读还是可写 */ events = (uint32_t) event; /* * 这里在判断事件类型是可读还是可写,必须根据事件的active标志位来判断事件是否活跃; * 因为epoll_ctl函数有添加add和修改mod模式, * 若一个事件所关联的连接已经在epoll对象的监控中,则只需修改事件的类型即可; * 若一个事件所关联的连接没有在epoll对象的监控中,则需要将其相应的事件类型注册到epoll对象中; * 这样做的情况是避免与事件相关联的连接两次注册到epoll对象中; */ if (event == NGX_READ_EVENT) { /* * 若待添加的事件类型event是可读; * 则首先判断该事件所关联的连接是否将写事件添加到epoll对象中, * 即先判断关联的连接的写事件是否为活跃事件; */ e = c->write; prev = EPOLLOUT; #if (NGX_READ_EVENT != EPOLLIN|EPOLLRDHUP) events = EPOLLIN|EPOLLRDHUP; #endif } else { e = c->read; prev = EPOLLIN|EPOLLRDHUP; #if (NGX_WRITE_EVENT != EPOLLOUT) events = EPOLLOUT; #endif } /* 根据active标志位确定事件是否为活跃事件,以决定到达是修改还是添加事件 */ if (e->active) { /* 若当前事件是活跃事件,则只需修改其事件类型即可 */ op = EPOLL_CTL_MOD; events |= prev; } else { /* 若当前事件不是活跃事件,则将该事件添加到epoll对象中 */ op = EPOLL_CTL_ADD; } /* 将flags参数加入到events标志位中 */ ee.events = events | (uint32_t) flags; /* prt存储事件关联的连接对象ngx_connection_t以及过期事件instance标志位 */ ee.data.ptr = (void *) ((uintptr_t) c | ev->instance); ngx_log_debug3(NGX_LOG_DEBUG_EVENT, ev->log, 0, "epoll add event: fd:%d op:%d ev:%08XD", c->fd, op, ee.events); /* 调用epoll_ctl方法向epoll对象添加事件或在epoll对象中修改事件 */ if (epoll_ctl(ep, op, c->fd, &ee) == -1) { ngx_log_error(NGX_LOG_ALERT, ev->log, ngx_errno, "epoll_ctl(%d, %d) failed", op, c->fd); return NGX_ERROR; } /* 将该事件的active标志位设置为1,表示当前事件是活跃事件 */ ev->active = 1; #if 0 ev->oneshot = (flags & NGX_ONESHOT_EVENT) ? 1 : 0; #endif return NGX_OK; } /* 将某个连接的某个事件从epoll对象监控中删除 */ static ngx_int_t ngx_epoll_del_event(ngx_event_t *ev, ngx_int_t event, ngx_uint_t flags) { int op; uint32_t prev; ngx_event_t *e; ngx_connection_t *c; struct epoll_event ee; /* * when the file descriptor is closed, the epoll automatically deletes * it from its queue, so we do not need to delete explicitly the event * before the closing the file descriptor */ /* 当事件关联的文件描述符关闭后,epoll对象自动将其事件删除 */ if (flags & NGX_CLOSE_EVENT) { ev->active = 0; return NGX_OK; } /* 获取事件关联的连接对象 */ c = ev->data; /* 根据event参数判断当前删除的是读事件还是写事件 */ if (event == NGX_READ_EVENT) { /* 若要删除读事件,则首先判断写事件的active标志位 */ e = c->write; prev = EPOLLOUT; } else { /* 若要删除写事件,则判断读事件的active标志位 */ e = c->read; prev = EPOLLIN|EPOLLRDHUP; } /* * 若要删除读事件,且写事件是活跃事件,则修改事件类型即可; * 若要删除写事件,且读事件是活跃事件,则修改事件类型即可; */ if (e->active) { op = EPOLL_CTL_MOD; ee.events = prev | (uint32_t) flags; ee.data.ptr = (void *) ((uintptr_t) c | ev->instance); } else { /* 若读写事件都不是活跃事件,此时表示事件未准备就绪,则将其删除 */ op = EPOLL_CTL_DEL; ee.events = 0; ee.data.ptr = NULL; } ngx_log_debug3(NGX_LOG_DEBUG_EVENT, ev->log, 0, "epoll del event: fd:%d op:%d ev:%08XD", c->fd, op, ee.events); /* 删除或修改事件 */ if (epoll_ctl(ep, op, c->fd, &ee) == -1) { ngx_log_error(NGX_LOG_ALERT, ev->log, ngx_errno, "epoll_ctl(%d, %d) failed", op, c->fd); return NGX_ERROR; } /* 设置当前事件的active标志位 */ ev->active = 0; return NGX_OK; } ~~~ #### ngx_epoll_module 模块的连接添加与删除       ngx_epoll_module 模块的连接添加与删除分别由函数ngx_epoll_add_connection 与ngx_epoll_del_connection 实现。这两个函数的实现都是通过调用epoll_ctl 函数。具体实现在文件 [src/event/modules/ngx_epoll_module.c](http://lxr.nginx.org/source/src/event/modules/ngx_epoll_module.c) 中定义: ~~~ /* 将指定连接所关联的描述符添加到epoll对象中 */ static ngx_int_t ngx_epoll_add_connection(ngx_connection_t *c) { struct epoll_event ee; /* 设置事件的类型:可读、可写、ET模式 */ ee.events = EPOLLIN|EPOLLOUT|EPOLLET|EPOLLRDHUP; ee.data.ptr = (void *) ((uintptr_t) c | c->read->instance); ngx_log_debug2(NGX_LOG_DEBUG_EVENT, c->log, 0, "epoll add connection: fd:%d ev:%08XD", c->fd, ee.events); /* 调用epoll_ctl方法将连接所关联的描述符添加到epoll对象中 */ if (epoll_ctl(ep, EPOLL_CTL_ADD, c->fd, &ee) == -1) { ngx_log_error(NGX_LOG_ALERT, c->log, ngx_errno, "epoll_ctl(EPOLL_CTL_ADD, %d) failed", c->fd); return NGX_ERROR; } /* 设置读写事件的active标志位 */ c->read->active = 1; c->write->active = 1; return NGX_OK; } Nginx /* 将连接所关联的描述符从epoll对象中删除 */ static ngx_int_t ngx_epoll_del_connection(ngx_connection_t *c, ngx_uint_t flags) { int op; struct epoll_event ee; /* * when the file descriptor is closed the epoll automatically deletes * it from its queue so we do not need to delete explicitly the event * before the closing the file descriptor */ if (flags & NGX_CLOSE_EVENT) { c->read->active = 0; c->write->active = 0; return NGX_OK; } ngx_log_debug1(NGX_LOG_DEBUG_EVENTNginx, c->log, 0, "epoll del connection: fd:%d", c->fd); op = EPOLL_CTL_DEL; ee.events = 0; ee.data.ptr = NULL; /* 调用epoll_ctl方法将描述符从epoll对象中删除 */ if (epoll_ctl(ep, op, c->fd, &ee) == -1) { ngx_log_error(NGX_LOG_ALERT, c->log, ngx_errno, "epoll_ctl(%d, %d) failed", op, c->fd); return NGX_ERROR; } /* 设置描述符读写事件的active标志位 */ c->read->active = 0; c->write->active = 0; return NGX_OK; } ~~~ ### ngx_epoll_module 模块的异步 I/O       在 Nginx 中,文件异步 I/O 事件完成后的通知是集成到 epoll 对象中。该模块的文件异步I/O 实现如下: ~~~ #if (NGX_HAVE_FILE_AIO) int ngx_eventfd = -1; /* 用于通知异步IO的事件描述符 */ aio_context_t ngx_aio_ctx = 0; /* 异步IO的上下文结构,由io_setup 函数初始化 */ static ngx_event_t ngx_eventfd_event; /* 异步IO事件 */ static ngx_connection_t ngx_eventfd_conn; /* 异步IO事件所对应的连接ngx_connection_t */ #endif #if (NGX_HAVE_FILE_AIO) /* * We call io_setup(), io_destroy() io_submit(), and io_getevents() directly * as syscalls instead of libaio usage, because the library header file * supports eventfd() since 0.3.107 version only. * * Also we do not use eventfd() in glibc, because glibc supports it * since 2.8 version and glibc maps two syscalls eventfd() and eventfd2() * into single eventfd() function with different number of parameters. */ /* 初始化文件异步IO的上下文结构 */ static int io_setup(u_int nr_reqs, aio_context_t *ctx) { return syscall(SYS_io_setup, nr_reqs, ctx); } /* 销毁文件异步IO的上下文结构 */ static int io_destroy(aio_context_t ctx) { return syscall(SYS_io_destroy, ctx); } /* 从文件异步IO操作队列中读取操作 */ static int io_getevents(aio_context_t ctx, long min_nr, long nr, struct io_event *events, struct timespec *tmo) { return syscall(SYS_io_getevents, ctx, min_nr, nr, events, tmo); } /* 异步IO的初始化 */ static void ngx_epoll_aio_init(ngx_cycle_t *cycle, ngx_epoll_conf_t *epcf) { int n; struct epoll_event ee; /* 使用Linux系统调用获取一个描述符句柄 */ ngx_eventfd = syscall(SYS_eventfd, 0); if (ngx_eventfd == -1) { ngx_log_error(NGX_LOG_EMERG, cycle->log, ngx_errno, "eventfd() failed"); ngx_file_aio = 0; return; } ngx_log_debug1(NGX_LOG_DEBUG_EVENT, cycle->log, 0, "eventfd: %d", ngx_eventfd); n = 1; /* 设置ngx_eventfd描述符句柄为非阻塞IO模式 */ if (ioctl(ngx_eventfd, FIONBIO, &n) == -1) { ngx_log_error(NGX_LOG_EMERG, cycle->log, ngx_errno, "ioctl(eventfd, FIONBIO) failed"); goto failed; } /* 初始化文件异步IO的上下文结构 */ if (io_setup(epcf->aio_requests, &ngx_aio_ctx) == -1) { ngx_log_error(NGX_LOG_EMERG, cycle->log, ngx_errno, "io_setup() failed"); goto failed; } /* 设置异步IO事件ngx_eventfd_event,该事件是ngx_eventfd对应的ngx_event事件 */ /* 用于异步IO完成通知的ngx_eventfd_event事件,它与ngx_eventfd_conn连接对应 */ ngx_eventfd_event.data = &ngx_eventfd_conn; /* 在异步IO事件完成后,调用ngx_epoll_eventfd_handler处理方法 */ ngx_eventfd_event.handler = ngx_epoll_eventfd_handler; /* 设置事件相应的日志 */ ngx_eventfd_event.log = cycle->log; /* 设置active标志位 */ ngx_eventfd_event.active = 1; /* 初始化ngx_eventfd_conn 连接 */ ngx_eventfd_conn.fd = ngx_eventfd; /* ngx_eventfd_conn连接的读事件就是ngx_eventfd_event事件 */ ngx_eventfd_conn.read = &ngx_eventfd_event; /* 设置连接的相应日志 */ ngx_eventfd_conn.log = cycle->log; ee.events = EPOLLIN|EPOLLET; ee.data.ptr = &ngx_eventfd_conn; /* 向epoll对象添加异步IO通知描述符ngx_eventfd */ if (epoll_ctl(ep, EPOLL_CTL_ADD, ngx_eventfd, &ee) != -1) { return; } /* 若添加出错,则销毁文件异步IO上下文结构,并返回 */ ngx_log_error(NGX_LOG_EMERG, cycle->log, ngx_errno, "epoll_ctl(EPOLL_CTL_ADD, eventfd) failed"); if (io_destroy(ngx_aio_ctx) == -1) { ngx_log_error(NGX_LOG_ALERT, cycle->log, ngx_errno, "io_destroy() failed"); } failed: if (close(ngx_eventfd) == -1) { ngx_log_error(NGX_LOG_ALERT, cycle->log, ngx_errno, "eventfd close() failed"); } ngx_eventfd = -1; ngx_aio_ctx = 0; ngx_file_aio = 0; } #endif #if (NGX_HAVE_FILE_AIO) /* 处理已完成的异步IO事件 */ static void ngx_epoll_eventfd_handler(ngx_event_t *ev) { int n, events; long i; uint64_t ready; ngx_err_t err; ngx_event_t *e; ngx_event_aio_t *aio; struct io_event event[64]; /* 一次最多处理64个事件 */ struct timespec ts; ngx_log_debug0(NGX_LOG_DEBUG_EVENT, ev->log, 0, "eventfd handler"); /* 获取已完成的事件数,并将其设置到ready */ n = read(ngx_eventfd, &ready, 8); err = ngx_errno; ngx_log_debug1(NGX_LOG_DEBUG_EVENT, ev->log, 0, "eventfd: %d", n); if (n != 8) { if (n == -1) { if (err == NGX_EAGAIN) { return; } ngx_log_error(NGX_LOG_ALERT, ev->log, err, "read(eventfd) failed"); return; } ngx_log_error(NGX_LOG_ALERT, ev->log, 0, "read(eventfd) returned only %d bytes", n); return; } ts.tv_sec = 0; ts.tv_nsec = 0; /* 遍历ready,处理异步IO事件 */ while (ready) { /* 获取已完成的异步IO事件 */ events = io_getevents(ngx_aio_ctx, 1, 64, event, &ts); ngx_log_debug1(NGX_LOG_DEBUG_EVENT, ev->log, 0, "io_getevents: %l", events); if (events > 0) { ready -= events;/* ready减去已经取出的事件数 */ /* 处理已被取出的事件 */ for (i = 0; i < events; i++) { ngx_log_debug4(NGX_LOG_DEBUG_EVENT, ev->log, 0, "io_event: %uXL %uXL %L %L", event[i].data, event[i].obj, event[i].res, event[i].res2); /* 获取异步IO事件对应的实际事件 */ e = (ngx_event_t *) (uintptr_t) event[i].data; e->complete = 1; e->active = 0; e->ready = 1; aio = e->data; aio->res = event[i].res; /* 将实际事件加入到ngx_posted_event队列中等待处理 */ ngx_post_event(e, &ngx_posted_events); } continue; } if (events == 0) { return; } /* events == -1 */ ngx_log_error(NGX_LOG_ALERT, ev->log, ngx_errno, "io_getevents() failed"); return; } } #endif ~~~ 参考资料: 《深入理解Nginx》 《[模块ngx_epoll_module详解](http://blog.csdn.net/xiajun07061225/article/details/9250341)》 《 [nginx epoll详解](http://blog.csdn.net/freeinfor/article/details/17008131)》 《[Nginx源码分析-Epoll模块](http://www.alidata.org/archives/1296)》 《[关于ngx_epoll_add_event的一些解释](http://blog.csdn.net/brainkick/article/details/9080789)》