Chinaunix首页 | 论坛 | 博客
  • 博客访问: 223744
  • 博文数量: 41
  • 博客积分: 0
  • 博客等级: 民兵
  • 技术积分: 407
  • 用 户 组: 普通用户
  • 注册时间: 2013-06-27 13:42
文章分类

全部博文(41)

文章存档

2016年(1)

2015年(18)

2014年(22)

我的朋友

分类: 服务器与存储

2014-11-20 23:41:07

    Nginx “延迟” 相关的逻辑,会将某些处理拖延到合适的时机,会将某些分散的逻辑集中到一起进行批量处理,也会在计划中的某个将来的时间点完成某个操作。

    这些 “延迟” 逻辑,包括 deferred acceptposted event 和 timer

deferred accept

    根据定义,deferred accept 将 accept() 的处理时机推迟到三次握手成功完成后的连接上有可读数据后,然后才向 listening socket 的监听者投递读事件。这样一来,一旦 accept() 成功,Nginx 不用等待新接入连接上有读事件发生,便可以马上从其中读取请求数据,提高了请求的处理效率。

man 7 tcp

TCP_DEFER_ACCEPT (since Linux 2.4) Allow a listener to be awakened only when data arrives on the socket. Takes an integer value (seconds), this can bound the maximum number of attempts TCP will make to complete the connection.

    其实现原理大致是:要求三次握手过程的最后一握为实际数据,这时此连接才真正进行ESTABLISHED 状态。参数值被协议栈用作最后一握的超时时间。具体实现逻辑可 google 之。

    Linux 2.4 以后,才开始支持此特性。Nginx 根据 listen 配置指令的 deferred 选项 和TCP_DEFER_ACCEPT 是否定义,来决定是否打开 listening socket 的这个选项。

    关于 deferred_accept 的存储和设置由下面代码完成,add_deferred 和 delete_deferred指令用于表示在配置 ngx_listening_t 过程中,开启或关闭对应 listening socket 的deferred accept 属性。初始化和配置代码如下:

点击(此处)折叠或打开

  1. ----------core/ngx_connection.c:17--------
  2.     struct ngx_listening_s {
  3.         ngx_socket_t fd;
  4.         ...
  5.     #define (NGX_HAVE_DEFERRED_ACCEPT)
  6.         unsigned deferred_accept:1;
  7.         unsigned delete_deferred:1;
  8.         unsigned add_deferred:1;
  9.         ...
  10.     #endif
  11.     };

  12.     ----------http/ngx_http.c:1679------------
  13.     static ngx_listening_t *
  14.     ngx_http_add_listening(ngx_conf_t *cf, ngx_http_conf_addr_t *addr)
  15.     {
  16.         ...
  17.     #if (NGX_HAVE_DEFERRED_ACCEPT && defined TCP_DEFER_ACCEPT)
  18.         ls->deferred_accept = addr->opt.deferred_accept;
  19.     #endif
  20.         ...
  21.     }

  22.     ---------core/ngx_cycle.c:40--------------
  23.     ngx_cycle_t *
  24.     ngx_init_cycle(ngx_cycle_t *old_cycle)
  25.     {
  26.         ...
  27.             ls = cycle->listening.elts;
  28.             for (i = 0; i < cycle->listening.nelts; i++) {
  29.                 ls[i].open = 1;
  30.                 ...
  31.     #if (NGX_HAVE_DEFERRED_ACCEPT && defined TCP_DEFER_ACCEPT)
  32.                 if (ls[i].deferred_accept) {
  33.                     ls[i].add_deferred = 1;
  34.                 }
  35.     #endif
  36.             }
  37.          ...
  38.     }


  39.     ----------core/ngx_connection.c:439-------
  40.     void
  41.     ngx_configure_listening_sockets(ngx_cycle_t *cycle)
  42.     {
  43.         ...
  44.         ls = cycle->listening.elts;
  45.         for (i = 0; i < cycle->listening.nelts; i++) {
  46.             ...
  47.     #ifdef TCP_DEFER_ACCEPT
  48.             if (ls[i].add_deferred || ls[i].delete_deferred) {
  49.                 if (ls[i].add_deferred) {
  50.                     timeout = (int) (ls[i].post_accept_timeout / 1000);
  51.                 } else {
  52.                     timeout = 0;
  53.                 }

  54.                 setsocketopt(ls[i].fd, IPPROTO_TCP, TCP_DEFER_ACCEPT,
  55.                             &timeout, sizeof(int))
  56.             }

  57.             if ls[i].add_deferred) {
  58.                 ls[i].deferred_accept = 1;
  59.             }
  60.     #endif
  61.         ...
  62.         }
  63.     }

对以上代码的补充说明:

  • ls->post_accept_timeout 的值是配置指令项 client_header_timeout 的值。

  • delete_deferred 生效时,timeout 被置为 0,随后的 setsocketopt 就禁用了此 socket的 TCP_DEFER_ACCEPT 特性。

    随后,listening socket 对应的读事件结构体成员 deferred_accept 也被置 1。 这样,一旦从此 listening socket 接收了新的连接,新连接可以被认为已经有数据可用 (新连接的读事件结构体 ready 字段被置为 1)。


点击(此处)折叠或打开

  1. -----------------event/ngx_event.c:579---------------
  2.     static ngx_int_t
  3.     ngx_event_process_init(ngx_cycle_t *cycle)
  4.     {
  5.         ...
  6.         ls = cycle->listening.elts;
  7.         for (i = 0; i < cycle->listening.nelts; i++) {
  8.             ...
  9.     #if (NGX_HAVE_DEFERRED_ACCEPT)
  10.             rev->deferred_accept = ls[i].deferred_accept;
  11.     #endif
  12.             ...
  13.         }
  14.         ...
  15.     }

  16.     ----------------event/ngx_event_accept.c:17------------
  17.     void
  18.     ngx_event_accept(ngx_event_t *ev)
  19.     {
  20.         ...
  21.         do {
  22.             s = accept(lc->fd, (struct sockaddr *) sa, &socklen);
  23.             ...
  24.             if (ev->deferred_accept) {
  25.                 rev->ready = 1;
  26.                 ...
  27.             }
  28.             ...
  29.         } while (ev->available);
  30.     }

    新连接初始化完成后,如果其已有数据可用 (rev->ready == 1),直接试着从已有数据中读取HTTP request 的相关信息。否则,Nginx 需要将此连接加入 epoll set 中,重新监听读事件,随后才能继续分析从此连接上来的 HTTP request 信息。

点击(此处)折叠或打开

  1. ---------------http/ngx_http_request.c:177-------------
  2.     void
  3.     ngx_http_init_connection(ngx_connection_t *c)
  4.     {
  5.         ...
  6.         if (rev->ready) {
  7.             /* the deferred accept(), rtsig, aio, iocp */
  8.             ...
  9.             ngx_http_init_request(rev);
  10.             return;
  11.         }
  12.         ...
  13.         ngx_handle_read_event(rev, 0);
  14.         ...
  15.     }

deferred accept 简化了 HTTP request 处理逻辑,将部分数据的读取交由 TCP/IP 栈完成,这样可以提升 Nginx 的执行效率,减少请求的响应时间。

posted event

在 ngx_use_accept_mutex 选项打开情况下,worker 进程接收新的连接之前都需要竞争accept_mutex 锁 ()。由于这个 锁是进程级的,为了尽量降低 worker 进程间的互斥影响,Nginx 将尽可能多的操作挪到进程级互斥区之外执行。

避免 listening sockets 上产生的读事件造成的 epoll 惊群是加入 accept_mutex 的首要目的,而普通连接产生的读写事件和 listening sockets 上产生的读事件都需要通过 epoll 获取。为了尽量减少互斥区的操作,Nginx 将普通连接上的读写事件处理操作挪到了互斥区外,这就是读写事件延迟链表 ngx_posted_events 的作用。同时,为了 事件监听部分代码的一致性,必须在互斥区内完成的新连接接入操作 (accept()) 对应的读事件,也由相似的链表ngx_posted_accept_events 维护。

主要代码如下:


点击(此处)折叠或打开

  1. -----------event/ngx_event.c:200------------
  2.     void
  3.     ngx_process_events_and_timers(ngx_cycle_t *cycle)
  4.     {
  5.         ...
  6.         if (ngx_posted_accept_events) {
  7.             ngx_event_process_posted(cycle, &ngx_posted_accept_events);
  8.         }

  9.         if (ngx_accept_mutex_held) {
  10.             ngx_shmtx_unlock(&ngx_accept_mutex);
  11.         }
  12.         ...
  13.         if (ngx_posted_events) {
  14.             if (ngx_threaded) {
  15.                 ngx_wakeup_worker_thread(cycle);

  16.             } else {
  17.                 ngx_event_process_posted(cycle, &ngx_posted_events);
  18.             }
  19.         }
  20.     }

对上述代码的补充:

  • ngx_posted_accept_events 维护的读事件,在离开互斥区,即释放 accept_mutex 前执行;ngx_posted_events 维护的普通读写事件,可以放到离开互斥区分执行。

而 ngx_event_process_posted 函数的主要逻辑,就是逐个调用事件链表中的回调函数:


点击(此处)折叠或打开

  1. ----------event/ngx_event_posted.c:20----------------
  2.     void
  3.     ngx_event_process_posted(ngx_cycle_t *cycle,
  4.         ngx_thread_volatile ngx_event_t **posted)
  5.     {
  6.         ngx_event_t *ev;

  7.         for ( ;; ) {

  8.             ev = (ngx_event_t *) *posted;
  9.             ...
  10.             ngx_delete_posted_event(ev);

  11.             ev->handler(ev);
  12.         }
  13.     }

对上述代码的补充说明:

  • 注意一下 posted event 链表操作中对 ngx_event_t **prev 指针的使用。

在互斥区中执行的连接初始化等操作,也会尽量延迟到互斥区以外。比如,deferred accept 部分分析的情况,连接被 accept() 后,其上已有请求数据等待读取,在初始化完成后:


点击(此处)折叠或打开

  1. ----------http/ngx_http_request.c:177------------
  2.     void
  3.     ngx_http_init_connection(ngx_connection_t *c)
  4.     {
  5.         ...
  6.         if (rev->read) {
  7.             /* the deferred accept(), rtsig, aio, iocp */

  8.             if (ngx_use_accept_mutex) {
  9.                 ngx_post_event(rev, &ngx_posted_events);
  10.                 return;
  11.             }

  12.             ngx_http_init_request(rev);
  13.             return;
  14.         }
  15.         ...
  16.     }
HTTP request 处理过程另外一处对 posted event 的使用出现在 ngx_http_set_keepalive函数中。当连接使用 keepalive 模式时,一个请求处理完毕 后并不立即关闭连接,而继续接收处理此连续上更多的请求 (pipeline)。如果,此连接 上还有数据可读或者连接 buffer 还有数据可用,Nginx 就将连接的读事件结构体加入到 ngx_posted_events 链表中,在ngx_event_process_posted 开始下一个请求的处理。

点击(此处)折叠或打开

  1. ------------http/ngx_http_request.c:2354------------
  2.     static void
  3.     ngx_http_set_keepalive(ngx_http_request_t *r)
  4.     {
  5.         ...
  6.         if (b->pos < b->last) {
  7.             ...
  8.             hc->pipeline = 1;
  9.             ...
  10.             rev->handler = ngx_http_init_request;
  11.             ngx_post_event(rev, &ngx_posted_events);
  12.             return;
  13.         }
  14.         ...
  15.         if (rev->ready) {
  16.             ngx_post_event(rev, &ngx_posted_events);
  17.         }
  18.     }

timer

定时器在程用中用于在将来的某个时刻执行某些操作,它在任何一个服务端进程中不可或 缺。它在 Nginx 中用于连接的超时管理、服务器时间戳更新、缓存管理和其它需要延迟一 定时间后执行的操作。

应用层的定时器的驱动机制和节点存储访问也多种多样:

点击(此处)折叠或打开

  1. * 常见的驱动方式有独立线程驱动、系统定时信号驱动和带有超时特性的系统阻塞调
  2. 用等等。 Nginx 使用带有超时特性的事件监听系统调用,比如 `epoll_wait`,从而将
  3. 网络事件处理和超时处理集中到一个逻辑中统一处理。

  4. * 而定时器节点的存储方式也多种多样,`heap`, `queue`, `binary search tree`,
  5. `hash` 等等。Nginx 使用 `rbtree` 存储定时器节点,对各种操作 (插入,查找)
  6. 杂度进行了折衷。



这里,对定时器的各种实现不做分析和比较,只来关注一下 Nginx 定时器的实现和各种操作。

Nginx 定时器由 rbtree 树 ngx_event_timer_rbtree 表示,定时器的每个节点都是一 个ngx_event_t 类型的变量。


点击(此处)折叠或打开

  1. struct ngx_event_s {
  2.         ...
  3.         unsigned timedout:1;
  4.         unsigned timer_set:1;
  5.         ...
  6.         ngx_rbtree_node_t timer;
  7.         ...
  8.     }

基本操作

定时器 ngx_event_timer_rbtree 支持 ngx_event_t 类型节点的添加和删除,同时使 用者也得到第一个超时节点的超时时间 (第一个超时事件发生时间)。

节点加入,基本操作就是往红黑树中插入新节点的过程。


点击(此处)折叠或打开

  1. --------------event/ngx_event_timer.h:57------------
  2.     static ngx_inline void
  3.     ngx_event_add_timer(ngx_event_t *ev, ngx_msec_t timer)
  4.     {
  5.         ...
  6.         key = ngx_current_msec + timer;

  7.         if (ev->timer_set) {
  8.             ...
  9.             diff = (ngx_msec_int_t) (key - ev->timer.key);

  10.             if (ngx_abs(diff) < NGX_TIMER_LAZY_DELAY) {
  11.                 ...
  12.                 return;
  13.             }

  14.             ngx_del_timer(ev);
  15.         }

  16.         ev->timer.key = key;
  17.         ...
  18.         ngx_rbtree_insert(&ngx_event_timer_rbtree, &ev->timer);
  19.         ...
  20.         ev->timer_set = 1;
  21.     }

对上述代码的补充说明:

  • ev->timer_set 字段记录 ngx_event_t 节点是否已经加入到了定时器中。

  • 使用节点超时时间作为其在 rbtree 中的 key

  • 在加入节点前,先检查此节点是否已经在定时器中。如果它已经在定时器时,再检查一下 节点的超时时间和新设定的超时时间是否相差不大。差异可以容忍时,不再重新插入此节点。

节点删除操作也比较简单:从 rbtree 中删除此节点,然后将其 timer_set 字段置 0。这里就不摘录代码了。

定时器第一个超时节点查找,是很重要的操作。这个函数能告诉调用者,它如果需要进入 阻塞状态的话,阻塞多长时间才不会错过第一个超时事件的处理。


点击(此处)折叠或打开

  1. ----------------event/ngx_event_timer.c:50------------
  2.     ngx_msec_t
  3.     ngx_event_find_timer(void)
  4.     {
  5.         ...
  6.         root = ngx_event_timer_rbtree.root;
  7.         sentinel = ngx_event_timer_rbtree.sentinal;

  8.         node = ngx_rbtree_min(root, sentinel);
  9.         ...
  10.         timer = (ngx_msec_int_t) node->key - (ngx_msec_int_t) ngx_current_msec;

  11.         return (ngx_msec_t) (timer > 0 ? timer : 0);
  12.     }

超时事件处理

接下来,再回到事件处理函数 ngx_process_events_and_timers 中。这个函数就是 worker进程阻塞等待网络事件和超时事件,并处理这些事件的主函数。

网络事件何时发生是不确定的,而第一个超时事件何时发生在阻塞前是可以从定时器中获 取到的。这样,为了及时处理第一个超时事件,worker 进程的阻塞函数需要在超时事件发生前返回。


点击(此处)折叠或打开

  1. --------------event/ngx_event.c:206--------------
  2.     if (ngx_timer_resolution) {
  3.         timer = NGX_TIMER_INFINITE;
  4.         flags = 0;

  5.     } else {
  6.         timer = ngx_event_find_timer();
  7.         flags = NGX_UPDATE_TIME;

  8.     }
  9.     ...
  10.     delta = ngx_current_msec;

  11.     (void *) ngx_process_events(cycle, timer, flags);

  12.     delta = ngx_current_msec - delta;
  13.     ...
  14.     if (delta) {
  15.         ngx_event_expire_timers();
  16.     }

对上述代码的补充说明:

  • ngx_timer_resolution 由配置指令 timer_resolution 打开。这个选项可以用于指定计算ngx_current_msec 的间隔,以提高它的精确度。这个选项打开时,用于计算ngx_current_msec 的函数 ngx_time_update 由系统定时信号处理函数完成。选项关闭 时,ngx_time_update 在阻塞函数 (epoll_wait etc.) 返回时才被设用 (NGX_UPDATE_TIME)。

  • delta 存储 ngx_process_events 函数的执行耗时 (并不精确)。

  • 由 delta 的值决定是否检查超时事件。

随后,在 ngx_event_expire_timers 函数中检查是否有超时事件发生,并对超时事件进行处理。


点击(此处)折叠或打开

  1. ------------event/ngx_event_timer.c:75--------------
  2.     void
  3.     ngx_event_expire_timers(void)
  4.     {
  5.         ...
  6.         sentinel = ngx_event_timer_rbtree.sentinel;

  7.         for ( ;; ) {
  8.             ...
  9.             root = ngx_event_timer_rbtree.root;
  10.             ...
  11.             node = ngx_rbtree_min(root, sentinel);

  12.             if ((ngx_msec_int_t) node->key - (ngx_msec_int_t) ngx_current_msec <= 0) {
  13.                 ev = (ngx_event_t *) ((char *) node - offsetof(ngx_event_t, timer));
  14.                 ...
  15.                 ngx_rbtree_delete(&ngx_event_timer_rbtree, &ev->timer);
  16.                 ...
  17.                 ev->timer_set = 0;
  18.                 ...
  19.                 ev->timedout = 1;

  20.                 ev->handler(ev);

  21.                 continue;
  22.             }

  23.             break;
  24.         }
  25.     }

定时器用例

这一部分展示一下定时器是如何被使用的。首先定时器节点的增加和删除是通过下面两个宏 完成的:


点击(此处)折叠或打开

  1. #define ngx_add_timer ngx_event_add_timer |~
  2.     #define ngx_del_timer ngx_event_del_timer

在请求接收和处理过程中,Nginx 需要对每个涉及到网络事件的操作进行超时跟踪,以便及 时清理因为事件超时而占用的资源。

比如,在从连接上读取 HTTP request 包头时,如果此时连接上无数据可用的话,Nginx 就会在监听读事件的同时,对连接设定超时处理:


点击(此处)折叠或打开

  1. ---------------http/ngx_http_request.c:1092------------
  2.     static ssize_t
  3.     ngx_http_read_request_header(ngx_http_request_t *r)
  4.     {
  5.         ...
  6.         if (rev->ready) {
  7.             n = c->recv(c, r->header_in->last,
  8.                         r->header_in->end - r->header_in->last);
  9.         } else {
  10.             n = NGX_AGAIN;
  11.         }

  12.         if (n == NGX_AGAIN) {
  13.             if (!rev->timer_set) {
  14.                 cscf = ngx_http_get_module_srv_conf(r, ngx_http_core_module);
  15.                 ngx_add_timer(rev, cscf->client_header_timeout);
  16.             }

  17.             if (ngx_handle_read_event(rev, 0) != NGX_OK) {
  18.                 ngx_http_close_request(r, NGX_HTTP_INTERNAL_SERVER_ERROR);
  19.                 return NGX_ERROR;
  20.             }

  21.             return NGX_AGAIN;
  22.         }
  23.         ...
  24.     }
这个连接的读事件结构体 ngx_event_t 的回调函数 (handler) 是ngx_http_process_request_line,也就是说,如果这时 rev 上发生超时事件,Nginx 将rev->timedout 置 1 后,会调用 ngx_http_process_request_line 处理超时:

点击(此处)折叠或打开

  1. ----------------http/ngx_http_request.c:680--------------
  2.     static void
  3.     ngx_http_process_request_line(ngx_event_t *rev)
  4.     {
  5.         ...
  6.         c = rev->data;
  7.         r = c->data;
  8.         ...
  9.         if (rev->timedout) {
  10.             c->timedout = 1;
  11.             ngx_http_close_request(r, NGX_HTTP_REQUEST_TIME_OUT);
  12.             return;
  13.         }
  14.         ...
  15.     }

于是,当读 HTTP request 包头时,在 cscf->client_header_timeout 的时间内, 如果 Nginx 没有收到客户端发来的包头数据时,这个请求及至请求来自的连接都会被回收。






阅读(4558) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~