Chinaunix首页 | 论坛 | 博客
  • 博客访问: 103040
  • 博文数量: 42
  • 博客积分: 1445
  • 博客等级: 上尉
  • 技术积分: 380
  • 用 户 组: 普通用户
  • 注册时间: 2009-08-28 13:57
文章分类

全部博文(42)

文章存档

2010年(10)

2009年(32)

我的朋友

分类: 系统运维

2009-09-15 11:08:38


绑定worker进程和CPU,只有LINUX内核高于2.4可用;

worker_rlimit_nofile 51200;

和系统的单进程打开文件数一致,不必理会进程个数,使用ulimit -SHn 51200 设置

events {

        use epoll;

                    #connections 20000;

        worker_connections 51200;

                    该值受系统进程最大打开文件数限制,需要使用命令ulimit -n 51200设置

                    (/etc/sysctl.conf中添加fs.file-max=是无效的,可添加至rc.local开机设定)

                    maxclients=51200*8 -->worker_connections*worker_process=maxclients

}

http {

        include mime.types;

                    mine.types内定义各文件类型映像,也可使用

                    types {

                                         text/html html;

                                         image/gif gif;

                                         image/jpeg jpg;

                    }进行定义

        default_type application/octet-stream;

                    设置默认类型是二进制流,当类型未定义时使用二进制流的方式,比如未加装PHP时,是不予解析,用浏览器访问则出现下载窗口

 

        server_names_hash_bucket_size 128;

                    不能带单位!配置个主机时必须设置该值,否则无法运行Nginx或测试时不通过,该设置与server_names_hash_max_size 共同控制保存服务器名的HASH表,hash bucket size总是等于hash表的大小,并且是一路处理器缓存大小的倍数。若hash bucket size等于一路处理器缓存的大小,那么在查找键的时候,最坏的情况下在内存中查找的次数为2。第一次是确定存储单元的地址,第二次是在存储单元中查找键值。若报出hash max size 或 hash bucket size的提示,则我们需要增加server_names_hash_max_size的值。

        client_header_buffer_size 128k;

        large_client_header_buffers 4 128k;

       4为个数,128k为大小,默认是4k。申请4个128k。当http 的URI太长或者request header过大时会报414 Request URI too large或400 bad request,这是很有可能是cookie中写入的值太大造成的,因为header中的其他参数的size一般比较固定,只有cookie可能被写入较大的数据,这时可以调大上述两个值,相应的浏览器中cookie的字节数上限会增大。

        client_max_body_size 8m;

        HTTP请求的BODY最大限制值,若超出此值,报413 Request Entity Too Large

        server_tokens off;

                    关闭错误时Nginx版本显示

        sendfile on;

                    打开系统函数sendfile()支持

        tcp_nopush on;

                    打开linux(仅linux下)下TCP_CORK,sendfile打开时才有效,用来发送系统HTTP response headers设置该选项的目的是告诉TCP协议不要仅仅为了清空发送缓存而发送报文段。通常应该设置TCPNOPUSH插口选项。这样,当请求长度超过报文段最大长度时,协议就会尽可能发出满长度的报文段。这样可以减少报文段的数量,减少的程度取决于每次发送的数据量。

        keepalive_timeout 60;

        tcp_nodelay on;

                    打开TCP_NODELAY在包含了keepalive才有效

                    ¥上述四项可以有效提高文件传输性能,用sendfile()函数来转移大量数据,协议会需预先解析数据包报头部分信息,正常情况下报头很小,而且套接字上设置了TCP_NODELAY。有报头的包将被立即传输,在某些情况下,因为这个包成功地被对方收到后需要请求对方确认。这样,大量数据的传输就会被延迟而且产生大量不必要的网络流量交换。

    而如果我们在socket上设置了 TCP_CORK,就像个管道塞住塞子,则带有报头的包会填满数据,所有数据根据大小填充,自动通过数据包发送出去,但在数据完成传输时,需要打开塞子。

                    如果你能一次发送HTTP响应的头和正文等数据集合,那这样就能使这些数据不存在延迟,编程例子:

                    ….open socket…

                    setsockopt (FILE_HANDER, SOL_TCP, TCP_CORK, 1, sizeof(1));

                    write(FILE_HANDER, ‘content’);

                    fprintf(FILE_HANDER, ‘content’);

                    sendfile(FILE_HANDER, ‘content’);

                    …

                    setsockopt (FILE_HANDER, SOL_TCP, TCP_CORK, 0, sizeof(0));

                    以下为FASTCGI相关设置

        fastcgi_connect_timeout 300;

        fastcgi_send_timeout 300;

        fastcgi_read_timeout 300;

        fastcgi_buffer_size 64k;

        fastcgi_buffers 4 64k;

        fastcgi_busy_buffers_size 128k;

        fastcgi_temp_file_write_size 128k;

                    设置上述数值设置太小时若负载上来时可能报 502 Bad Gateway

        gzip on;

                    打开GZIP压缩,实时压缩输出数据流


       gzip_min_length  1k;

                    Content-Length中数值获取验证,小于1K会越压越大

        gzip_buffers    4 16k;

                    16K为单位4倍的申请内存做压缩结果流缓存,默认值是申请跟原始数据相同大小的内存空间去存储gzip压缩结果。

        gzip_http_version 1.0;

                    默认1.1,大部分浏览器已经支持gzip解压,不必理会

        gzip_comp_level 2;

                    压缩比率1-91压缩比最小处理速度最快,9压缩比最大但处理最慢且耗CPU

        gzip_types      text/plain application/x-javascript text/css application/xml;

                    压缩类型,无论是否指定text/html总是会压缩

        gzip_vary on;

                此选项可让前端的缓存服务,如squid缓存经过nginx压缩的数据

         #gzip_proxied expired no-cache no-store private no_last_modified no_etag auth any

          该选项在做反向代理时设定压缩,后面参数为验证的header头信息,再做相应的压缩处理,关闭为off

 

        #limit_zone  connlimit  $binary_remote_addr  10m;

                    定义名为connlimit的并发连接数限制空间,存储10M的带有二进制IP的会话信息,每个会话信息是32bytes,10M应该可以记录320000个会话。配合limit_conn 使用。

server {

                listen 80;

                server_name 

                                         多域名用空格隔开

                index index.html index.htm index.php;

                root  /data/www;

 

                #limit_conn connlimit 20;

                                         限制一个IP只能最多只能发起20个连接,超过报 503 Service unavailable

 

              

 

                                                         

                location ~ .*\.(php|php5)?$ {

                                                             匹配文件后缀php, php5

                        #fastcgi_pass  unix:/tmp/php-cgi.sock;

                                                             SOCKET方式转交fastcgi处理

                        fastcgi_pass  127.0.0.1:9000;

                                                             9000端口方式fastcgi

                        fastcgi_index index.php;

                        include fcgi.conf;

                                                             包含fastcgi配置

#fastcgi_param SCRIPT_FILENAME $document_root$fastcgi_script_name;

                }

 

            

阅读(1226) | 评论(0) | 转发(0) |
0

上一篇:关于fpm在nginx的使用

下一篇:nginx的ssl

给主人留下些什么吧!~~