绑定worker进程和CPU,只有LINUX内核高于2.4可用;
worker_rlimit_nofile 51200;
和系统的单进程打开文件数一致,不必理会进程个数,使用ulimit -SHn 51200 设置
events {
use epoll;
#connections 20000;
worker_connections 51200;
该值受系统进程最大打开文件数限制,需要使用命令ulimit -n 51200设置
(/etc/sysctl.conf中添加fs.file-max=是无效的,可添加至rc.local开机设定)
maxclients=51200*8 -->worker_connections*worker_process=maxclients
}
http {
include mime.types;
mine.types内定义各文件类型映像,也可使用
types {
text/html html;
image/gif gif;
image/jpeg jpg;
}进行定义
default_type application/octet-stream;
设置默认类型是二进制流,当类型未定义时使用二进制流的方式,比如未加装PHP时,是不予解析,用浏览器访问则出现下载窗口
server_names_hash_bucket_size 128;
不能带单位!配置个主机时必须设置该值,否则无法运行Nginx或测试时不通过,该设置与server_names_hash_max_size 共同控制保存服务器名的HASH表,hash bucket size总是等于hash表的大小,并且是一路处理器缓存大小的倍数。若hash bucket size等于一路处理器缓存的大小,那么在查找键的时候,最坏的情况下在内存中查找的次数为2。第一次是确定存储单元的地址,第二次是在存储单元中查找键值。若报出hash max size 或 hash bucket size的提示,则我们需要增加server_names_hash_max_size的值。
client_header_buffer_size 128k;
large_client_header_buffers 4 128k;
4为个数,128k为大小,默认是4k。申请4个128k。当http 的URI太长或者request header过大时会报414 Request URI too large或400 bad request,这是很有可能是cookie中写入的值太大造成的,因为header中的其他参数的size一般比较固定,只有cookie可能被写入较大的数据,这时可以调大上述两个值,相应的浏览器中cookie的字节数上限会增大。
client_max_body_size 8m;
HTTP请求的BODY最大限制值,若超出此值,报413 Request Entity Too Large
server_tokens off;
关闭错误时Nginx版本显示
sendfile on;
打开系统函数sendfile()支持
tcp_nopush on;
打开linux(仅linux下)下TCP_CORK,sendfile打开时才有效,用来发送系统HTTP response headers设置该选项的目的是告诉TCP协议不要仅仅为了清空发送缓存而发送报文段。通常应该设置TCPNOPUSH插口选项。这样,当请求长度超过报文段最大长度时,协议就会尽可能发出满长度的报文段。这样可以减少报文段的数量,减少的程度取决于每次发送的数据量。
keepalive_timeout 60;
tcp_nodelay on;
打开TCP_NODELAY在包含了keepalive才有效
¥上述四项可以有效提高文件传输性能,用sendfile()函数来转移大量数据,协议会需预先解析数据包报头部分信息,正常情况下报头很小,而且套接字上设置了TCP_NODELAY。有报头的包将被立即传输,在某些情况下,因为这个包成功地被对方收到后需要请求对方确认。这样,大量数据的传输就会被延迟而且产生大量不必要的网络流量交换。
而如果我们在socket上设置了 TCP_CORK,就像个管道塞住塞子,则带有报头的包会填满数据,所有数据根据大小填充,自动通过数据包发送出去,但在数据完成传输时,需要打开塞子。
如果你能一次发送HTTP响应的头和正文等数据集合,那这样就能使这些数据不存在延迟,编程例子:
….open socket…
setsockopt (FILE_HANDER, SOL_TCP, TCP_CORK, 1, sizeof(1));
write(FILE_HANDER, ‘content’);
fprintf(FILE_HANDER, ‘content’);
sendfile(FILE_HANDER, ‘content’);
…
setsockopt (FILE_HANDER, SOL_TCP, TCP_CORK, 0, sizeof(0));
以下为FASTCGI相关设置
fastcgi_connect_timeout 300;
fastcgi_send_timeout 300;
fastcgi_read_timeout 300;
fastcgi_buffer_size 64k;
fastcgi_buffers 4 64k;
fastcgi_busy_buffers_size 128k;
fastcgi_temp_file_write_size 128k;
设置上述数值设置太小时若负载上来时可能报 502 Bad Gateway
gzip on;
打开GZIP压缩,实时压缩输出数据流
gzip_min_length 1k;
从Content-Length中数值获取验证,小于1K会越压越大
gzip_buffers 4 16k;
以16K为单位4倍的申请内存做压缩结果流缓存,默认值是申请跟原始数据相同大小的内存空间去存储gzip压缩结果。
gzip_http_version 1.0;
默认1.1,大部分浏览器已经支持gzip解压,不必理会
gzip_comp_level 2;
压缩比率1-9,1压缩比最小处理速度最快,9压缩比最大但处理最慢且耗CPU
gzip_types text/plain application/x-javascript text/css application/xml;
压缩类型,无论是否指定text/html总是会压缩
gzip_vary on;
此选项可让前端的缓存服务,如squid缓存经过nginx压缩的数据
#gzip_proxied expired no-cache no-store private no_last_modified no_etag auth any
该选项在做反向代理时设定压缩,后面参数为验证的header头信息,再做相应的压缩处理,关闭为off
#limit_zone connlimit $binary_remote_addr 10m;
定义名为connlimit的并发连接数限制空间,存储10M的带有二进制IP的会话信息,每个会话信息是32bytes,10M应该可以记录320000个会话。配合limit_conn 使用。
server {
listen 80;
server_name
多域名用空格隔开
index index.html index.htm index.php;
root /data/www;
#limit_conn connlimit 20;
限制一个IP只能最多只能发起20个连接,超过报 503 Service unavailable
location ~ .*\.(php|php5)?$ {
匹配文件后缀php, php5
#fastcgi_pass unix:/tmp/php-cgi.sock;
SOCKET方式转交fastcgi处理
fastcgi_pass 127.0.0.1:9000;
9000端口方式fastcgi
fastcgi_index index.php;
include fcgi.conf;
包含fastcgi配置
#fastcgi_param SCRIPT_FILENAME $document_root$fastcgi_script_name;
}
|