Chinaunix首页 | 论坛 | 博客
  • 博客访问: 169457
  • 博文数量: 49
  • 博客积分: 1093
  • 博客等级: 少尉
  • 技术积分: 525
  • 用 户 组: 普通用户
  • 注册时间: 2012-02-21 14:31
文章分类

全部博文(49)

文章存档

2012年(49)

我的朋友

分类: LINUX

2012-03-07 22:57:48

user          www www;

worker_processes     8;

#一般情况下开4个或8个, 再往上开的话优化不太大,开启太多,会影响主进程调度,占用cpu会增高

error_log       /data/logs/error.log    crit;

pid        /usr/local/nginx/nginx.pid;

worker_cpu_affinity 0001 0100 1000 0010 0001 0100 1000 0010;

#绑定worker进程和CPU,只有LINUX内核高于2.4可用;

worker_rlimit_nofile    51200;

#和系统的单进程打开文件数一致,不必理会进程个数,使用ulimit -SHn 51200 设置

 

events {

use epoll;

connections 20000;

worker_connections 51200;

#该值受系统进程最大打开文件数限制,需要使用命令ulimit -n 51200设置(/etc/sysctl.conf中添加fs.file-max=是无效的,可添加至rc.local开机设定)

maxclients=51200*8

}

 

http {

include mime.types;

#mine.types内定义各文件类型映像,也可使用

types {

text/html  html;

image/gif  gif;

image/jpeg jpg;

}进行定义

default_type application/octet-stream;

#设置默认类型是二进制流,当类型未定义时使用二进制流的方式,比如未加装PHP时,是不予解析,用浏览器访问则出现下载窗口

server_names_hash_bucket_size 128;

#不能带单位!配置个主机时必须设置该值,否则无法运行Nginx或测试时不通过,该设置与 server_names_hash_max_size 共同控制保存服务器名的HASH表,hash bucket size总是等于hash表的大小,并且是一路处理器缓存大小的倍数。若hash bucket size等于一路处理器缓存的大小,那么在查找键的时候,最坏的情况下在内存中查找的次数为2。第一次是确定存储单元的地址,第二次是在存储单元中查找键 值。若报出hash max size 或 hash bucket size的提示,则我们需要增加server_names_hash_max_size的值。

client_header_buffer_size 128k;

large_client_header_buffers 4 128k;

#4为个数,128k为大小,默认是4k。申请4个128k。当http 的URI太长或者request header过大时会报414 Request URI too large或400 bad request,这是很有可能是cookie中写入的值太大造成的,因为header中的其他参数的size一般比较固定,只有cookie可能被写入较 大的数据,这时可以调大上述两个值,相应的浏览器中cookie的字节数上限会增大。

client_max_body_size 8m;

#HTTP请求的BODY最大限制值,若超出此值,报413 Request Entity Too Large

server_tokens off;

#关闭错误时Nginx版本显示

sendfile on;

#打开系统函数sendfile()支持

tcp_nopush on;

#打开linux(仅linux下)下TCP_CORK,sendfile打开时才有效,用来发送系统HTTP response headers设置该选项的目的是告诉TCP协议不要仅仅为了清空发送缓存而发送报文段。通常应该设置TCPNOPUSH插口选项。这样,当请求长度超过 报文段最大长度时,协议就会尽可能发出满长度的报文段。这样可以减少报文段的数量,减少的程度取决于每次发送的数据量。

keepalive_timeout 60;

tcp_nodelay on;

#打开TCP_NODELAY在包含了keepalive才有效

上述四项可以有效提高文件传输性能,用sendfile()函数来转移大量数据,协议会需预先解析数据包报头部分信息,正常情况下报头很小,而且套 接字上设置了TCP_NODELAY。有报头的包将被立即传输,在某些情况下,因为这个包成功地被对方收到后需要请求对方确认。这样,大量数据的传输就会 被延迟而且产生大量不必要的网络流量交换。

而如果我们在socket上设置了 TCP_CORK,就像个管道塞住塞子,则带有报头的包会填满数据,所有数据根据大小填充,自动通过数据包发送出去,但在数据完成传输时,需要打开塞子。

如果你能一次发送HTTP响应的头和正文等数据集合,那这样就能使这些数据不存在延迟,编程例子:

….open socket…

setsockopt (FILE_HANDER, SOL_TCP, TCP_CORK, 1, sizeof(1));

write(FILE_HANDER, ‘content’);

fprintf(FILE_HANDER, ‘content’);

sendfile(FILE_HANDER, ‘content’);

setsockopt (FILE_HANDER, SOL_TCP, TCP_CORK, 0, sizeof(0));

以下为FASTCGI相关设置

fastcgi_connect_timeout 300;

fastcgi_send_timeout 300;

fastcgi_read_timeout 300;

fastcgi_buffer_size 64k;

fastcgi_buffers 4 64k;

fastcgi_busy_buffers_size 128k;

fastcgi_temp_file_write_size 128k;

#设置上述数值设置太小时若负载上来时可能报 502 Bad Gateway

 

gzip on;

#打开GZIP压缩,实时压缩输出数据流

gzip_min_length  1k;

#从Content-Length中数值获取验证,小于1K会越压越大

gzip_buffers    4 16k;

# 以16K为单位4倍的申请内存做压缩结果流缓存,默认值是申请跟原始数据相同大小的内存空间去存储gzip压缩结果。

gzip_http_version 1.0;

# 默认1.1,大部分浏览器已经支持gzip解压,不必理会

gzip_comp_level 2;

#压缩比率1-9,1压缩比最小处理速度最快,9压缩比最大但处理最慢且耗CPU

gzip_types      text/plain application/x-javascript text/css application/xml;

#压缩类型,无论是否指定text/html总是会压缩

gzip_vary on;

#此选项可让前端的缓存服务,如squid缓存经过nginx压缩的数据

#gzip_proxied expired no-cache no-store private no_last_modified no_etag auth any

#该选项在做反向代理时设定压缩,后面参数为验证的header头信息,再做相应的压缩处理,关闭为off

 

#limit_zone  connlimit  $binary_remote_addr  10m;

#定义名为connlimit的并发连接数限制空间,存储10M的带有二进制IP的会话信息,每个会话信息是32bytes,10M应该可以记录320000个会话。配合limit_conn 使用。

server {

listen 80;

server_name  

#多域名用空格隔开

index index.html index.htm index.php;

root  /data/www;

#limit_conn connlimit 20;

# 限制一个IP只能最多只能发起20个连接,超过报 503 Service unavailable

location / {

ssi on;

#WEB文档根目录打开SSI支持

#ssi_types text/html;

# 类型

ssi_silent_errors off;

#处理SSI出错时不提示[an error occurred while processing the directive]

rewrite “^/([0-9]{5}).html$” /x.php?id=$1 last;

# redirect:302跳转到rewrite后的地址, permanent:301永久定向last:重新将rewrite后的地址在server标签中执行,break:将rewrite后的地址在当前location标签中执行

}

location ~ .*\.(php|php5)?$ {

#匹配文件后缀php, php5

#fastcgi_pass  unix:/tmp/php-cgi.sock;

#SOCKET方式转交fastcgi处理

fastcgi_pass  127.0.0.1:9000;

#9000端口方式fastcgi

fastcgi_index index.php;

include fcgi.conf;

#包含fastcgi配置

#fastcgi_param SCRIPT_FILENAME $document_root$fastcgi_script_name;

}

location ~ .*\.(gif|jpg|jpeg|png|bmp|swf)$ {

access_log    off;

expires      30d;

valid_referers none blocked servers *.wangyuan.com *.ccnec.com;

if($invalid_referers) {

#rewrite ^/

return 404;

## ngx_http_accesskey_module

}

}

location ~ .*\.(js|css)?$ {

expires      1h;

add_header Cache_Control private;

}

location ~ /\.ht {

deny all;

}

log_format access ‘$remote_addr – $remote_user [$time_local] “$request” ‘ ‘$status $body_bytes_sent “$http_referer”‘

‘”$http_user_agent” $http_x_forwarded_for’;

access_log  /data/logs/access.log  access;

}

 

ulimit -SHn 51200

soft hard 资源限制

n inode

net.ipv4.tcp_fin_timeout = 30
net.ipv4.tcp_keepalive_time = 300
net.ipv4.tcp_syncookies = 1
net.ipv4.tcp_tw_reuse = 1
net.ipv4.tcp_tw_recycle = 1
net.ipv4.ip_local_port_range = 5000    65000

阅读(1624) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~