Chinaunix首页 | 论坛 | 博客
  • 博客访问: 1057729
  • 博文数量: 321
  • 博客积分: 7872
  • 博客等级: 少将
  • 技术积分: 2120
  • 用 户 组: 普通用户
  • 注册时间: 2007-05-16 09:06
文章分类

全部博文(321)

文章存档

2017年(1)

2016年(1)

2015年(12)

2014年(17)

2013年(78)

2012年(15)

2011年(17)

2010年(67)

2009年(102)

2008年(11)

分类: LINUX

2010-04-24 12:53:47

1、 listen(fd,backlog);
echo /proc/sys/net/core/somaxconn
somaxconn netstat -st | grep estab
对于存储和转发server来说有用,当然很多webserver上面的数值仍然为128。
2、 tcp_max_syn_backlog
echo 1 /proc/sys/net/ipv4/tcp_max_syn_backlog
这里一般用在防止 syn flood上
man 2 listen The behaviour of the backlog parameter on TCP sockets changed with Linux 2.2. Now it specifies the queue length for com-pletely established sockets waiting to be accepted, instead of the number of incomplete connection requests. The maximum length of the queue for incomplete sockets can be set using the tcp_max_syn_backlog sysctl. When syncookies are enabled there is no logical maximum length and this sysctl setting is ignored. See tcp(7) for more information.
这主要是要对半握手状态要有个理解,其实更重要的是把这个当作入口,去牢记tcp的状态转换图。
3、 sysctl -a| grep syn
net.ipv4.tcp_max_syn_backlog = 1024
net.ipv4.tcp_syncookies = 1
net.ipv4.tcp_synack_retries = 3
net.ipv4.tcp_syn_retries = 3
拿到新机器可以查看一下,如果 syncookies打开的话,syn_backlog的数量就"无限"了。通过这些参数,其实是觉得我们可以对tcp协议几种状态相关有个巩固。
4、 tcp_syncookies (SYN Flood)
client -- tcp syn -- > server
client <-- tcp syn + ack -- server (prepare data section) (Half-open Connection)
client -- ack --> server
if syncookies enable:
client -- tcp syn -- > server seq = s
server: invoke cookie_v4_init_sequence => cacl Initial sn
client <-- tcp syn + ack -- server
seq = c(cookie), ack = s + 1
server: send Initial Sequence Number, no data section
client -- ack --> server
seq = s + 1, ack = c + 1
server: invoke check_tcp_syn_cookie, prepare data section
参考的文章在这里,对于 syncookie有详解:
http://www-128.ibm.com/developerworks/cn/linux/l-syncookie/index.html
////////////////////////// 20080923
继续从网上搜罗了几个有价值的配置项。
$ /proc/sys/net/core/wmem_max
最大socket写buffer,可参考的优化值:873200
$ /proc/sys/net/core/rmem_max
最大socket读buffer,可参考的优化值:873200
$ /proc/sys/net/ipv4/tcp_wmem
TCP写buffer,可参考的优化值: 8192  436600  873200
$ /proc/sys/net/ipv4/tcp_rmem
TCP读buffer,可参考的优化值: 32768  436600  873200
$ /proc/sys/net/ipv4/tcp_mem
同样有3个值,意思是:
net.ipv4.tcp_mem[0]:低于此值,TCP没有内存压力.
net.ipv4.tcp_mem[1]:在此值下,进入内存压力阶段.
net.ipv4.tcp_mem[2]:高于此值,TCP拒绝分配socket.
上述内存单位是页,而不是字节.
可参考的优化值是:786432  1048576 1572864
$ /proc/sys/net/core/netdev_max_backlog
进入包的最大设备队列.默认是300,对重负载服务器而言,该值太低,可调整到1000.
$ /proc/sys/net/core/somaxconn
listen()的默认参数,挂起请求的最大数量.默认是128.对繁忙的服务器,增加该值有助于网络性能.
可调整到256.
$ /proc/sys/net/core/optmem_max
socket buffer的最大初始化值,默认10K.
$ /proc/sys/net/ipv4/tcp_max_syn_backlog
进入SYN包的最大请求队列.默认1024.对重负载服务器,增加该值显然有好处.
可调整到2048.
$ /proc/sys/net/ipv4/tcp_retries2
TCP失败重传次数,默认值15,意味着重传15次才彻底放弃.可减少到5,以尽早释放内核资源.
$ /proc/sys/net/ipv4/tcp_keepalive_time
$ /proc/sys/net/ipv4/tcp_keepalive_intvl
$ /proc/sys/net/ipv4/tcp_keepalive_probes
这3个参数与TCP KeepAlive有关.默认值是:
tcp_keepalive_time = 7200 seconds (2 hours)
tcp_keepalive_probes = 9
tcp_keepalive_intvl = 75 seconds
意思是如果某个TCP连接在idle 2个小时后,内核才发起probe.如果probe 9次(每次75秒)不成功,内核才彻底放弃,认为该连接已失效.对服务器而言,显然上述值太大. 可调整到:
/proc/sys/net/ipv4/tcp_keepalive_time  1800
/proc/sys/net/ipv4/tcp_keepalive_intvl  30
/proc/sys/net/ipv4/tcp_keepalive_probes  3$ proc/sys/net/ipv4/ip_local_port_range
指定端口范围的一个配置,默认是32768   61000,已够大.
 
本文来自CSDN博客,转载请标明出处:http://blog.csdn.net/aalbertini/archive/2009/10/11/4649104.aspx
阅读(1277) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~