Chinaunix首页 | 论坛 | 博客
  • 博客访问: 22596
  • 博文数量: 5
  • 博客积分: 10
  • 博客等级: 民兵
  • 技术积分: 133
  • 用 户 组: 普通用户
  • 注册时间: 2011-03-11 17:32
个人简介

80后天秤男,多年码农,现正在进化中

文章分类

全部博文(5)

文章存档

2013年(5)

我的朋友

分类: PHP

2013-05-28 20:56:02

主要解决问题:程序及系统层面共同控制页面并发数,避免并发数过多导致DB服务器宕机。

一般来说,一个项目中总是会有一些较难处理的业务,比如业务复杂花样繁多的搜索,使用搜索系统如sphinx,lucence等来处理的话,数据源的若是变化过快(如顶、踩、浏览数之类),则首先推数据的频率就较难衡量,另外无法精确搜索或排序。所以一般情况下的做法是通过DB进行搜索,并且除了尽量将业务分解到程序层面外,还会在DB前加一层cache。但是这样做也有不少已知的弊端:
1、实际上很多业务无法放到普通的PHP中处理,如一些较复杂的排序、筛选,通过普通的PHP来实现的话效率还不如MYSQL。
2、cache的命中率也不好保证,特别是对一些使用关键词进行查询的业务,关键词变化太多。


若是遇到恶意刷的话,DB服务器容易直接挂掉,因此我们可以在程序层面上加一层限制器,限制并发数,该限制器具备以下特点:
1、高效(废话么,否则直接刷限制器就刷爆了)。现在是使用memcache进行原子操作计数,可以扩展成使用其他方法。
2、精确到action层。可以单独限制单个页面。
3、方便。见仁见智吧
4、成本低廉。包括研发成本与硬件成本。


根据压测,原先只能100并发的搜索功能,限制100后,压测800结果正常。

使用方法如下:

点击(此处)折叠或打开

  1. <?php
  2.     /**
  3.      * 搜索
  4.      */
  5.     public function search(){
  6.         //增加计数器功能,超过次数则返回系统繁忙
  7.         $viewlimiter = Library::load('viewlimiter');
  8.         //访问限制器的名称,请用controller+action,尽量单个页面保持唯一
  9.         $limitName = 'search_search';
  10.         //最多同时访问数
  11.         $limit = 100;
  12.         //若是超过数量则直接返回
  13.         if(!$viewlimiter->check($limitName, $limit)) {
  14.             ajaxOutput(0, $this->lang->line('multi_search_limit'));
  15.         }


  16.         /*----复杂变态的业务逻辑-----*/
  17.         $xxxModel->search($params);
  18.     }
  19.     //end func
  20. ?>
扩展话题:
1、若是该业务被刷,可能导致正常用户无法查看内容。 -- 这个问题要解决只能是从系统层面去操作,可见这边:http://johnsteven.blog.51cto.com/2523007/818209
2、限制数最好能与缓存命中率相结合,一定范围内自动变更限制数,提高限制的精准度。 -- 这个后期可以进行研究,与缓存类相结合
3、根据服务器负载进行动态控制。 -- 涉及到底层及服务器权限,研究成本较高,有兴趣的话可以研究。

注:
本文只说明思路,具体代码由于一些原因暂时不开放
阅读(1130) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~