Chinaunix首页 | 论坛 | 博客
  • 博客访问: 173959
  • 博文数量: 31
  • 博客积分: 1075
  • 博客等级: 少尉
  • 技术积分: 215
  • 用 户 组: 普通用户
  • 注册时间: 2008-04-01 17:51
个人简介

1

文章分类

全部博文(31)

文章存档

2013年(1)

2012年(4)

2010年(26)

我的朋友

分类: LINUX

2010-04-28 14:52:44

简单的linux epoll服务器开发

    鉴于poll select的弱势--在线人数的线形递增而导致呈二次乃至三次方的下降,这些直接导致了网络服务器可以支持的人数有了个比较明显的限制。 epoll在linux内核2.6被开发出来,经过测试,运行稳定,已经成为现在主流的select模式。

    epoll用到的所有函数都是在头文件sys/epoll.h中声明的,函数及其说明如下:

    1:epoll_create函数
函数声明:int epoll_create(int size)
该函数生成一个epoll专用的文件描述符。在内核中申请一空间,用来存放感兴趣的socket链接的事件,size为能关注的最大事件数。

    2、epoll_ctl函数
函数声明:int epoll_ctl(int epfd, int op, int fd, struct epoll_event *event)
该函数用于控制某个epoll文件描述符上的事件,可以注册事件(EPOLL_CTL_ADD),修改事件(EPOLL_CTL_MOD),删除事件(EPOLL_CTL_DEL)。
参数:
epfd:由 epoll_create 生成的epoll专用的文件描述符;在epoll_ctl中添加修改或者删除。fd:关联的文件描述符;
event:指向epoll_event的指针;
如果调用成功返回0,不成功返回-1
   

    3、epoll_wait函数
函数声明:int epoll_wait(int epfd, struct epoll_event *events, int maxevents, int timeout);用于等待发生的事件,timeout为-1的时候为无限制等待(阻塞)而为0的时候为不等待(非阻塞),其他的参数和上面的参数基本相同。
数据结构模式如下:typedef union epoll_data{

void *ptr; int fd; __uint32_t u32; __uint64_t u64;}

struct epoll_event ( __uint32_t events; epoll_data_t data;};

主要用于tcp这种基于连接的事件,对于udp基于包流,不建立连接的服务,一般用不上epoll模型。

下面是伪代码:

#include "tcpudpserver.h"

int main()
{
 if ((iEpollfd = epoll_create(MAXFD)) < 0) //建立epoll
 {
  perror("epoll create");
  exit(0);
 }
 
 iListener = BindSockAddr(SOCK_STREAM, 9131, NULL, &iListenSock);
 //创建socket
 EpollAdd(iListener, &iEpollfd);

//把创建好的socket加入epoll关注事件中
 uiSocklen = sizeof(stClitAddr); 

 while(1)
 { 
  iNfds = epoll_wait(iEpollfd, event, 50, -1);
//相当于阻塞的方式,注意timeout为毫秒级,如果为5,相当于5毫秒,而不是5秒

第三个参数为事件的数目。

  if(iNfds < 0)
  {
   perror("epoll wait");
   exit(0);
  }

  for(i=0; i  {
   if(event[i].data.fd == iListener)
   {
    iConnfd = accept(iListener, (SA*)&stClitAddr, &uiSocklen);
//accept一个连接,下面将连接加入epoll event事件中

    if(iConnfd < 0)
    {
     perror("accept");
     continue;
    }
    EpollAdd(iConnfd, &iEpollfd);
   }
   else
   { //不是一个新的连接,就解析socket的包
    n = read (event[i].data.fd, recvline, sizeof(recvline));
    LogFile(FileName,"The read bytes number is:%d\n",n);
    if(0 == n)
    { //如果收到的数据为零,且为一个socket事件,则socket关闭,即close连接,

//删除事件,这一步很容易出现问题,要注意,如果不删除该事件,这里将会产生一个死循环,epoll有close的事件,但是下面没有对epoll关闭的事件,于是epoll认为又是一个事件,重新得到该close事件,继续循环

     EpollDel(event[i].data.fd, &iEpollfd);
     Close(event[i].data.fd);
     continue;
    }
    DealTcpPkt(event[i].data.fd, &stTickOrigin,recvline,n);

// 
   }
  }
 }
 close(iListener);
 exit(0);
//循环最后退出,关闭iListener,不是必要的,因为exit将自动关闭所有连接。

}

    epoll和传统的select的区别在于epoll是轮询一遍关注的事件,看有没有事件发生,而另外一个是等待有事件发生的时候通知该发生的事件。理解了该模式,就很好理解为什么epoll效率高了。不用一遍一遍的轮询,而是等待事件。

   呵呵UNIX网络编程写的时候还没有该模式,在游戏和IM方面应用的很广泛,对于大容量,高并发性能要求很高的服务器,很多已经改成用epoll模式来改进性能。

阅读(2233) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~