Chinaunix首页 | 论坛 | 博客
  • 博客访问: 1264468
  • 博文数量: 404
  • 博客积分: 10011
  • 博客等级: 上将
  • 技术积分: 5382
  • 用 户 组: 普通用户
  • 注册时间: 2008-09-03 16:29
文章存档

2010年(40)

2009年(140)

2008年(224)

我的朋友

分类: LINUX

2008-12-18 13:00:51

一、 前言
  在 Linux 2.6.x 内核中,调度性能的改进是其中最引人注目的一部分[1]。NPTL(Native Posix Thread Library)[2]使用内核的新特性重写了 Linux 的线程库,取代历史悠久而备受争议的 LinuxThreads[3] 成为 glibc 的首选线程库。
  
  NPTL 的性能究竟如何?相对 LinuxThreads 又有哪些明显的改进?在对NPTL进行全面分析之前,本文针对这两种线程库,以及内核中"内核可抢占"(Preemptible)和超线程(HyperThreading)[4]等特性进行了全面的性能评测,结果表明NPTL绝对值得广大服务器系统期待和使用。
  
  二、 Benchmark
  1. 测试平台
  进行本测试的硬件平台为浪潮NF420R服务器[7],4个Hyperthreading-enabled Intel Xeon 2.2G处理器,4G内存。Linux选择了Slackware 9.0发行版[8],所使用的内核源码来。
  
  2. 针对测试:LMBench
  lmbench是一个用于评价系统综合性能的多平台开源benchmark[5],但其中没有对线程的支持。其中有两个测试进程性能的 benchmark:lat_proc用于评测进程创建和终止的性能,lat_ctx用于评测进程切换的开销。lmbench拥有良好的 benchmark结构,只需要修改具体的Target程序(如lat_proc.c和lat_ctx.c),就可以借用lmbench的计时、统计系统得到我们关心的线程库性能的数据。
  
  基于lat_proc和lat_ctx的算法,本文实现了lat_thread和 lat_thread_ctx两个benchmark。在lat_thread中,lat_proc被改造成使用线程,用pthread_create ()替代了fork(),用pthread_join()替代wait();在lat_thread_ctx中,沿用lat_ctx的评测算法(见 lat_ctx手册页),将创建进程的过程改写为创建线程,仍然使用管道进行通信和同步。
  
  lat_thread null
  
  null参数表示线程不进行任何实际操作,创建后即刻返回。
  
  lat_thread_ctx -s #threads
  
  size参数与lat_ctx定义相同,可表示线程的大小(实际编程时为分配K数据;#threads参数为线程数,即参与令牌传递的线程总数,相当于程序负载情况。
  
  3. 综合测试:Volanomark
  volanomark是一个纯java的benchmark,专门用于测试系统调度器和线程环境的综合性能[6],它建立一个模拟 Client/Server方式的Java聊天室,通过获取每秒平均发送的消息数来评测宿主机综合性能(数值越大性能越好)。Volanomark测试与 Java虚拟机平台相关,本文使用Sun Java SDK 1.4.2作为测试用Java平台,Volanomark版本2.5.0.9。
  
  三、 测试结果
  测试计划中将内核分为2.4.26、2.6.6/支持内核抢占和2.6.6/不支持内核抢占三类;通过配置内核以及NF420R的BIOS实现三类 SMP规模:单处理机(UP)、4CPU的SMP(SMP4)和打开超线程支持的虚拟8CPU SMP(SMP8*)。内核配置和SMP规模的每一种组合都针对LinuxThreads和NPTL使用lat_thread、 lat_thread_ctx和volanomark获取一组数据。由于NPTL无法在2.4.x内核上使用,该项数据空缺。
  
 

  
  四、 结果分析
  1. LinuxThreads vs NPTL:线程创建/销毁开销
  使用2.6.6/preemptible内核配置下UP和SMP4的测试数据获得下图:
  
  图1
  
 

  
  在线程创建/销毁开销方面,NPTL的改进相当明显(降低约600%)。实际上,NPTL不再像LinuxThreads那样需要使用用户级的管理线程来维护线程的创建和销毁[9],因此,很容易理解它在这方面的开销能够大幅度降低。
  
  同时,由图可见,单CPU下创建线程总是比多CPU下迅速。
  
  2. LinuxThreads vs NPTL:线程切换开销
  同样使用2.6.6/preemptible内核配置下UP和SMP4的数据:
  
  图2
  
 

  
  随着lat_thread_ctx的参与线程增多,不管是哪个线程库,单处理机条件下的线程切换开销都陡峭上升,而SMP条件下则上升比较平缓。在这方面,LinuxThreads和NPTL表现基本相同。
  
  3. 内核影响
  
  
  图3
  
 

  
  图4
  
 

  
  图5
  
 

  
  图6
  
 

  
  从上面四张图中我们可以得出两点结论:
  
  "内核可抢占"是Linux对实时应用提供更好支持的有力保障,但对线程性能影响很小,甚至有一点损失,毕竟抢占锁的开销不可忽略;
  升级内核并不会对LinuxThreads线程库性能带来多少变化,因此,对于服务器系统而言,不能指望仅仅编译使用新内核就能提高性能。
  图7
  
 

  
  图8
  
 

  
  从图3、图4我们已经知道,打开超线程支持对线程创建/销毁性能几乎没有影响,而这两张图表也进一步说明,超线程技术对于线程切换开销也没有明显的影响。超线程技术是CPU内部的优化技术,和真正的双CPU完全不同。大量研究表明,如果没有内核与用户应用相结合的专门优化措施,超线程并不会带来很大的性能变化。除非是高负载综合服务器系统(例如繁忙的数据库系统),购买超线支持的CPU并不能带来多少好处。
  
  4. 综合性能
  
  图9
  

  前面几节分析让我们了解了线程库性能改进的细节,通过volanomark测试,我们可以近似得到在综合应用环境下,特别是网络服务需求中线程库以及内核对系统整体性能的影响程度。
  
  图9综合了不同内核、不同处理机数条件下,两种线程库的volanomark结果。从图中可以观察到以下三点:
  
  NPTL能极大提高SMP环境下服务器系统的整体性能(超过65%),相对而言,对单处理机系统影响较小(10%左右);
  2.6内核的抢占特性对系统性能影响很小(不超过±1%),某些情况下甚至有所下降;
  超线程技术在LinuxThreads中的影响是负面的,在NPTL中是正面的,但影响幅度都很小(5%-6%)。
  以上结论中前两点与LMBench针对性测试结果完全吻合,第三点的偏差实际上反映了超线程技术对于综合服务器环境还是有一定加速的。
  
  五、 总结
  我们的评测为广大Linux用户,特别是服务器用户提供了一点有价值的参考:
  
  如果你的是多处理机系统,那么毫不犹豫地升级你的内核,并记住,一定要同时升级你的线程库,它通常与glibc紧密耦合;
  如果你的系统并没有实时应用,不要打开"内核可抢占"开关,它只会让你的系统更慢;
  慎重考虑是否使用超线程技术,即使你已经购买了支持超线程的CPU,有时关闭它可能更适合你的需求。
阅读(689) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~