Chinaunix首页 | 论坛 | 博客
  • 博客访问: 586406
  • 博文数量: 201
  • 博客积分: 3076
  • 博客等级: 中校
  • 技术积分: 2333
  • 用 户 组: 普通用户
  • 注册时间: 2009-08-02 19:44
文章分类

全部博文(201)

文章存档

2010年(118)

2009年(83)

我的朋友
vtc

分类:

2010-03-06 14:28:22

http://blog.sina.com.cn/s/blog_510edec10100fslw.html


上次听Herbert Xu提过kernel networking对虚拟化技术所做的优化,今天去Intel官网上查了一下,果然也是主推这个,附上一篇转载的文章简要介绍一下思路。

http://blog.zol.com.cn/1379/article_1378665.html


Optimized for Virtualization对虚拟化技术的优化

The Intel Gigabit ET and EF Multi-Port Server Adapters showcase the latest virtualization technology called Intel® Virtualization Technology for Connectivity (Intel® VT for Connectivity). Intel VT for Connectivity is a suite of hardware assists that improve overall system performance by lowering the I/O overhead in a virtualized environment. This optimizes CPU usage, reduces system latency, and improves I/O throughput.

Intel千兆ET/EF多端口服务器网卡展示了最新的虚拟化技术,被称作英特尔虚拟化互联技术,简称Intel VT for Connectivity。这是一系列在虚拟环境下通过降低I/O的开销帮助改进系统总体性能的硬件产品,英特尔虚拟化互联技术优化CUP的效能,降低系统的延迟,改进I/O的吞吐量。

Intel VT for Connectivity includes:

• Virtual Machine Device Queues (VMDq)

• Intel® I/O Acceleration Technology1 (Intel® I/OAT)

• PCI-SIG Single Root I/O Virtualization (PCI-SIG SR-IOV)

英特尔虚拟化互联技术包括:

虚拟机器装置队列(VMDq

英特尔I/O加速技术(Intel I/OAT

PCI-SIG 单根I/O虚拟化(PCI-SIG SR-IOV

Use of multi-port adapters in a virtualized environment is very important because of the need to provide redundancy and data connectivity for the applications/workloads in the virtual machines. Due to slot limitations and the need for redundancy and data connectivity, it is recommended that a virtualized physical server needs at least six GbE ports to satisfy the I/O requirement demands.

因为需要为虚拟机的应用和负载提供冗余和数据连接,在虚拟环境下使用多端口的适配器是非常重要的。鉴于槽位的限制与冗余以及数据连接的需要,推荐使用虚拟化的实体服务器,需要至少六个GbE端口来满足I/O的需求。

 

Virtual Machine Device queues (VMDq) 虚拟机器装置队列

VMDq reduces I/O overhead on the hypervisor in a virtualized server by performing data sorting and coalescing in the network silicon.2 VMDq technology makes use of multiple queues in the network controller. As data packets enter the network adapter, they are sorted, and packets traveling to the same destination (or virtual machine) get grouped together in a single queue. The packets are then sent to the hypervisor, which directs them to their respective virtual machines. Relieving the hypervisor of packet filtering and sorting improves overall CPU usage and throughput levels. This new generation of PCIe Intel® Gigabit adapters provides improved performance with the next-generation VMDq technology, which includes features such as loop back functionality for inter-VM communication, priority-weighted bandwidth management, and doubling the number of data queues per port from 4 to 8. It now also supports multicast and broadcast data on a virtualized server.

VMDq通过在网络芯片中执行数据排序和合并降低了虚拟服务器中虚拟机管理程序上I/O的开销。VMDq技术利用网络控制器中的多队列技术。当数据包进入网络适配器是,他们是有序的,并且在一个单一队列里成群结队的朝着同一个目的地(或者虚拟机)前进。接着,数据包被送到将指挥他们到各自的虚拟机的管理程序。降低过滤和排序数据包的管理程序的压力,总体上改进了CPU的使用率和处理能力。新一代PCI Intel千兆网卡通过运用新一代VMDq技术提供了更好的性能,包括如inter-VM通讯的回送功能,等级优先带宽管理和来自端口48的数据队列的数字翻倍等特性。也支持在虚拟服务器上进行多点传送和广播传送数据。

Intel® I/O Acceleration Technology  Intel I/O加速技术

Intel I/O Acceleration Technology (Intel I/OAT) is a suite of features that improves data acceleration across the platform, from networking devices to the chipset and processors, which help to improve system performance and application response times.The different features include Intel QuickData Technology, Direct Cache Access (DCA), MSI-X, Low-Latency Interrupts, Receive Side Scaling (RSS), and others. Intel QuickData Technology, a DMA engine, moves data using the chipset instead of the CPU.

DCA enables the adapter to pre-fetch data from the memory cache, thereby avoiding cache misses and improving application response times. MSI-X helps in load-balancing I/O interrupts across multiple processor cores, and Low Latency Interrupts can provide certain data streams a non-modulated path directly to the application. RSS directs the interrupts to a specific processor core based on the application’s address.

Intel I/O加速技术是一系列改进数据从网络设备到芯片和处理器跨平台传输速度的特性,帮助改进系统性能和应用的反应时间,包括Intel QuickData技术,Cache直接访问(DCA),MSI-X,低延迟中断,接收端调整(RSS)等特性。Intel QuickData技术,一种直接存储器存取引擎,用芯片代替CPU移动数据。DCA能让网卡从Cache预读取数据从而避免Cache错过,并改进应用的响应时间。MSI-X有助于多核处理器之间I/O中断的负载均衡,而低延迟中断能为某些数据流提供一个未调制的路径直接到应用。RSS根据应用的地址将中断指向特定的处理器内核。

 

PCI-SIG SR-IOV PCI-SIG单根I/O虚拟化技术

PCI-SIG SR-IOV implementation helps direct connectivity from the adapter to the virtual machines in order to provide near-native performance. PCI-SIG SR-IOV offers a standard mechanism for I/O devices such as network ports to advertise their ability to be simultaneously shared among multiple virtual machines. Each virtual machine is assigned its own virtual network port. By offloading this connectivity functionality to the adapter, you improve CPU usage and reduce latency.

为了表现出接近本机的性能,启用PCI-SIG 单根虚拟化技术有助于从网卡到虚拟机的直接互联。PCI-SIG单根虚拟化技术为网络端口等I/O设备提供了一套标准机制在多个虚拟机中同时共享他们的处理能力。分配给每个虚拟机一个自己的虚拟网络端口。通过将互联功能转移到网卡上,借以改进CPU的效能,降低延迟。

3

The new Intel dual- and quad-port Gigabit adapters are hardware ready for PCI-SIG SR-IOV functionality and provide functionality for future enablement of PCI-SIG SR-IOV in virtualization OS software.

新的Intel/四端口千兆网卡是一款已经具有PCI-SIG SR-IOV功能的硬件产品,并为未来该功能在虚拟化操作系统中的应用的可能性做好了准备。

-------------------------------------------------------------------------------------

英特尔的VT-x、VT-d、VT-c技术概述

英特尔VT具体包括分别针对处理器、芯片组、网络的VT-X、VT-D和VT-C技术。

处理器:英特尔虚拟化技术(英特尔VT-x),包括英特尔虚拟化灵活迁移技术(Intel VT FlexMigration)、英特尔VT FlexPriority、英特尔VT 扩展页表(Extended Page Tables)

芯片组:英特尔支持直接 I/O 访问的 VT虚拟化技术(英特尔VT-d)

网络:支持连接的英特尔虚拟化技术(英特尔VT-c),包括虚拟机设备队列(VMDq)、 虚拟机直接互连(VMDc)

英特尔将硬件辅助虚拟化集成到所有主要的服务器组件中,帮助 IT 机构在每台服务器上整合更多的应用和更繁重的工作负载,从而进一步提高灵活性、可靠性并降低 TCO。

处理器:英特尔VT-x

英特尔处理器内更出色的虚拟化支持英特尔VT-x 有助于提高基于软件的虚拟化解决方案的灵活性与稳定性。通过按照纯软件虚拟化的要求消除虚拟机监视器(VMM)代表客户操作系统来听取、中断与执行特定指 令的需要,不仅能够有效减少 VMM 干预,还为 VMM 与客户操作系统之间的传输平台控制提供了有力的硬件支持,这样在需要 VMM干预时,将实现更加快速、可靠和安全的切换。

此外,英特尔VT-x 具备的虚拟机迁移特性还可为您的 IT 投资提供有力保护,并进一步提高故障切换、负载均衡、灾难恢复和维护的灵活性:

--英特尔VT FlexPriority:当处理器执行任务时,往往会收到需要注意的其它设备或应用发出的请求或“中断”命令。为了最大程度减少对性能的影响,处理器内 的一个专用寄存器(APIC任务优先级寄存器,或 TPR)将对任务优先级进行监控。如此一来,只有优先级高于当前运行任务的中断才会被及时关注。

英特尔FlexPriority 可创建 TPR6 的一个虚拟副本,该虚拟副本可读取,在某些情况下,如在无需干预时,还可由客户操作系统进行更改。上述举措可以使频繁使用 TPR 的 32 位操作系统获得显著的性能提升。(例如,能够将在 Windows Server* 2000上运行的应用的性能提高 35%。)

--英特尔虚拟化灵活迁移技术(Intel VT FlexMigration):虚拟化的一个重要优势是能够在无需停机的情况下,将运行中的应用在物理服务器之间进行迁移。英特尔虚拟化灵活迁移技术 (Intel VT FlexMigration)旨在实现基于英特尔处理器的当前服务器与未来服务器之间的无缝迁移,即使新的系统可能包括增强的指令集也不例外。借助此项技 术,管理程序能够在迁移池内的所有服务器中建立一套一致的指令,实现工作负载的无缝迁移。这便生成了可在多代硬件中无缝运行的更加灵活、统一的服务器资源 池。

芯片组:英特尔VT-d

英特尔芯片组内更出色的虚拟化支持由于每台服务器上整合了更多的客户操作系统,数据进出系统的传输量(I/O 流量)有所增加并且更趋复杂。如果没有硬件辅助,虚拟机监视器(VMM)必须直接参与每项 I/O 交易。这不仅会减缓数据传输速度,还会由于更频繁的 VMM 活动而增大服务器处理器的负载。这就如同在一个繁忙的购物中心,每位顾客都不得不通过一个门进出该中心,并且只能从中心经理那里得到指示。这样不仅会耽误 顾客的时间,也会使经理无法处理其它紧急事件。

英特尔VT-d 通过减少 VMM 参与管理 I/O 流量的需求,不但加速了数据传输,而且消除了大部分的性能开销。这是通过使 VMM将特定 I/O 设备安全分配给特定客户操作系统来实现的。每个设备在系统内存中都有一个专用区域,只有该设备及其分配的客户操作系统才能对该区域进行访问。

完成初始分配之后,数据即可直接在客户操作系统与为其分配的设备之间进行传输。这样,I/O 流量的流动将更加迅速,而减少的 VMM 活动则会进一步缩减服务器处理器的负载。此外,由于用于特定设备或客户操作系统的 I/O 数据不能被其它任何硬件或客户软件组件访问,系统的安全性与可用性也得到了进一步增强。

网络:英特尔 VT-c

英特尔I/O 设备内更出色的虚拟化支持随着企业在虚拟化环境中部署越来越多的应用,并利用实时迁移来节省功率或提升可用性,对虚拟化 I/O 设备的要求也在显著提高。通过将广泛的硬件辅助特性集成到 I/O 设备(该设备用于保持服务器与数据中心网络、存储基础设施及其它外部设备的连接)中,英特尔VT-c 可针对虚拟化进一步优化网络。从本质上来说,这套技术组合的功能与邮局非常相似:将收到的信件、包裹及信封分门别类,然后投递到各自的目的地。通过在专用 网络芯片上执行这些功能,英特尔VT-c 大幅提高了交付速度,减少了 VMM 与服务器处理器的负载。英特尔VT-c 包括以下两项关键技术(当前所有的英特尔万兆位服务器网卡及选定的英特尔千兆位服务器网卡均可支持):

--借助虚拟机设备队列(VMDq)最大限度提高 I/O 吞吐率:在传统服务器虚拟化环境中,VMM 必须对每个单独的数据包进行分类,并将其发送到为其分配的虚拟机。这样会占用大量的处理器周期。而借助 VMDq,该分类功能可由英特尔服务器网卡内的专用硬件来执行,VMM 只需负责将预分类的数据包组发送到适当的客户操作系统。这将减缓 I/O 延迟,使处理器获得更多的可用周期来处理业务应用。英特尔VT-c可将 I/O 吞吐量提高一倍以上,使虚拟化应用达到接近本机的吞吐率。每台服务器将整合更多应用,而 I/O 瓶颈则会更少。

--借助虚拟机直接互连(VMDc)大幅提升虚拟化性能:借助PCI-SIG 单根 I/O 虚拟化(SR-IOV)标准,虚拟机直接互连(VMDc)支持虚拟机直接访问网络 I/O 硬件,从而显著提升虚拟性能。如前所述,英特尔VT-d 支持客户操作系统与设备I/O 端口之间的直接通信信道。通过支持每个 I/O 端口的多条直接通信信道,SR-IOV 可对此进行扩展。例如,通过单个英特尔万兆位服务器网卡,可为 10 个客户操作系统中的每个操作系统分配一个受保护的、1 Gb/秒的专用链路。这些直接通信链路绕过了 VMM 交换机,可进一步提升 I/O 性能并减少服务器处理器的负载。
阅读(620) | 评论(0) | 转发(0) |
0

上一篇:lookupfile

下一篇:vt-d note

给主人留下些什么吧!~~