当前位置:文档之家› 硬件虚拟化技术浅析

硬件虚拟化技术浅析

硬件虚拟化技术浅析
硬件虚拟化技术浅析

硬件虚拟化技术浅析

====================================

目录

1 硬件虚拟化技术背景

2 KVM的内部实现概述

2.1 KVM的抽象对象

2.2 KVM的vcpu

2.3 KVM的IO虚拟化

2.3.1 IO的虚拟化

2.3.2 VirtIO

3 KVM-IO可能优化地方

3.1 Virt-IO的硬盘优化

3.2 普通设备的直接分配(Direct Assign)

3.3 普通设备的复用

===================================

1 硬件虚拟化技术背景

硬件虚拟化技术通过虚拟化指令集、MMU(Memory Map Unit)以及IO来运行不加修改的操作系统。

传统的处理器通过选择不同的运行(Ring 特权)模式,来选择指令集的范围,内存的寻址方式,中断发生方式等操作。在原有的Ring特权等级的基础上,处理器的硬件虚拟化技术带来了一个新的运行模式:Guest模式[1],来实现指令集的虚拟化。当切换到Guest模式时,处理器提供了先前完整的特权等级,让Guest 操作系统可以不加修改的运行在物理的处理器上。Guest与Host模式的处理器上下文完全由硬件进行保存与切换。此时,虚拟机监视器(Virtual Machine Monitor)通过一个位于内存的数据结构(Intel称为VMCS, AMD称为VMCB)来控制Guest系统同Host系统的交互,以完成整个平台的虚拟化。

传统的操作系统通过硬件MMU完成虚拟地址到物理地址的映射。在虚拟化环境中,Guest的虚拟地址需要更多一层的转换,才能放到地址总线上:

Guest虚拟地址 -> Guest物理地址 -> Host物理地址

^ ^

| |

MMU1 MMU2

其中MMU1可以由软件模拟(Shadow paging中的vTLB)或者硬件实现(Intel EPT、AMD NPT)。MMU2由硬件提供。

系统的IO虚拟化技术,通常是VMM捕捉Guest的IO请求,通过软件模拟的传统设备将其请求传递给物理设备。一些新的支持虚拟化技术的设备,通过硬件技术(如Intel VT-d),可以将其直接分配给Guest操作系统,避免软件开销。

[1]X86处理器的生产厂商有自己的称谓,比如英特尔将Guest模式称为non-root operation,与之相对的是root operation,本文称为host模式。

2 KVM的内部实现概述

KVM是Linux内核的一个模块,基于硬件虚拟化技术实现VMM的功能。该模块的工作主要是通过操作与处理器共享的数据结构来实现指令集以及MMU的虚拟化,捕捉Guest的IO指令(包括Port IO和mmap IO)以及实现中断虚拟化。至于IO 设备的软件模拟,是通过用户程序QEMU来实现的。QEMU负责解释IO指令流,

并将其请求换成系统调用或者库函数传给Host操作系统,让Host上的驱动去完成真正的IO操作。她们之间的关系如下图所示:

+--------------+ +--------+

| Qemu | | |

| | | |

| +---+ +----+| | Guest |

| |vHD| |vNIC||<-----+ | |

| +---+ +----+| | | |

+--------------+ | +--------+

^ | ^

| syscall |IO stream |

| via FDs | |

+----|----------------|------------|--------+

| | | v |

| v | +----------+ |

| +--------+ +------>| | |

| |drivers |<--+ | kvm.ko | |

| +--------+ | +----------+ |

| ^ | Host kernel |

+----|----------|---------------------------+

v v

+--------+ +---+

| HDD | |NIC|

+--------+ +---+

图 1

从Host操作系统的角度来看,KVM Guest操作系统相当于一个进程运行在系统上,普通的命令如kill、top、taskset等可以作用于该Guest。该进程的用户

虚拟空间就是Guest的物理空间,该进程的线程对应着Guest的处理器。

从Qemu的角度来看,KVM模块抽象出了三个对象,她们分别代表KVM自己,Guest 的虚拟空间以(VM)及运行虚拟处理器(VCPU)。这三个对象分别对应着三个文件描述符,Qemu通过文件描述符用系统调用IOCTL来操作这三个对象,同KVM交互。此时,Qemu主要只模拟设备,她以前的CPU 和MMU的模拟逻辑都被kvm.ko 取代了。

2.1 KVM的抽象对象

KVM同应用程序(Qemu)的交互接口为/dev/kvm,通过open以及ioctl系统调用可以获取并操作KVM抽象出来的三个对象,Guest的虚拟处理器(fd_vcpu[N]), Guest的地址空间(fd_vm), KVM本身(fd_kvm)。其中每一个Guest可以含有多个vcpu,每一个vcpu对应着Host系统上的一个线程。

Qemu启动Guest系统时,通过/dev/kvm获取fd_kvm和fd_vm,然后通过fd_vm 将Guest的“物理空间”mmap到Qemu进程的虚拟空间,并根据配置信息创建vcpu[N]线程,返回fd_vcpu[N]。然后Qemu将操作fd_vcpu在其自己的进程空间mmap一块 KVM的数据结构区域。该数据结构(下图中的shared)用于同kvm.ko 交互,包含Guest的IO信息,如端口号,读写方向,内存地址等。 Qemu通过这些信息,调用虚拟设备注册的回调函数来模拟设备的行为,并将Guest IO请求换成系统请求发送给Host系统。由于Guest的地址空间已经映射到Qemu的进程空间里面,Qemu的虚拟设备逻辑可以很方便的存取 Guest地址空间里面的数据。三个对象之间的关系如下图所示:

+----------+ | +--------+

| Qemu | Host user | | |

| | | | |

| | | | Guest |

| +------+| | | user |

| |shared|| | | |

| +------+| | | |

| ^ | | | |

+-------|--+ | | |

| | | | |

fds| | | | |

------|---|---------------| |--------|

| | | | |

v v Host kernel | | Guest |

+---------+ | | kernel |

| | | | |

| kvm.ko |----+ | | |

| | |fd_kvm | | |

+---------+ | | +--------+

v ^

+----+ fd_vm |

|vmcs|----+--------------

+------+ +----+ | +------+

| host | | | Guest|

| mode | |fd_vcpu | mode |

+------+ | +------+

^ v ^

| +-------+ |

| vm exit | Phy | vm entry|

+-------------| CPU |---------+

+-------+

图 2

图中vm-exit代表处理器进入host模式,执行kvm和Qemu的逻辑。vm-entry 代表处理器进入Guest模式,执行整个Guest系统的逻辑。如图所示,Qemu通过三个文件描述符同kvm.ko交互,然后kvm.ko通过vmcs这个数据结构同处理器交互,最终达到控制Guest系统的效果。其中fd_kvm主要用于Qemu同KVM 本身的交互,比如获取KVM的版本号,创建地址空间、vcpu等。fd_vcpu主要用于控制处理器的模式切换,设置进入Guest mode前的处理器状态等等(内存寻址模式,段寄存器、控制寄存器、指令指针等),同时Qemu需要通过fd_vcpu 来mmap一块KVM的数据结构区域。fd_vm主要用于Qemu控制Guest的地址空间,向Guest注入虚拟中断等。

2.2 KVM的vcpu

如前文所述,KVM的vcpu对应着host系统上的一个线程。从Qemu的角度来看,她运行在一个loop中:

for (;;) {

kvm_run(vcpu);

switch (shared_data->exit_reason) {

...

case KVM_IO:

handle_io(vcpu);

break;

case KVM_MMIO:

handle_mmio(vcpu);

break;

...

}

}

该线程同Guest的vcpu紧密相连。如果我们把线程的执行看作Guest vcpu的一部分,那么从Host的角度来看,该vcpu在三种不同的上下文中运行:Host user/Host kernel/Guest,将运行于一个更大的循环当中。该vcpu的运行逻辑如下图:

Host user | Host kernel | Guest mode |

| | |

| | |

+->kvm_run(vcpu)-------+ | |

| | v | |

| | +->vm entry----------+ |

| | | | v |

| | | | Execute |

| | | | Natively |

| | | | | |

| | | vm exit<----------+ |

| | | | | |

| | | | | |

| Yes | | v | |

| +----------------I/O ? | |

| | | | | No | |

| | | | | | |

| | | | v | |

| v Yes | | Signal | |

+--Handle IO<---------Pending? | |

| | | No | |

| +----+ | |

图 3

实际上,在host上通过ps命令看到的关于vcpu这个线程的运行时间正是这三种上下文的总和。

2.3 KVM的IO虚拟化

2.3.1 IO的虚拟化

传统系统中,设备都直接或间接的挂在PCI总线上。PCI设备通过PCI配置空间以及设备地址空间接收操作系统的驱动请求和命令,通过中断机制通知反馈操作系统。配置空间和设备地址空间都将映射到处理器Port空间或者操作系统内存空间中,所以设备的软件模拟需要VMM将相关的Guest PIO和MMIO请求截获,通过硬件虚拟化提供的机制将其传送给软件。模拟软件处理完后再通过VMM提供的虚拟中断机制反馈Guest。如下图所示:

+-----------------------------------+

| +--------------+ |

| | PCI config | +----------+ |

| +--------------+<--->| driver | |

| +--------------+<--->| | |

| | Device memory| +----------+ |

| +--------------+ ^ |

| ^ | |

+-------|--------------------|------+

| | vINTR via VMM

PIO/MMIO via VMM| +----------+

v |

+------------------------+

| +--------+ +--------+ |

| | PCI | | Device | |

| | config | | memory | | Virtual Device

| +--------+ +--------+ |

+------------------------+

|

v

+------------+

|host driver |

+------------+

图 4

虚拟设备的软件逻辑放在用户层也可以放在内核中。完全的虚拟设备模拟,可以处理在Guest中不加修改的驱动请求。通常这将消耗大量的处理器cycle去模拟设备。如果可以修改或者重写Guest的驱动代码,那么虚拟设备和驱动之间的IO接口可以根据虚拟化的特性重新定义为更高层更加高效的接口,如下图所示:

+----------------+

| |

| +-----------+ |

| |para-driver| |

| +-----------+ |

+-------^--------+

|

| new I/O interface via VMM

v

+---------+

|Virtual |

|device |

+---------+

|

v

+------------+

|host driver |

+------------+

图 5

KVM的virtio正是通过这种方式提供了高速IO通道。

除了软件模拟,现有的硬件虚拟化技术还可以将一些支持虚拟化技术的新兴硬件直接分配给Guest。除了需要支持虚拟化技术的硬件(可以发起 remmappable的MSI中断请求),设备的直接分配一般还需要主板上的芯片以及CPU支持,比如英特尔的VT-d技术。支持虚拟化技术的硬件平台主要做两件事,一个是DMA Remapping,将DMA请求中的Guest的物理地址映射到Host的物理地址,另一个是中断Remapping,将能remappable的中断请求根据由VMM设置,位于内存的IRT(Interrupt Remapping Table)发送到指定的vcpu上。

PC平台上,通常北桥(或者类似结构的root-complex)连接着CPU、内存以及外设。用于DMA Remapping和中断Remapping的硬件逻辑位于北桥中。如下所示:

+-------------+

|cpu0, cpu1...|

+-------------+

^

| <-- System Bus

| |

v v

+---------------------+

| North Bridge |

| | +--------+

| +--------+ |<----->| Memory |

| | vt-d | | +--------+

| +--------+ |

+---------------------+

^ ^

| |

v v

+--------+ +--------+

| PCI-e | | South |<-----> PCI legacy devices...

| device | | Bridge |

+--------+ +--------+

图 6

目前,只有支持MSI的PCI/PCI-e设备才能直接分配给Guest。其中PCI-e设备可以直接与北桥相连或者桥连,然后单独分配给一个 Guest。在一个桥后的所有的桥连PCI设备只能作为一个整体分配给一个Guest。KVM在硬件虚拟化的平台上支持PCI-e/PCI设备的直接分配。

2.3.2 VirtIO

VirtIO为Guest和Qemu提供了高速的IO通道。Guest的磁盘和网络都是通过VirtIO来实现数据传输的。由于Guest的地址空间 mmap到Qemu的进程空间中,

VirtIO以共享内存的数据传输方式以及半虚拟化(para-virtualized)接口为Guest提供了高效的硬盘以及网络IO性能。其中,KVM为VirtIO设备与Guest 的VirtIO驱动提供消息通知机制,如下图所示:

+---------------+

| Qemu |

| +--------+ | +-------------------+

| | VirtIO | | | +---------+ |

| | Device | | | | VirtIO | Guest |

| +--------+ | | | Driver | |

+------|--^-----+ | +---------+ |

| | +---|---^-----------+

irqfd | | PIO | |

fd_vm | |ioeventfd | |vInterrupt

---------|--|------------------|---|------------

v | v |

+----------+ +--------------+ Host

| eventfd |<------->| KVM.ko | kernel

| core | | |

+----------+ +--------------+

图 7

如图所示,Guest VirtIO驱动通过访问port空间向Qemu的VirtIO设备发送IO 发起消息。而设备通过读写irqfd或者IOCTL fd_vm通知Guest驱动IO完成情况。irqfd和ioeventfd是KVM为用户程序基于内核eventfd机制提供的通知机制,以实现异步的 IO处理(这样发起IO请求的vcpu将不会阻塞)。之所以使用PIO而不是MMIO,是因为

KVM处理PIO的速度快于MMIO。

3 KVM-IO可能优化地方

3.1 Virt-IO的硬盘优化

从图1中可以看到,Guest的IO请求需要经过Qemu处理后通过系统调用才会转换成Host的IO请求发送给Host的驱动。虽然共享内存以及半虚拟化接口的通信协议减轻了IO虚拟化的开销,但是Qemu与内核之间的系统模式切换带来的开销是避免不了的。

目前Linux内核社区中的vhost就是将用户态的Virt-IO网络设备放在了内核中,避免系统模式切换以及简化算法逻辑最终达到IO减少延迟以及增大吞吐量的目的。如下图所示:

+-------------------+

| +---------+ |

| | VirtIO | Guest |

| | Driver | |

| +-----+---+ |

+---|---^-----------+

PIO | |

| | vInterrupt

------------------------------|---|--------------

v |

+----------+ +--------------+ Host

| Vhost |<------->| KVM.ko | kernel

| net | | |

+----^-----+ +--------------+

|

|

+---v----+

| NIC |

| Driver |

+--------+

图 8

目前KVM的磁盘虚拟化还是在用户层通过Qemu模拟设备。我们可以通过vhost 框架将磁盘的设备模拟放到内核中达到优化的效果。

3.2 普通设备的直接分配(Direct Assign)

如前文所述,目前只有特殊的PCI设备才能直接分配给相应的Guest,即VMM-bypass,避免额外的软件开销。我们可以在KVM中软实现DMA以及中断的remapping功能,然后将现有的普通设备直接分配给Guest。如下图所示:

+----------------+

| Guest |

| +---------+ |

+-------->| | Driver | |

| | +---------+ |

| +------------^---+

D | | |

M | DMA Req.| | vINTR

A | | |

| +-------|-------|----------+

O | | v KVM | |

p | | +------------------+ |

e | | | DMA remmapping | |

r | | | | |

a | | | INTR remmapping | |

t | | +-----------^------+ |

i | +-------|-------|----------+

o | | | INTR

n | v |

| +---------+

+------------->| Deivce |

+---------+

图 9

这将大大减少Guest驱动同物理设备之间的路径(省去了KVM的涉入),去掉了虚拟设备的模拟逻辑,不过IO性能的提高是以增加KVM的逻辑复杂度的代价换来的。此时,IO的性能瓶颈从Qemu/KVM转移到物理设备,但是IO的稳定性、安全性将会更加依赖于KVM的remapping逻辑实现。

3.3 普通设备的复用

在普通设备的直接分配的基础上,我们甚至可以在多个Guest之间复用设备,好比m个进程跑在n个处理器上一样(n < m)。比如将一个硬盘分成多个区,每一个分区作为一个块设备直接分配给Guest;或者直接将n个网卡分配给m个Guest(n < m)。其中磁盘的复用,只需在KVM中添加分区管理的逻辑,而网卡的复用则要复杂一些:KVM需要为设备提供多个设备上下文(每一个设备上下文对应着一个 Guest),同时还需要提供算法逻辑对设备上下文进行切换和调度。如下图所示:

| KVM |

| Device context |

| queue |

+------+ | +-+ |

|Guest |---------->| | |

-------+ | +-+ |

| | |

+------+ | +-+ |

|Guest |---------->| | +----------+ |

+------+ | +-+ | Device | |

| | | Scheduler| |

+------+ | +-+ +----------+ |

|Guest |---------->| |-----+ |

+------+ | +-+ | |

| +--v--------+ |

| Current--->+--+ DM | | +-----+

| Context | +--+------------->| NIC |

| +-----------+ | +-----+

| |

图 10

其中,Device Modle(DM)实现前文提到的remapping逻辑,Device Scheduler

用于选择和切换设备上下文实现物理设备的复用。在普通设备直接分配的基础上,通过对现有普通设备的复用,将会带来廉价、灵活、高效的 IO性能。与之相对的是,目前已经有支持SR-IOV的网卡,从硬件上实现复用功能,支持多个(静态,即最大数目是内置的)虚拟的PCI网卡设备,价格昂贵,且受到一个网口总带宽有限的限制(软件复用技术,可以复用多个网卡,进而提高系统总的带宽)。

参考:

1[代码] qemu-kvm. git://https://www.doczj.com/doc/0e5105981.html,/pub/scm/virt/kvm/qemu-kvm.git

2[代码] Linux-2.6{/virt/kvm/*, arch/x86/kvm/*, drivers/virtio/*, drivers/block/virtio_blk.c, drivers/vhost/*}

3[手册] Intel? Virtualizatio n Technology for Directed I/O

4[手册] Intel? 64 and IA-32 Architectures Software Developer’s Manual 3B.

5[论文] Towards Virtual Passthrough I/O on Commodity Devices. 2008.

6[论文] kvm: the Linux Virtual Machine Monitor. 2007.

7[论文] virtio: Towards a De-Facto Standard For Virtual I/O Devices. 2008 8[论文] High Performance Network Virtualization with SR-IOV. 2010.

9[论文] QEMU, a Fast and Portable Dynamic Translator. 2005.

常见四种虚拟化技术优劣势对比

常见四种虚拟化技术优劣势对比-兼谈XEN与vmware的区别 蹦不路磅按: 好多人估计对XEN和vmware到底有啥区别有所疑问. 可能如下的文章会有所提示 据说本文作者系SWsoft中国首席工程师.没找到名字, 故保留title ---------------- Update: 13-11-2008 关于xen Hypervisor个人理解的一点补充. xen hypervisor 类似一个linux的kernel .位于/boot/下名字xen-3.2-gz. 系统启动的时候它先启动。然后它在载入dom0. 所有对其他domainU的监控管理操作都要通过domain0. 因为hypervisor 只是一个类kernel. 没有各种application. 需要借助domain0的application 比如xend xenstore xm 等。 个人猜想,hypervisor 能集成一些简单的管理程序也是可能的。vmware好像也正在作植入硬件的hypervisor 将来的发展可能是是hypervisor 会和bios一样在每个服务器上集成了。然后每台服务器买来后就自动支持 可以启动数个操作系统了。彻底打破一台裸机只能装一个操作系统的传统。 ----------------- 虚拟化技术(Virtualization)和分区(Partition)技术是紧密结合在一起,从60年代Unix诞生起,虚拟化技术和分区技术就开始了发展,并且经历了从“硬件分区”->“虚拟机”->“准虚拟机”->“虚拟操作系统”的发展历程。最早的分区技术诞生自人们想提升大型主机利用率需求。比如在金融、科学等领域,大型Unix服务器通常价值数千万乃至上亿元,但是实际使用中多个部门却不能很好的共享其计算能力,常导致需要计算的部门无法获得计算能力,而不需要大量计算能力的部门占有了过多的资源。这个时候分区技术出现了,它可以将一台大型服务器分割成若干分区,分别提供给生产部门、测试部门、研发部门以及其他部门。 几种常见的虚拟化技术代表产品如下: 类型代表产品 硬件分区IBM/HP等大型机硬件分区技术 虚拟机(Virtual Machine Monitor)EMC VMware Mircosoft Virtual PC/Server Parallels 准虚拟机(Para-Virtualization)Xen Project 虚拟操作系统(OS Virtualization)SWsoft Virtuozzo/OpenVZ Project Sun Solaris Container HP vSE FreeBSD Jail Linux Vserver 硬件分区技术 硬件分区技术如下图所示:硬件资源被划分成数个分区,每个分区享有独立的CPU、内存,并安装独立的操作系统。在一台服务器上,存在有多个系统实例,同时启动了多个操作系统。这种分区方法的主要缺点是缺乏很好的灵活性,不能对资源做出有效调配。随着技术的进步,现在对于资源划分的颗粒已经远远提升,例如在IBM AIX系统上,对CPU资源的划分颗粒可以达到0.1个CPU。这种分区方式,在目前的金融领域,比如在银行信息中心

硬件虚拟化技术浅析

硬件虚拟化技术浅析 ==================================== 目录 1 硬件虚拟化技术背景 2 KVM的内部实现概述 2.1 KVM的抽象对象 2.2 KVM的vcpu 2.3 KVM的IO虚拟化 2.3.1 IO的虚拟化 2.3.2 VirtIO 3 KVM-IO可能优化地方 3.1 Virt-IO的硬盘优化 3.2 普通设备的直接分配(Direct Assign) 3.3 普通设备的复用 =================================== 1 硬件虚拟化技术背景 硬件虚拟化技术通过虚拟化指令集、MMU(Memory Map Unit)以及IO来运行不加修改的操作系统。 传统的处理器通过选择不同的运行(Ring 特权)模式,来选择指令集的范围,内存的寻址方式,中断发生方式等操作。在原有的Ring特权等级的基础上,处理器的硬件虚拟化技术带来了一个新的运行模式:Guest模式[1],来实现指令集的虚拟化。当切换到Guest模式时,处理器提供了先前完整的特权等级,让Guest 操作系统可以不加修改的运行在物理的处理器上。Guest与Host模式的处理器上下文完全由硬件进行保存与切换。此时,虚拟机监视器(Virtual Machine Monitor)通过一个位于内存的数据结构(Intel称为VMCS, AMD称为VMCB)来控制Guest系统同Host系统的交互,以完成整个平台的虚拟化。 传统的操作系统通过硬件MMU完成虚拟地址到物理地址的映射。在虚拟化环境中,Guest的虚拟地址需要更多一层的转换,才能放到地址总线上: Guest虚拟地址 -> Guest物理地址 -> Host物理地址 ^ ^ | | MMU1 MMU2 其中MMU1可以由软件模拟(Shadow paging中的vTLB)或者硬件实现(Intel EPT、AMD NPT)。MMU2由硬件提供。

基础架构及服务器虚拟化解决方案

网络基础架构及数据中心规划方案 2016年11月

目录 一.网络建设需求 (3) 1.1 目标架构: (3) 1.2设计目标: (3) 二. 规划方案 (4) 2.1 方案拓扑 (4) 2.2 架构说明 (5) 2.3 为什么选用Vmware虚拟化技术(整个方案的重点) (6) 2.4 VMware方案结构 (7) 2.4.1 基础架构服务层 (7) 2.4.2 应用程序服务层 (9) 2.4.3 虚拟应用程序层 (14) 2.4.4 数据备份 (15) 2.4.5 具体方案陈述 (20) 2.5 VMWARE方案带来的好处 (21) 2.5.1 大大降低TCO (21) 2.5.2 提高运营效率 (23) 2.5.3 提高服务水平 (24) 三. 项目预算 (24) 总述

为推进公司信息化建设,以信息化推动公司业务工作改革与发展,需要在集团总部建设新一代的绿色高效能数据中心网络。 一.网络建设需求 1.1 目标架构: 传统组网观念是根据功能需求的变化实现对应的硬件功能盒子堆砌而构建企业网络的,这是一种较低效率的资源调用方式,而如果能够将整个网络的构建看成是由封装完好、相互耦合松散、但能够被标准化和统一调度的“服务”组成,那么业务层面的变更、物理资源的复用都将是轻而易举的事情。最终形成底层资源对于上层应用就象由服务构成的“资源池”,需要什么服务就自动的会由网络调用相关物理资源来实现。 1.2设计目标: 扩展性: 架构设计能应对集团未来几年的发展以及满足整合分公司资源的需要; 简化管理 使上层业务的变更作用于物理设施的复杂度降低,能够最低限度的减少了物理资源的直接调度,使维护管理的难度和成本大大降低。 高效复用 得物理资源可以按需调度,物理资源得以最大限度的重用,减少建设成本,提高使用效率。即能够实现总硬件资源占用降低了,而每个业务得到的服务反而更有充分的资源保证了。 网络安全:

各种虚拟化技术归纳_技术工作归纳.doc

各种虚拟化技术总结_技术工作总结 《各种虚拟化技术总结》是一篇好的范文,好的范文应该跟大家分享,篇一:主流的四大化对比分析 主流四大虚拟化架构对比分析 云计算平台需要有资源池为其提供能力输出,这种能力包括计算能力、存储能力和网络能力,为了将这些能力调度到其所需要的地方,云计算平台还需要对能力进行调度管理,这些能力均是由虚拟化资源池提供的。 云计算离不开底层的虚拟化支持。维基百科列举的虚拟化技术有超过60种,基于X86(CISC)体系的超过50种,也有基于RISC体系的,其中有4 种虚拟化技术是当前最为成熟而且应用最为广泛的,分别是:VMWARE的ESX、微软的Hyer-V、开源的XEN和KVM。云计算平台选用何种虚拟化技术将是云计算建设所要面临的问题,文章就4种主流虚拟化技术的架构层面进行了对比分析。 形成资源池计算能力的物理设备,可能有两种,一种是基于RISC的大小型机,另一种是基于CISC的X86服务器。大小型机通常意味着高性能、高可靠性和高价格,而X86服务器与之相比有些差距,但随着Ier和AMD等处理器厂商技术的不断发展,原本只在小型机上才有的技术已经出现在了X86处理器上,如64位技术、虚拟化技术、多核心技术等等,使得X86服务器在性能上突飞猛进。通过TPC组织在2011年3月份所公布的单机计算机性能排名中可以看出,4路32核的X86服务器性能已经位列前10名,更重要的是X86服务器的性价比相对小型机有约5倍的优势。因此,选择X86服务器作为云计算资源池,

更能凸显出云计算的低成本优势。 由于单机计算机的处理能力越来越大,以单机资源为调度单位的颗粒度就太大了,因此需要有一种技术让资源的调度颗粒更细小,使资源得到更有效和充分 的利用,这就引入了虚拟化技术。当前虚拟化技术中主流和成熟的有4种:VMWARE的ESX、微软的Hyer-V、开源的XEN和KVM,下面将针对这4种虚拟化技术的架构进行分析 1 虚拟化架构分析 从虚拟化的实现方式来看,虚拟化架构主要有两种形式:宿主架构和裸金属架构。在宿主架构中的虚拟机作为主机的一个进程来调度和管理,裸金属架构下则不存在主机操作系统,它是以Hyervisor直接运行在物理之上,即使是有类似主机操作系统的父分区或Domi 0,也是作为裸金属架构下的虚拟机存在的。宿主架构通常用于个人PC上的虚拟化,如WidosVirul PC,VMre Worksio,Virul Box,Qemu等,而裸金属架构通常用于服务器的虚拟化,如文中提及的4种虚拟化技术。 (一) ESX的虚拟化架构 ESX是VMre的企业级虚拟化产品,2001年开始发布ESX 10,到2011年2月发布ESX 41 Ude 1。 ESX服务器启动时,首先启动Liux Kerel,通过这个操作系统加载虚拟化组件,最重要的是ESX的Hyervisor组件,称之为VMkerel,VMkerel会从LiuxKerel完全接管对硬件的控制权,而该Liux Kerel作为VMkerel的首个虚拟机,用于承载ESX的servieCosole,实现本地的一些管理功能。VMkerel负责为所承载的虚拟机调度所有的硬件资源,但不同类型的硬件会有些区别。 虚拟机对于CPU和内存资源是通过VMkerel直接访问,最

三种主要的虚拟化架构类型

目前市场上各种x86 管理程序(hypervisor)的架构差异,三个最主要的架构类别包括: ? I型:虚拟机直接运行在系统硬件上,创建硬件全仿真实例,被称为“裸机”。 ? II型:虚拟机运行在传统操作系统上,同样创建的是硬件全仿真实例,被称为“托管”hypervisor。 ? 容器:虚拟机运行在传统操作系统上,创建一个独立的虚拟化实例,指向底层托管操作系统,被称为“操作系统虚拟化”。 图 1 三种主要的虚拟化架构类型 上图显示了每种架构使用的高层软件“堆栈”,应当指出,在每种模型中,虚拟层是在不同层实现的,因此成本和效益都会不一样。 除了上面的架构类别外,知道hypervisor的基本元素也同样重要,它包括: ? 虚拟机监视器(Virtual Machine Monitor,VMM):它创建、管理和删除虚拟化硬件。

?半虚拟化(Paravirtualization):修改软件,让它知道它运行在虚拟环境中,对于一个给定的hypervisor,这可能包括下面的一种或两种:- 内核半虚拟化:修改操作系统内核,要求客户机操作系统 /hypervisor兼容性。 - 驱动半虚拟化:修改客户机操作系统I/O驱动(网络、存储等),如Vmware Tools,MS Integration Components。 操作系统虚拟化:容器 在容器模型中,虚拟层是通过创建虚拟操作系统实例实现的,它再指向根操作系统的关键系统文件,如下图所示,这些指针驻留在操作系统容器受保护的内存中,提供低内存开销,因此虚拟化实例的密度很大,密度是容器架构相对于I型和II型架构的关键优势之一,每个虚拟机都要求一个完整的客户机操作系统实例。 图 2 容器型虚拟化架构 通过共享系统文件的优点,所有容器可能只基于根操作系统提供客户机,举一个简单的例子,一个基本的Windows Server 2003操作系统也可

虚拟化解决方案

虚拟化解决方案

虚拟化解决方案 深圳市深信服科技有限公司 11月

第一章需求分析 1.1高昂的运维和支持成本 PC故障往往需要IT管理员亲临现场解决,在PC生命周期当中,主板故障、硬盘损坏、内存没插紧等硬件问题将不断发生,而系统更新、补丁升级、软件部署等软件问题也非常多,对于IT 管理员来说,其维护的工作量将是非常大的。同时,桌面运维工作是非常消耗时间的,而这段时间内将无法正常进行网上工作,因此也会影响到工作效率。最后,从耗电量方面来讲,传统PC+显示器为250W,那么一台电脑将产生高达352元/年【0.25(功耗)*8(每天8小时工作)*0.8(电费,元/千瓦时)*240(工作日)】本机能耗成本,而电脑发热量也比较大,在空间密集的情况下,散热的成本也在逐步上升。 因此,IDC预测,在PC硬件上投资10元,后续的运营开销将高达30元,而这些投资并不能为学校带来业务方面的价值,也即投入越大,浪费越多。 1.2 不便于进行移动办公 传统的PC模式将办公地点固定化,只能在办公室、微机房等固定区域进行办公,大大降低了工作的效率和灵活性,无法适应移动化办公的需求。

1.3数据丢失和泄密风险大 信息化时代,其数据存储和信息安全非常重要,在信息系统中存储着大量的与工作相关的重要信息。可是传统PC将数据分散存储于本地硬盘,PC硬盘故障率较高,系统问题也很多,这使得当出现问题时数据易丢失,同时由于数据的分散化存储,导致数据的备份及恢复工作非常难以展开,这些都是棘手的问题。另外,PC/笔记本上的资料能够自由拷贝,没有任何安全策略的管控,存在严重的数据泄密风险。 综上所述,桌面云解决方案是业界IT创新技术,当前已在众多行业机构得到广泛应用。经过基于服务器计算模式,将操作系统、应用程序和用户数据集中于数据中心,实现统一管控。此方案可经过革新的桌面交付模式,解决当前桌面管理模式中存在的运维难、不安全、灵活性差等问题,实现高效、便捷、防泄密的经济效益。

服务器虚拟化技术方案

1项目概述 1.1竹溪县民政局现状 竹溪县民政局机房现有设备运行年限较长,各业务系统相对独立,造成管理难度大,基于这种现状我司推荐竹溪县民政局信息化启动平台化建设。 竹溪县民政局信息化平台是提高健康水平、提高政府服务质量和效率的有力推手,是规范医疗政府服务,方便群众办事,缓解群众看病难问题的主要手段,不仅对推动竹溪县政务整改工作有重要意义,也是当前竹溪县民政局信息化平台工作迫切的需求。 1.2竹溪县民政局信息化平台建设的基本原则 1)顶层设计,统筹协调原则:竹溪县民政局信息化平台建设要按照国家有 关信息化建设的总体部署和要求,结合竹溪县民政局实际,做好顶层设 计,进行信息资源统筹规划,统一建设规范、标准和管理制度,构建竹 溪县民政局信息化平台为建设目标和任务。运用不同机制和措施,因地 制宜、分类指导、分步推进,促进竹溪县民政局信息化平台工作协调发 展。 2)标准化原则:竹溪县民政局信息化平台建设要在统一标准、统一规范指 导原则下开展,相关技术、标准、协议和接口也须遵循国际、国家、部 颁有关标准,没有上述标准要分析研究,制定出适合竹溪县民政局信息 化平台的标准、规范。 3)开放和兼容性原则:竹溪县民政局信息化平台建设不是一个独立系统, 而是搭建一下通用平台,基于平台承载各类应用系统运行,因此,系统 设计应充分考虑其开放性,同时因发展需要,应具有较好的伸缩性,满 足发展需要。 4)先进性原则:采取业界先进系统架构理念和技术,为系统的升级与拓展 打下扎实基础,如在技术上采用业界先进、成熟的软件和开发技术,面

向对象的设计方法,可视化的面向对象的开发工具,支持 Internet/Ineternet网络环境下的分布式应用;客户/应用服务器/数据 服务器体系结构与浏览器/服务器(B/S)体系相结合的先进的网络计算 模式。 5)安全与可靠的原则:作为竹溪县民政局信息化平台,关乎到民生及医疗 数据安全,其数据库硬件平台必须具备最高的安全性及可靠性,可接近 连续可用。平台一旦出现故障可能会导致群体性事件,因此竹溪县民政 局信息化平台需要建立在一个科学稳定的硬件平台上,并达到系统要求 的安全性和可靠性。二是网络安全。在系统架构和网络结构设计上首先 考虑安全性,必须加强领导、落实责任,综合适用技术、经济、制度、 法律等手段强化网络的安全管理。三是信息安全。主要是数据安全即保 证数据的原始性和完整性,运行数据不可被他人修改或访问,记录者的 记录不容抵赖,访问和修改可追踪性等。在系统设计时既考虑系统级的 安全,又考虑应用级的安全。应用系统采用多级认证(系统级认证、模 块认证、数据库认证和表级认证)等措施,采用用户密码的加密技术以 防止用户口令被破解。同时需制定不断完善的信息系统应急处理预案和 合理的数据库备份策略,在灾难时也能快速从灾难中恢复。四是信息化 平台应具有较强数据I/O处理能力,同时系统在设计时必须考虑在大规 模并发,长期运行条件下的系统可靠性,满足竹溪县民政局信息化7× 24小时的服务要求,保证各机构单位数据交换和资源共享的需要。 6)协调合作原则:要求各有关方将以往的行为方式从独立行事向合作共事 转变,从独立决策向共同决策方式转变。各方在合作基础上,应在人力 资源和设备实体方面全力建立更加稳定的信息技术设施。 1.3平台需求 1.3.1硬件需求 竹溪县民政局信息化平台是支撑整个系统安全、稳定运行的硬件设备和网络设施建设,是系统平台的基础设施。主要包括支撑整个系统安全、稳定运行所需

服务器虚拟化硬件配置需求计算方法

服务器虚拟化硬件配置需求计算方法例如每个虚拟机需要1个CPU,2G内存,100G硬盘,100Mbps的网络带宽,数量为200个虚拟机等。比如需要运行的虚拟机有16个,每个虚拟机分配2个虚拟CPU,那么总共需要的虚拟CPU数量为16*2=32个,最少需要32/8=4个逻辑处理器,如果采用的是双核CPU,那么最少需要2颗双核CPU。 例如每个虚拟机需要1个CPU,2G内存,100G硬盘,100Mbps的网络带宽,数量为200个虚拟机等。 1. 处理器:Hyper-V R2最多能利用到主机的64个Logical Processor,同时一个Logical Processor能支持运行8个虚拟Processor,即如果是一台一个CPU的单核处理器主机,最多运行8个虚拟机。在Hyper-V R2中考虑到性能因素,我们在一台宿主机上最多能运行384个虚拟机(假设每个虚拟机只有一个虚拟Processor)。例如,如果我们要在一台宿主机上运行200个Win 7,宿主机最少得拥有25核(25*8=200),折算成2的幂,就是32核。这当然是建立在每个Win 7只分配一个虚拟CPU的前提上。如果每个Win 7需要2 CPU,那200*2=400,就超过384的上限了,就不能全部在一台宿主机上运行了。 比如需要运行的虚拟机有16个,每个虚拟机分配2个虚拟CPU,那么总共需要的虚拟CPU数量为16*2=32个,最少需要32/8=4个逻辑处理器,如果采用的是双核CPU,那么最少需要2颗双核CPU。 2. 处理器:缓存越大越好,尤其在虚拟处理器和物理处理器间的比值很高的时候。 3. 内存:Host RAM = (VMRamRequirementMB x #ofVMs) + (#of VMs x 32MBVMOverhead ) + (512MBHost)。按我举的例子来讲,宿主机内存=2G*200+200*32MB+512MB=406.75 GB,当然我们可以做一些冗余,取512GB(企业版和数据中心版能支持到2TB的内存) 4. 网络:如果网络数据传输量很大,可以安装多块网卡,在一块网卡上绑定多个虚拟机。例如每个虚拟机需要100Mbps,那主机有可能需要20块1000Mbps的网卡,每个网卡绑定10个虚机。 5. 存储:推荐使用固定尺寸的VHD文件作为虚拟机的硬盘文件,推荐后台连接一个SAN 作存储资源,例如总存储容量需要100G*200

各种虚拟化技术总结

各种虚拟化技术总结 《各种虚拟化技术总结》是一篇好的范文,好的范文应该跟大家分享,这 里给大家转摘到。篇一:主流的四大虚拟化架构对比分析 主流四大虚拟化架构对比分析 云计算平台需要有资源池为其提供能力输出,这种能力包括计算能力、存 储能力和网络能力,为了将这些能力调度到其所需要的地方,云计算平台还需要对能力进行调度管理,这些能力均是由虚拟化资源池提供的。 云计算离不开底层的虚拟化技术支持。维基百科列举的虚拟化技术有超过 60种,基于X86(CISC)体系的超过50种,也有基于RISC体系的,其中有 4 种虚拟化技术是当前最为成熟而且应用最为广泛的,分别是:VMWARE的ESX、微软的Hyper-V、开源的XEN和KVM。云计算平台选用何种虚拟化技术将是云计算建设所要面临的问题,文章就4种主流虚拟化技术的架构层面进行了对比分析。 形成资源池计算能力的物理设备,可能有两种,一种是基于RISC的大小型机,另一种是基于CISC的 X86服务器。大小型机通常意味着高性能、高可靠性 和高价格,而X86服务器与之相比有些差距,但随着Inter和AMD等处理器厂商技术的不断发展,原本只在小型机上才有的技术已经出现在了X86处理器上,如64位技术、虚拟化技术、多核心技术等等,使得X86服务器在性能上突飞猛进。通过TPC组织在20XX年3月份所公布的单机计算机性能排名中可以看出,4路32核的X86服务器性能已经位列前10名思想汇报专题,更重要的是X86服务器的性价比相对小型机有约5倍的优势。因此,选择X86服务器作为云计算资源池,更能凸显出云计算的低成本优势。 由于单机计算机的处理能力越来越大,以单机资源为调度单位的颗粒度就 太大了,因此需要有一种技术让资源的调度颗粒更细小,使资源得到更有效和充分

软硬件虚拟化技术问题

软硬件虚拟化技术问题 [摘要]随着计算机应用的广泛和功能的丰富,计算机软件开发商普遍开始重点研制计算机软件、硬件“虚拟技术”方面的产品。文章对计算机的虚拟化种类与相关技术进行研究和探讨。 [关键词]软件;硬件;虚拟化技术 [作者简介]刘一威,广东省电力设计研究院工程师,研究方向:网络信息管理,广东广州,510663 [中图分类号]TP311.5 [文献标识码] A [文章编号]1007-7723(2011)01-0030-0003 为了达到广大用户的使用需要,计算机软件开发商开始重点研制“虚拟技术”方面的产品。软件、硬件是计算机内部的重要组成部分,虚拟化技术的运用必须重视软硬件虚拟化的相关问题。 一、虚拟化种类与相关技术 从计算机理论知识看,虚拟化技术是一种与其他网络技术不同的形式。早期计算机控制模式还局限在远程、多任务控制状态下,但现代控制系统的运用实现了虚拟化操作模式,在相同时间里能对2个以上的操作系统控制,让各个操作指令程序运用于虚拟的CPU中。当前,虚拟化程度划分与

相关技术包括: (一)虚拟化种类 1.完全虚拟。目前,市场上销售虚拟化产业最常见的是借助于各种形式的软件,如:hypervisor等,利用这类软件可以与虚拟服务器、底层硬件等创建一个特殊的抽象层。这种完全虚拟的技术最典型的产品要数VMware公司的Vsphere和微软公司的Hyper-V,能够在操作系统上实现各种虚拟操作。 2.准虚拟化。从系统运行程度上看,完全虚拟化常常要承载众多不同的程序控制,这就使得完全虚拟化成为一种密集型技术的控制器,其掌握的服务数据也相当繁多。为缓解这一状况,准虚拟化技术通常使用对操作系统调整的方式,实现和hypervisor共同操作。 (二)虚拟化相关的技术 1.Intel技术。若从计算机虚拟化技术发展历程看,Virtualization虚拟化技术是运用时间最长的一项。计算机刚刚普及的阶段,Intel虚拟化技术多数运用于服务器、主机等相关装置中。现代计算机技术的发展,促进了PC功能的改善,Intel技术能把IT优化调整为高性能的框架模式。 2.AMD技术。这类技术主要是在计算机硬件结构上形成的虚拟化技术,AMD虚拟化技术能够凭借不同的服务器广泛运用在不同的操作系统上,这对于改善服务器性能是很

polycom虚拟化解决方案硬件资源要求

DATA SHEET Polycom? RealPresence? Platform, Virtual Editions Virtualize your mission-critical video and voice applications and increase the flexibility, manageability, and efficiency of your deployment. The software evolution The Polycom? RealPresence? Platform is the intelligent infrastructure that makes video collaboration always available to everyone across any network, protocol, application or device of choice. With the rise of the virtualized datacenter, Polycom has evolved the components of the RealPresence Platform to support virtual software deployment strategies—increasing the flexibility, manageability, and efficiency of your video deployment. The RealPresence Platform can now can now be deployed instantly as software, making video and voice collaboration simple and scalable in any environment. Hardware independence The components of the Polycom? RealPresence? Platform, Virtual Editions are 100% independent from the physical hardware, and work with any and all operating systems and applications that run on standard servers. This allows IT managers to consolidate x86 servers along with their network and storage resources into a unified pool, where video and voice applications run alongside other business applications in the virtual datacenter. Virtual editions of the RealPresence Platform speed installation for faster time-to-service, provide single pane of glass for management and monitoring, and allow IT managers to plan and optimize resources. Industry-leading investment protection for hybrid environments For customers who have already invested in hardware components of the Polycom RealPresence Platform, the virtual editions offer an easy transition to software by working seamlessly with existing hardware infrastructure. This architecture eliminates collaboration silos caused by systems that don’t talk to each other, including support for emerging standards such as SVC. Virtual editions of the platform are standards-based and natively interoperable with UC solutions that already exist in a customer network, and also with third-party vendor solutions, giving customers the best investment protection in the industry. A lean, dynamic organization The result is a flexible approach to video architecture—producing significant savings in capital and operational costs. IT managers can dynamically spin-up or spin-down video services based on demand, making the whole organization more agile, more responsive, and more connected. Benefits ? Increases agility—Easily spin-up and spin-down video capacity based on your organization’s changing needs ? Increases resilience—Software provides better disaster recovery and easier backups for business continuity ? Reduces deployment time—Software is quick and easy to deploy, especially for trials and proof-of-concepts ? Reduces total cost of ownership— Virtual appliances and applications use your IT resources more efficiently, supporting datacenter consolidation ? Aligns with strategic IT policies—Add video infrastructure to your existing virtualized datacenter ? Aligns with procurement policies — Purchase software the with the same CapEx or lease program as your existing platform components ? Provide flexibility and choice—Supports hybrid environments with seamless interoperability with existing hardware components

虚拟化服务器

虚拟化服务器选型方案常用使用软件介绍 解决方案中心 2011年7月文档控制: 拟制艾洪涛 审核 批准 参阅 版本控制 版本号日期修改人说明 V1.02011/8/25艾洪涛初稿 分发控制 编号读者文档权限和文档的主要关系 1修改,编写艾洪涛,负责编制、修改、审核本文稿2批准 3读取参阅并使用 目录 1虚拟化服务器使用背景 (3) 2虚拟化服务器资源需求分析 (4) 2.1 性能需求分析 (4) 2.2 可靠性需求分析 (6) 2.3 扩展性需求分析 (6) 2.4 管理性需求分析 (6) 3系统建设拓扑 (7) 3.1 单机使用模式 (7) 3.2 集群使用模式 (8) 4推荐的虚拟化服务器解决方案 (8) 4.1 小型规模 (8)

4.2 中/大型规模 (8) 5方案价值分析 (9) 6常用使用软件介绍 (9) 6.1 Vmware (9) 6.2 Hyper-V (11) 6.3 XEN (12) 6.4 CITRIX虚拟化介绍 (13)

1虚拟化服务器使用背景 虚拟化技术和多任务以及超线程技术是完全不同的。多任务是指在一个操作系统中多个程序同时并行运行,而在虚拟化技术中,则可以同时运行多个操作系统,而且每一个操作系统中都有多个程序运行,每一个操作系统都运行在一个虚拟的CPU 或者是虚拟主机上;而超线程技术只是单CPU模拟双CPU来平衡程序运行性能,这两个模拟出来的CPU是不能分离的,只能协同工作。 虚拟化技术也和目前VMware Workstation等同样能达到虚拟效果的软件不同,是一个巨大的技术进步,具体表现在减少软件虚拟机相关开销和支持更广泛的操作系统方面。 纯软件虚拟化解决方案存在很多限制。“客户”操作系统很多情况下是通过VMM(Virtual Machine Monitor,虚拟机监视器)来和硬件进行通信,由VMM来决定其对系统上所有虚拟机的访问。(注意,大多数处理器和内存访问独立于VMM,只在发生特定事件时才会涉及VMM,如页面错误。)在纯软件虚拟化解决方案中,VMM在软件套件中的位置是传统意义上操作系统所处的位置,而虚拟化技术将各种资源虚拟出多台主机操作系统的位置是传统意义上使用程序所处的位置。这一额外的通信层需要进行二进制转换,以通过提供到物理资源(如处理器、内存、存储、显卡和网卡等)的接口,模拟硬件环境。这种转换必然会增加系统的复杂性。此外,客户操作系统的支持受到虚拟机环境的能力限制,这会阻碍特定技术的部署,如64位客户操作系统。在纯软件解决方案中,软件堆栈增加的复杂性意味着,这些环境难于管理,因而会加大确保系统可靠性和安全性的困难。而CPU的虚拟化技术是一种硬件方案,支持虚拟技术的CPU带有特别优化过的指令集来控制虚拟过程,通过这些指令集,VMM会很容易提高性能,相比软件的虚拟实现方式会很大程度上提高性能。虚拟化技术可提供基于芯片的功能,借助兼容VMM软件能够改进纯软件解决方案。由于虚拟化硬件可提供全新的架构,支持操作系统直接在上面运行,从而无需进行二进制转换,减少了相关的性能开销,极大简化了VMM设计,进而使VMM能够按通用标准进行编写,性能更加强大。

三大网络厂商网络虚拟化技术【Cisco VSS、H3C IRF2、huawei CSS】解析

三大网络厂商网络虚拟化技术【Cisco VSS、H3C IRF2、huawei CSS】解析 Cisco H3C huawei 随着云计算的高速发展,虚拟化应用成为了近几年在企业级环境下广泛实施的技术,而除了服务器/存储虚拟化之外,在2012年SDN(软件定义网络)和OpenFlow大潮的进一步推动下,网络虚拟化又再度成为热点。不过谈到网络虚拟化,其实早在2009年,各大网络设备厂商就已相继推出了自家的虚拟化解决方案,并已服务于网络应用的各个层面和各个方面。而今天,我们就和大家一起来回顾一下这些主流的网络虚拟化技术。 思科虚拟交换系统VSS 思科虚拟交换系统VSS就是一种典型的网络虚拟化技术,它可以实现将多台思科交换机虚拟成单台交换机,使设备可用的端口数量、转发能力、性能规格都倍增。例如,它可将两台物理的Cisco catalyst 6500系列交换机整合成为一台单一逻辑上的虚拟交换机,从而可将系统带宽容量扩展到1.4Tbps。

思科虚拟交换系统VSS 而想要启用VSS技术,还需要通过一条特殊的链路来绑定两个机架成为一个虚拟的交换系统,这个特殊的链路称之为虚拟交换机链路(Virtual Switch Link,即VSL)。VSL承载特殊的控制信息并使用一个头部封装每个数据帧穿过这条链路。 虚拟交换机链路VSL 在VSS之中,其中一个机箱指定为活跃交换机,另一台被指定为备份交换机。而所有的控制层面的功能,包括管理(SNMP,Telnet,SSH等),二层协议(BPDU,PDUs,LACP等),三层协议(路由协议等),以及软件数据等,都是由活跃交换机的引擎进行管理。 此外,VSS技术还使用机箱间NSF/SSO作为两台机箱间的主要高可用性机制,当一个虚拟交换机成员发生故障时,网络中无需进行协议重收敛,接入层或核心层交换机将继续转发流量,因为它们只会检测出EtherChannel捆绑中有一个链路故障。而在传统模式中,一台交换机发生故障就会导致STP/HSRP和路由协议等多个控制协议进行收敛,相比之下,VSS 将多台设备虚拟化成一台设备,协议需要计算量则大为减少。

horizon view桌面虚拟化解决方案

桌面虚拟化解决方案 目录 一、需求分析 (2) 二、Vmware View桌面虚拟化解决方案 (2) 三、瘦客户机优点 (6) 四、配置选型: (6) 五、案例介绍――-特鼎金属工业(昆山)有限公司 (7) 1.需求概述: (7) 2.方案概述: (8) 3.方案拓扑图: (8) 六、飞鸟优势 (9) 1.发展历程 (9) 2.公司资质 (9) 3.典型客户 (10) 4.实验室 (10)

一、需求分析 此次项目需求客户端预计在30个左右 客户端设计要求服务器能对客户端提供高可用、持续的桌面应用服务 桌面应满足日常的办公,满足AUTOCAD软件需求 方案要求能够对数据安全提供有效的保护保护。 二、Vmware View桌面虚拟化解决方案 ? 2.1方案优点 VMware View桌面虚拟化构建基于服务器的桌面解决方案,不仅可以解决PC桌面面临的各种难题,还能优化可用性、可管理性、总体拥有成本和灵活性。借助View桌面虚拟化,在使用VMware ESX软件虚拟化的服务器上运行的虚拟机中,可以构建完整的桌面环境-操作系统、应用程序和配置。管理员可使用VMware vCenter集中管理环境中的所有虚拟机。最终用户可使用远程显示软件,从PC或瘦客户端(Thin Client)访问其桌面环境。 利用VMware ESX 的功能和vCenter Server 的管理功能,View桌面虚拟化实现了标准化的虚拟硬件,并为物理VMware ESX 主机硬件提供了严格筛选的硬件兼容性列表(HCL),有效减少了设备驱动程序不兼容的问题。借助VMware ESX 可扩展的CPU 调度功能以及VMware Distributed Resource Scheduler (DRS) 的多主机平衡功能,性能波动现象也明显减少。VMware ESX 可以直接暂停并重新调度虚拟机,而无需考虑客户操作系统内部的线程活动。这使得资源共享更加确定,可显著改善用户在View桌面虚拟化环境中的体验。 与基于Terminal Server 的集中式计算不同,View桌面虚拟化可为每位用户提供一个独立的虚拟机来进行桌面计算。单独运行Citrix、Terminal Server 或任何多用户操作系统都算不上View桌面虚拟化。通过为每位用户提供自己的操作系统,View桌面虚拟化提供了企业部署集中式桌面所需的稳定性和性能管理功能。 VMware View是一个企业级桌面虚拟化解决方案,它与VMware vSphere 5协同工作,可提供一个完整的端到端View桌面虚拟化解决方案,此解决方案不仅能增强控制能力和可管理性,简化虚拟桌面的管理、调配和部署;还可以提供令用户备感亲切的桌面体验,用户能够通过View Manager安全而方便地访问虚拟桌面,升级和修补工作都从单个控制台集中进行,因此可以有效地管理数百甚至数千个桌面,从而节约时间和资源。数据、信息和知识财产将保留在数据中心内。该方案具有下列优势: 集控制能力和可管理性于一身 由于桌面在数据中心运行,因此管理员可以更轻松地对其进行部署、管理和维护。 令最终用户备感亲切的体验 用户可以灵活访问与普通PC 桌面功能相同的个性化虚拟桌面。 集成VMware vSphere 5 View桌面虚拟化集成了VMware vSphere 5 的备份、故障切换和灾难恢复功能,并将这些优势扩展到桌面。 降低总体拥有成本(TCO) View桌面虚拟化可以降低管理和能源成本并延长终端的使用寿命,因而可以实现较低的总体拥有成本。

中小企业服务器虚拟化方案选型指南

摘要:许多中小企业希望通过虚拟化技术,来实现灵活的基础设施,降低风险和成本,同时产生具有更高价值的回报。然而,愿望是美好,现实是残酷的,许多中小企业由于技术、资金等原因,不知道该从何开始。面对着琳琅满目的虚拟化产品,到底该如何选择?是否存在一些原则可供参考?这是许多中小企业十分关心的问题。标签:中小企业服务器虚拟化 许多中小企业希望通过虚拟化技术,来实现灵活的基础设施,降低风险和成本,同时产生具有更高价值的回报。然而,愿望是美好,现实是残酷的,许多中小企业由于技术、资金等原因,不知道该从何开始。面对着琳琅满目的虚拟化产品,到底该如何选择?是否存在一些原则可供参考?这是许多中小企业十分关心的问题。 虚拟化对中小企业的好处 在开始选型之前,对中小企业而言,虚拟化带来的好处主要有哪些,通过与一些中小企业用户沟通,主要包括三个方面: 提高效率,减少成本;对中小企业来讲,降低成本是一个很具诱惑性的因素。虚拟化通过提高服务器的利用率,减少硬件投入,同时降低能耗成本。 简化管理和维护。虚拟化使企业在系统进行定期维护或升级前通过重新分配工作量从而减少了维护修理的时间。通过虚拟服务器与桌面以及物理平台之间的移动提高了反应时间,从而不会影响到用户的使用; 提高有效性、降低灾难恢复成本。通过虚拟化的使用,企业可以在灾难性恢复站点的少数系统运行虚拟作业,并可以在不同的硬件上恢复,这都能大幅降低灾难恢复站点的成本。 虚拟化对中小企业的挑战 虚拟化对中小企业来说确实面临着一些挑战,主要包括以下几个方面: 虚拟化评估和概念验证。一般而言,虚拟化的部署应该从评估阶段、概念验证阶段起步,逐步走向大规模、关键应用的部署阶段。但是目前看来许多中小企业都不够重视甚至忽略这一点。虚拟化评估,是为了计算虚拟化能够为用户带来的TCO/ROI(Total Cost of Ownership,总体拥有成本/Return on Investment,投资回报率)的实际利益,设计和规划虚拟化实施方案; 概念验证,则是为了建立虚拟化的演示环境,并实验性部署用户的应用系统。 共享存储器的的问题。然而相比大型企业来说,中小型企业往往有一个不容忽视的劣势:对共享存储的可访问性。共享存储是中小型企业完全发挥服务器虚拟化潜力的关键所在。 VMware曾表示,他们在服务器虚拟化产品上每投入1美元,用户就要在使用传统共享存储的底层存储上花费5美元。庆幸的是,现在已经有一些“存储虚拟化”软件基本上可以将任何

相关主题
文本预览
相关文档 最新文档