【理论研究】漫谈云计算IT基础设施05-超融合技术

【理论研究】漫谈云计算IT基础设施05-超融合技术,第1张

其实超融合这一块,放在云计算IT基础设施里面,不算是完全合适。你说它是分布式存储,但是它同时又是硬件服务器与存储;你说它算硬件,但是它又离不开分布式存储软件。

传统的IT基础设施架构,主要分为网络、计算、存储三层架构。但随着云计算与分布式存储技术的发展以及x86服务器的标准化,逐渐出现了一种将计算、存储节点融合在一起的架构--超融合架构。超融合将三层的IT基础设施架构缩小变成了两层。

2019年11月的Gartner超融合产品魔力象限中,领导者象限有5家:Nutanix、DELL、VMware、CISCO、HPE。(其中DELL vxRail一体机里面用的分布式存储软件也是VMware的VSAN,而VMware提供的则是VSAN纯软件的解决方案)

Nutanix能够成为超融合领导者中的领导者,自然是经过市场的充分验证,得到市场的认可。而且由于其公开资料(Nutanix 圣经)比较齐备,因此我们可以通过Nutanix一窥超融合的究竟。

这边就不搬运了,可以直接搜索引擎搜索“Nutanix圣经”或“Nutanix-Bible”,可以找到相应的官方文档。

引用自NUTANIX圣经 -“Nutanix解决方案是一个融合了存储和计算资源于一体的解决方案。该方案是一个软硬件一体化平台,在2U空间中提供2或4个节点。

每个节点运行着hypervisor(支持ESXi, KVM, Hyper-V)和Nutanix控制器虚机(CVM)。Nutanix CVM中运行着Nutanix核心软件,服务于所有虚机和虚机对应的I/O操作。

得益于Intel VT-d(VM直接通路)技术,对于运行着VMware vSphere的Nutanix单元,SCSI控制(管理SSD和HDD设备)被直接传递到CVM。”

个人总结: 从以上官方文档可知,2U的空间可以安装2~4个Nutanix节点(每个节点相当于1台物理服务器),所以设备装机密度非常高。每个节点都安装着虚拟化软件,并且在虚拟化层之上再运行着一台Nutanix的控制虚机(CVM),该虚机主要负责不同的Nutanix节点之间控制平面的通信。单个节点中配置有SSD硬盘与HDD硬盘,替代磁盘阵列作为存储使用,单个节点有独立的CPU与内存,作为计算节点使用。

1、基础架构

以3个Nutanix节点为例,每个节点安装有Hypervisor,在Hypervisor之上运行着客户虚拟机,并且每个节点有一台Nutanix控制器虚机Controller VM,配置有2块SSD与4块HDD,通过SCSI Controller作读写。

2、数据保护

Nuntanix与传统磁盘阵列通过Raid、LVM等方式作数据保护不同,而是与一般的分布式存储一样,通过为数据建立副本,拷贝到其他Nutanix节点存放,来对数据进行保护,Nutanix将副本的数量称作RF(一般RF为2~3)。

当客户虚机写入数据“见图上1a)流程”,数据先写入到本地Nutanix节点的SSD硬盘中划分出来的OpLog逻辑区域(相当于Cache的作用),然后执行“1b)”流程,本地节点的CVM将数据从本地的SSD的OpLog拷贝到其他节点的SSD的OpLog,拷贝份数视RF而定。当其他节点CVM确定数据写入完成,会执行“1c”流程,给出应答写入完成。通过数据副本实现对数据的保护。

数据从SSD中的OpLog写入到SSD以及HDD的Extent Store区域,是按照一定的规则异步进行的,具体详见下面的部分。

3、存储分层

Nutanix数据写入以本地落盘为主要写入原则(核心原则)。

当客户虚机写入数据是,优先考虑写入本地SSD(如果SSD已用容量未达到阀值),如果本地SSD满了,会将本地SSD的最冷的数据,迁移到集群中其他节点的SSD,腾出本地SSD的空间,写入数据。本地落盘的原则,是为了尽量提高虚机访问存储数据的速度,使本地虚机不需要跨节点访问存储数据。(这点应该是与VSAN与其他分布式文件系统最大原理性区别)

当整个集群的SSD已用容量达到阀值(一般是75%),才会将每个节点的SSD数据迁移到该节点的HDD硬盘中。

SSD迁移数据到HDD,并非将所有数据全部迁移到HDD,而是对数据进行访问度冷热的排序,并且将访问较少的冷数据优先迁移到HDD硬盘中。

如SSD容量达到95%的利用率,则迁移20%的冷数据到HDD;如SSD容量达到80%,则默认迁移15%的冷数据到HDD。

4、数据读取与迁移

Nutanix圣经引用-“ <u style="text-decoration: none; border-bottom: 1px dashed grey;">I/O和数据的本地化(data locality),是Nutanix超融合平台强劲性能的关键所在。所有的读、写I/O请求都藉由VM的所在节点的本地CVM所响应处理。所以基本上不会出现虚机在一个节点,而需要访问的存储数据在另外一个物理节点的情况,VM的数据都将由本地的CVM及其所管理的本地磁盘提供服务。</u>

<u style="text-decoration: none; border-bottom: 1px dashed grey;">当VM由一个节点迁移至另一个节点时(或者发生HA切换),此VM的数据又将由现在所在节点中的本地CVM提供服务。当读取旧的数据(存储在之前节点的CVM中)时,I/O请求将通过本地CVM转发至远端CVM。所有的写I/O都将在本地CVM中完成。DFS检测到I/O请求落在其他节点时,将在后台自动将数据移动到本地节点中,从而让所有的读I/O由本地提供服务。数据仅在被读取到才进行搬迁,进而避免过大的网络压力。</u>

个人总结: 即一般虚机读写数据都是读本地节点的硬盘,如果本地节点硬盘没有该数据,会从其他节点先拷贝过来本地节点硬盘,再为本地虚机提供访问,而不是虚机直接访问其他节点。即要贯彻本地落盘的核心思想。

5、Nutanix解决方案的优缺点

Nutanix方案优点:

1) 本地落盘策略,确保虚机访问存储速度:虚机写入的数据都在本物理节点的磁盘上,避免跨节点存储访问,确保访问速度,减轻网络压力。

2) 采用SSD磁盘作为数据缓存,大幅提升IO性能:

见上表数据,从随机的读写来看,SSD的IO及带宽性能比SATA的性能提升了约1000倍。而结合Nutanix的本地落盘策略,虚机数据写入,仅有本地的2块SSD硬盘作为数据缓存负责写入数据。

但由于单块SSD硬盘的IO比传统阵列的SATA高出1000倍,IO性能大幅提升。(相当于要超过2000块SATA硬盘做Raid,才能提供近似的IO性能)。

3)永远优先写入SSD,确保高IO性能

数据写入HDD不参与,即使本地SSD容量满了会将冷数据迁移到集群其他节点SSD,然后还是SSD进行读写,确保高IO。后续异步将SSD冷数据迁移到HDD。

4)数据冷热分层存储

冷数据存放在HDD,热数据保留在SSD,确保热点数据高IO读取。

5)设备密度高,节省机房机架空间

2U可以配置4个节点,包含了存储与计算,比以往机架式/刀片服务器与磁盘阵列的解决方案节省了大量的空间。

Nutanix方案缺点:

1)本地落盘及SSD缓存方案确保了高IO,但是硬盘的带宽得不到保证。

传统磁盘阵列,多块SATA/SAS硬盘加入Raid组,数据写入的时候,将文件拆分为多个block,分布到各个硬盘中,同个Raid组的硬盘同时参与该文件的block的读写。通过多块硬盘的并行读写,从而提升IO与带宽性能。

而Nutanix的解决方案中,单个文件的读写遵循本地落盘的策略,因此不再对文件拆分到多块硬盘进行并行读写,而只有本地节点的SSD硬盘会对该文件进行写入。

虽然SSD硬盘的IO与带宽都是SATA/SAS的数百上千倍,但是SSD对比SATA/SAS硬盘在带宽上面只有2~3倍的速率提升,而传统Raid的方式,多块硬盘并行读写,虽然IO比不上SSD,但是带宽则比单块/两块SSD带宽高出很多。

因此Nutanix的解决方案适合用于高IO需求的业务类型,但是因为它的读写原理,则决定了它不合适低IO、高带宽的业务类型。

三)行业竞争对手对比:

VMWARE EVO RAIL软件包:VMware没有涉足硬件产品,但EVO: RAIL 软件捆绑包可供合格的 EVO: RAIL 合作伙伴使用。合作伙伴转而将硬件与集成的 EVO: RAIL 软件一起出售,并向客户提供所有硬件和软件支持。

而EVO:RAIL的核心,其实就是VSphere虚拟化软件+VSAN软件的打包。

但VSAN与Nutanix最大的一个区别,就是不必须完全遵循Nutanix的本地落盘的策略。可以通过设置条带系数,将本地虚机的数据读写设置为横跨多个节点的硬盘,默认条带系数为1,最大可设置为12个,即一个虚机的数据写入,可以同时采用12个节点的SSD硬盘并行读写。

通过这种方式,VSAN可以一定程度的弥补了Nutanix方案不适用于带宽要求高,IO要求低的业务类型的缺点。

但是这种横跨物理节点的访问流量,在虚机数量众多的情况下,肯定会给网络带来压力,网络带宽可能会成为另一个瓶颈。

其次VSAN可以集成在Hypervisor层,而不需要像Nutanix在Hypervisor上面运行一个控制虚机CVM。

再次,Nutanix支持KVM、Hyper-V、ESXI等多种Hypervisor,而VSAN仅支持自家的ESXI。

其他待补充:由于暂时未对VSAN进行实际部署测试,仅停留在对其原理的研究,因此,关于VSAN的部分待后续平台上线测试完成后继续补充。

这是一个由VMware的Robbie Jerrom撰写的访客帖子。Robbie与VMware在欧洲的一些最大客户一起工作,因为他们专注于将现代和云本机应用程序和平台带到他们的VMware软件定义的数据中心。在加入VMware之前,Robbie花了十年时间作为软件工程师构建企业软件,如Java虚拟机、CICS和WebSphere。Robbie也是VMware首席技术官大使社区的成员,确保了VMware的工程组织和现实世界客户之间的紧密协作。

在这篇博客中,我们更深入地探讨了根据最近的发布,VMware和Red Hat是如何协作以更好地集成OpenShift容器平台和VMware的软件定义数据中心(SDDC)基础架构堆栈的。我们有许多共同客户希望充分利用他们的技术投资组合。而且,由于VMware和Red Hat都将Kubernetes作为支持其现代应用程序的核心平台,因此,我们共同致力于为在VMware SDDC上部署OpenShift的客户实现成功,这是合乎逻辑的。

下面,第一步是沟通和分享我们已经拥有的共同点。

VMware vSphere和Red HatEnterprise Linux已经可以很好地协同工作;但是IT团队和OpenShift管理员往往忽略了为交付更好的存储和SDN而进行的体系结构调整。为了解决这一问题,本文概述了Red Hat OpenShift Container Platform 311核心文档的最新更新,其中包括了SDN和存储集成的最新指导文档以及支持SDN(NSX-T/NCP)和Kubernetes存储的专用VMware文档。

让我们一起深入研究这两个领域。

一、存储

为了支持容器的持久存储需求,VMware开发了vSphere云服务程序及其相应的卷管理插件。这些可以提供给Red Hat OpenShift,用以支撑VMWare的vSAN或者支持vSphere的任意数据库。虽然每个存储后端的各不相同,但这种集成方案依旧可以满足。

这些公布的存储产品为VMFS、NFS或vSAN数据存储。企业级功能(如基于存储策略的管理(SPBM))提供了自动化的资源调配和管理,使客户能够确保其业务关键应用程序请求的QoS,并在SDDC平台上确保SLA达成。

SPBM在广泛的数据服务和存储解决方案中提供单一的统一控制平面。SPBM还使vSphere管理员能够克服预先的存储资源调配挑战,例如:容量规划、差异化的服务级别和管理容量净空。

Kubernets StorageClass允许按需创建持久卷,而不需要创建存储并将其挂载在OpenShift的节点之上。StorageClass指定一个提供者和相关参数,用于定义持久卷预期策略,该策略将动态地提供。

组合使用SPBM和vSphere数据存储的组合作为抽象,我们隐藏了复杂的存储细节,并为从OpenShift存储持久数据(PV)环境提供了统一的接口。

根据使用的后端存储,数据存储可以是vSAN、VMFS或NFS:

●VSAN支持可提供强大性能和可靠性的超聚合基础架构解决方案。VSAN的优点是简化了存储管理功能特性,具有诸如在vSphere IaaS层上驱动的存储策略等功能。

●VMFS(虚拟机文件系统)是一个群集文件系统,允许虚拟化扩展到多个VMware vSphere服务器的单个节点之外。VMFS通过提供对存储池的共享访问来提高资源利用率。

●NFS(网络文件系统)是一种分布式文件协议,可以像本地存储一样通过网络访问存储。

1)静态和动态资源调拨

vSphere Cloud Provider提供两种向Red Hat OpenShift容器平台提供存储的方法:静态资源调配和动态资源调配。首选的方法是使用动态资源调配——让IaaS平台处理复杂性。与静态资源调配不同,动态资源调配会自动触发创建PV及其后端VMDK文件。这是一种更安全的方式,对于在vSphere上提供可靠的Red Hat OpenShift容器平台至关重要。

2)动态调拨

●为OpenShift集群定义默认的StorageClass

●在Kubernetes中创建Persistent Volume Claim

3)静态调拨

●在vSphere存储上创建虚拟磁盘并挂载到Red Hat OpenShift容器平台节点

●在OpenShift中为该磁盘创建持久卷(PV)

●创建一个持久卷,申请一个PVC

●允许POD认领PVC

与SPBM一起使用vSphere Cloud Provider,可以让vSphere和OpenShift管理员了解存储,并让他们能够在不增加OpenShift层复杂性的情况下利用后端存储功能。

二、网络(SDN)

NSX-T数据中心通过NSX容器插件(NCP)帮助OpenShift客户简化了网络和基于网络的安全性。NCP在IaaS级别提供OpenShift和VMware NSX Manager之间的接口。

NCP在每个OpenShift节点上运行,并将容器的网络接口连接到NSX覆盖网络。它监视容器生命周期事件,并通过调用NSX API管理容器的网络资源,如负载平衡器、逻辑端口、交换机、路由器和安全组。这包括客户vSwitch的编程,以便在容器接口和虚拟网络接口卡(VNIC)之间标记和转发容器流量。

NCP提供如下功能:

●自动为OpenShift集群创建NSX-T逻辑拓扑,并为每个OpenShift命名空间创建单独的逻辑网络

●将OpenShift pods连接到逻辑网络,并分配IP和MAC地址

●支持网络地址转换(NAT),并为每个OpenShift命名空间分配一个单独的SNAT IP

●使用NSX-T分布式防火墙实施OpenShift网络策略

●支持进出网络策略

●在网络策略中支持IPBlock选择器

●当为网络策略指定标签选择器时,支持matchLabels和MatchExpression

●使用NSX-T的7层负载均衡器实现OpenShift路由器

●通过TLS edge termination支持HTTP路由和HTTPS路由

●支持具有备用后端和通配符子域的路由

●为NSX-T逻辑交换机端口命名空间、pod名称创建标签,标记pod,并允许管理员基于标记定义NSX-T安全组和策略。

1)微分段

NSX-T(通过NCP)可以使用预定义的基于标签的规则和每个命名空间的Kubernetes网络策略,将微分段应用到OpenShift pod。预定义的标记规则使您能够在部署之前根据业务逻辑定义防火墙策略,而不是使用诸如静态IP地址等效率较低的方法来制定安全策略。使用此方法,NSX-T中定义的安全组具有入口和出口策略,并进行了微分段,以保护敏感应用程序和数据,可以达到POD和容器底层级别。

最后,NSX-T为OpenShift集群提供了完整的网络可跟踪性和可视性。NSX-T为Kubernetes提供了内置的操作工具,包括:

●端口连接

●流量追踪

●端口镜像

●IpFIX

以上方法为DevOps和专用网络团队提供对OpenShift容器网络的更好可见性,使网络管理员和OpenShift管理员在诊断和排除问题时能够有共同语言。

三、总结

VMware SDDC提供了弹性、可扩展的基础架构,与VMware的Kubernetes解决方案以及Red Hat等关键合作伙伴的解决方案紧密集成。

展望未来,VMware和Red Hat都致力于支持我们的共同客户和Kubernetes社区,共同目标是通过可参考体系结构提供更好的产品集成,该体系结构使改进的工具能够在VMware的SDDC和Red Hat OpenShift容器平台上交付和管理云本机应用程序。

原文链接:

ArthurGuo 职场老司机。21世纪初开始拥抱开源,后转型项目管理。现在某云计算公司担任技术总监。掌握多门计算机语言,但更擅长人类语言。爱玩文字,不喜毒舌。

•目前的版本可扩展到最多32个ESXi主机/节点,每个主机最多支持8个固态硬盘,每个主机最多支持4TB。

•当你启用vFlash后,它会创建一个新型的文件系统,名为虚拟闪存文件系统(即VFFS)。

•VFFS仍会在VFFS上为交换到固态硬盘这项传统功能提供支持。

•为虚拟机启用vFlash时,你可以在一个VMDK而不是在另一个VMDK上启用它。你还可以控制每个VMDK缓存的块大小。

•这种缓存操作对虚拟机的操作系统和应用程序而言是透明的。

两个方面让vFlash显得很独特。首先,VMware完全支持它,即便推出了高级的vSphere功能,比如vSphere高可用性、分布式资源调度工具(DRS)和vMotion。

其次,vFlash框架向第三方开发和管理开放。这意味着,第三方厂商可以开发新的工具,或者将现有的存储工具与vFlash集成起来。vFlash框架让厂商们可以开发出vFlash插件(名为vFlash缓存模块),而VMware vFlash Cache(vFC)插件是我在此讨论的默认插件。

在你开始点击鼠标、试图启用vFlash之前,确保你的系统满足下面这些要求:

•你必须拥有vSphere企业增强版(vSphere Enterprise Plus)的许可证。这是支持vFlash的唯一vSphere版本。

•你必须拥有本地、未使用的固态硬盘磁盘。你无法用它们来启动ESXi、无法存储虚拟机,也无法用于VMware vSAN。

•你必须使用vSphere 55、vCenter 55和vSphere Web客户程序。你无法在vSphere Client for Windows中配置vFlash。

不过,配置vFlash很容易,通过vSphere 55 Web客户程序,分三个步骤来完成:

1 配置虚拟闪存资源。在每个ESXi主机上都要完成这一步。点击Manage(管理)选项卡,再点击Settings(设置),在新的Virtual Flash(虚拟闪存)部分,选择Virtual Flash Resource Management(虚拟闪存资源管理)。点击Add Capacity(添加资源),就可以将你的本地固态硬盘作为一种闪存缓存资源添加上去。

2 配置虚拟交换主机缓存。下一步,点击Settings(设置)下面的虚拟闪存主机交换缓存配置选项。点击Edit(编辑),即可改动虚拟交换主机缓存配置。然后点击启用虚拟交换主机缓存的复选框,并且指定缓存大小(这个大小可以是你的整个固态硬盘,如果你选择这么做的话。)

3 在你的虚拟机上配置vFlash。最后,你需要针对每个虚拟机、每个VMDK来启用vFlash。为此,依次进入到你的虚拟机设置、虚拟机磁盘文件配置以及虚拟闪存读取缓存配置,然后输入一个值。这为该VMDK指定了读取缓存配置大小。你在这里还可以为该虚拟机和VMDK指定读取缓存的块大小。

至此,vFlash已配置完毕。你应该很快可以开始看到该虚拟机及其应用程序执行的所有读取操作的性能得到了提升。

描述vmwarehorizonview桌面虚拟化的特性有哪几方面?

VMware Horizon View是一个功能强大的VDI软件平台,能够帮助组织交付非常棒的最终用户体验,如果得到合理应用还能够提升IT效率。

作 为一名整合人员,从2009起我一直在设计并部署VMware Horizon View,见证了该产品的发展历程。作为企业级VDI平台,VMware Horizon View 53具备丰富的功能集合、易于管理的管理界面而且相当稳定。VMware Horizon View是VMware公司面向最终用户的Horizon产品套件中的一部分。

Horizon View功能特性

以下功能特性使VMware Horizon View成为业界领先的VDI产品:

链接克隆。链接克隆是一个副本虚拟机,该虚拟机与父虚拟机共享虚拟磁盘。这能够显著节省存储空间因为每个虚拟桌面镜像都是主镜像的一部分。

ThinPrint。ThinPrint是一款OEM产品,VMware View客户端能够为虚拟桌面提供打印机。打印机驱动器以及设备必须配置并连接到客户端设备,可以使用本地打印机或网络打印机。

PCoIP。PCoIP远程显示协议技术将镜像像素压缩、加密并快速传送至PCoIP最终用户设备。从用户的角度看,使用个人电脑与通过PCoIP运行软件镜像的零客户端没有差别。因为协议只传输镜像像素,业务数据始终位于数据中心内部。

最终用户体验功能。 Horizon View基于Nvidia GPU技术提供了虚拟专用图形加速功能,支持3-D图形硬件加速。Horizon View还利用微软的Lync提供了统一通信支持。还对其他UC厂商提供了第三方支持。最后,Horizon View提供了HTML 5零客户端访问,如果设备具备多点触摸功能,还能够运行Windows 8。

Horizon View存储特性

VMware Horizon View利用了vSphere hypervisor的众多功能,其中存储功能是VMware Horizon View与其他VDI软件最明显的区别之一。

用于链接克隆桌面的SEsparse磁盘。能够更高效地使用磁盘,只存储实际使用的数据,能够回收View Composer所使用的磁盘。

VSAN。VMware VSAN允许组织使用本地服务器磁盘并将其作为共享存储映射给vSphere集群。VSAN降低了TCO。

View Composer阵列集成(VCAI)。 VCAI 允许组织使用网络附加存储快照或者克隆功能减少CPU消耗、降低网络带宽。

View 存储加速器。 View存储加速器借助vSphere主机内存缓存大多数常见的被读取的数据块,缓解了SAN存储的性能瓶颈。

Horizon View优势与不足

Horizon View因易于使用、管理而比其他VDI产品更胜一筹。管理员只需要使用两个界面,VMware vCenter以及View Administrator。View Administrator是一个使用Adobe Flex平台、基于Web的界面,因易于使用而引入关注。

Horizon View同样兼容于vCenter虚拟设备以及基于Web的vSphere Client。VMware用户因View与vSphere之间的紧密集成而受益。Horizon View还与应用虚拟化产品ThinApp以及Horizon Workspace进行了集成。在Workspace门户可以通过单点登录直接访问桌面。

虽然提供了这些功能,但某些功能还存在一些不足之处。比如用于配置文件重定向的永久磁盘以及View Persona(用户配置文件管理工具)在细粒度控制、稳定性上存在欠缺。第三方的产品在解决上述问题时要好过Horizon View内置的工具。

VMware认为Horizon View是VDI产品中的瑞士军刀,但是随着高级工程与第三方的集成不断增多,Horizon View既有优势也有不足—然而微软或Citrix架构允许进行更多的定制。

Horizon View用例

确定业务用例对Horizon View的成功部署至关重要。大多数组织从培训室、会议室入手开启VDI之旅。从2009年起,我亲眼目睹了Horizon View走向成熟,也见证了很多组织使用Horizon View解决了更为复杂的业务用例。

登录进去就可以取消。

请点登陆后下载,如果您还没有账户请点注册,登陆完成后,请刷新本页查看技术详细信息。

背景技术随着hternet应用的不断发展,网络服务器需要存储的信息不断增长,这会导致网络服务器的存储容量也不断增长。

如果源物理机有3个分区,每个分区使用40GB、60GB、80GB,则为目标虚拟机分配硬盘为(40+60+80)×2=360GB即可。统计之后,根据计算结果创建虚拟机。

(3)在虚拟机中安装操作系统,安装的操作系统与源物理机最好一致,在安装操作系统的过程中,参照源物理机的配置划分分区数量,分区大小分别为原来每个分区使用空间的2倍,但系统分区至少需要40~80GB空间。

说明如果操作系统是Windows Server 2003,则系统分区保持40~60GB即可,如果是Windows Server 2008及其以后系统,则需要60~100GB为宜。

(3)安装好虚拟机操作系统之后,对照源物理机,安装源物理机中的应用程序。安装之后,通过网络或活动硬盘等介质,从源物理机备份(复制)数据到新的虚拟机。数据恢复之后,配置应用程序。

(4)关闭源物理机,修改目标虚拟机的IP地址,代替源主机对外提供服务。

(5)等待业务运行一段时间,一般为7~15天即可。运行正常,源物理机可以另做他用。

4 传统的双机热备可以改用虚拟化

于医院、医药公司,单位财务部门使用的“关键应用”的服务器,为了提高系统的可靠性,大多配置了“双机热备”,即两个相同配置的服务器+共用的存储,在两

台服务器上安装操作系统及数据库应用程序,将后台数据库保存在存储上。在这种传统的双机热备系统中,服务器的浪费率是最高的,因为同一时刻只有一台服务器

对外提供服务,另一台虽然也在开机,但安装在这台服务器上的应用则处于“待机”状态,只有另一台服务器出现问题时,这台服务器才能接管服务,对外提供服

务。在大多数的双机热备系统中,每个双机热备系统只运行一个应用,如果有多个应用,就需要有多套“双机热备”的系统。可以说,对于一个单位来说,部署的双

机热备的应用越多,浪费也就越严重。另外,在配置双机热备的系统时,服务器及存储的硬件选择,也是远远超过了所部署软件的需求。例如,某医院的某个应用系

统,配置的双机热备服务器,为每台服务器配置了64GB内存、2个Intel

E5-2650的CPU、8TB的存储,但实际这个应用在高峰时期的内存只有21GB、CPU利用率9%以下,而这套系统运行1年之后的数据量一共

300GB左右。传统双机热备如图2所示。

图2 双机热备

于这些双机热备系统,可以使用VMware

vSphere虚拟化软件,通过配置HA来实现。可以说,在启用了HA之后,群集中的每个虚拟机(对应每个应用)都是“高可用”的。如果说,配置一套双机

热备需要2台服务器、1个存储外,使用同样的硬件可以配置多个“高可用”的应用。

通常情况下,我们在设置vSphere群集时,一般最小设计3台ESXi主机(每台主机推荐4个网卡)、1个存储、1个vCenter Server(放置在ESXi虚拟机中),这样的虚拟化群集之上运行的虚拟机以及运行在虚拟机中的应用程序,都是高可用的,如图3所示。

图3 vSphere高可用群集

在唯一的区别是,在传统的双机热备中,某个主机出错由另一个主机接管的时间很小,而采用vSphere群集,当某个主机出故障时,这个主机上原来运行的虚

拟机,由其他主机接管并对外提供服务时,需要有个“重新启动”的时间。当然,对于90%以上的企业,是可以容忍这个“重新启动”的时间的,一般在1~3分

钟之内。

如果你需要和双机热备一样,需要实现“零中断”的虚拟机,也不是不可以。vSphere中的“FT(容错)”可以提供这个功能。在

为虚拟机启用FT功能后,同一虚拟机会在两个不同的主机运行,并且一个虚拟机为“主”,另一个辅助虚拟机为“只读”版本,当“主”虚拟机所在主机出现问题

时,“辅助”虚拟机会变为“主”虚拟机对外提供服务,这个过程可以达到“零切换时间”。只是当前的vSphere

5x的版本中,启用容错配置的虚拟机只能配置一个CPU,估计这个问题会在vSphere新的版本中解决。

在有“双机热备”的企业中,如果实施虚拟化相对也是比较容易的,因为企业中有备用的计算机可以做虚拟化主机(双机势备系统中的另一台不用的计算机,在项目实施的初期可以安装VMware ESXi)。

5 传统桌面升级改造可以使用虚拟化

前企业中有大量运行Windows XP的计算机,随着Microsoft停止对Windows

XP操作系统的支持,这些计算机需要逐渐升级到Windows 7或Windows 81。但这些运行Windows

XP的计算机配置较低,如果升级操作系统还需要升级甚至更换硬件。如果采用传统的方式,只能是更换新的主机以适应新的操作系统。而现在借助VMware

View虚拟桌面则有了更多的选择。企业可以通过配置VMware View桌面来解决这个问题。在不更换工作站的前提下,工作站仍然运行Windows

XP操作系统,但用户在使用时,则是使用View Client登录Windows 7或Windows

81的虚拟桌面,这相当于使用用户原来的硬件设施运行Windows 7。而用户的数据仍然保存在运行Windows

XP的本地硬盘中,如果有打印任务,仍然是打印在用户当前的打印机上。如果有其他外设,例如USB的摄像头、其他外设,都是可以映射到VMware

View桌面中使用,与使用本地计算机相同。

在使用View桌面一段时间之后,可以将原来的PC主机更换为支持VMware View的瘦客户端,以达到节能降耗的目的(传统的PC主机功耗大约在130W,而新型的廋客户端功率只有不到20W甚至只有几W)。

6 虚拟化项目中存储的选择

在企业实施虚拟化的时候,优先推荐使用SAN,并且是基于FC或SAS直连的共享存储,不建议使用iSCSI存储。因为vSphere的一些高级功能,

例如vMotion、HA、DRS,都是依赖于共享存储。存储性能的坏以及服务器到存储的连接速度,都影响虚拟机的性能。

从vSphere 55版本开始,又有了新的选择。企业也可以考虑使用VMware

VSAN技术,将服务器本地硬盘虚拟为存储区域网络,用于VMware虚拟机及View虚拟桌面。目前,VSAN要求至少有三台vSphere主机,安装

ESXi 55及vCenter Server

55,每台主机必须要有一块SSD固态硬盘(用于数据缓存)、一块本地硬盘。目前还不建议使用VSAN取代SAN,但是可以使用VSAN作为一个新的存

储层,例如做VDPA备份设备的存储空间。

不建议使用VSAN的另一个考点时,如果使用共享存储,可以利用DRS及DPM功能,将虚拟机集中整合到几台主机,将资源闲置的主机处于“待机状态”而节省能源。但如果使用VSAN,可能这一效果就要大打折扣。

7 vSphere虚拟化产品的选择

我们规划与实施虚拟化的数据中心时,推荐最小使用三台主机、2台存储,如图4所示。每台主机推荐4个网卡、至少2个CPU、64~128GB内存。存储、

网络交换机与服务器之间都需要有冗余连接。在选择2台存储时,如果都是FC或SAS的存储,则可以在两台分别存放虚拟机,并在另一台存储存放备份;如果1

台是FC或SAS存储,1台是iSCSI存储,则将虚拟机存储在FC或SAS存储,另一台做备份。

图4 vSphere数据中心中设备连接示意图

使用vSphere的时候,为虚拟化数据中心配置HA,并启用DRS、DPM功能。在大多数的数据中心中,当负载较重时,群集中的每台主机都会开启运行;

而当负载较轻时,DRS会迁移虚拟机、集中到某2台主机中,而DPM则会将暂时不用的主机进入“待机”状态,这样会减少能源的消耗。当负载变重时会依次打

开待机的主机,并在主机间调整虚拟机。

在部署好vCenter Server、ESXi后,最好部署VDP(Sphere Data

Protection)或VDPA(vSphere Data Protection

Advanced)备份装置,备份数据中有重要应用的虚拟机,如果备份空间满足需要则备份所有虚拟机。在选择备份位置时,要选择与虚拟机不在同一位置的备

份设备。例如,如果虚拟机运行在FC或SAS存储上,则可以将备份位置选择另一存储。当没有多余的存储时,可以将数据备份在某台服务器的本地硬盘空间。

在我们实施虚拟化项目时,都会购置新的存储。在实施虚拟化项目后,可以使用的数据中心原来的存储做备份使用。如果数据中心没有多余存储,可以用节省下来的服务器做网络存储,或者使用服务器的本地硬盘提供的共享文件夹用做存储位置,这些都是折衷的办法。

数据中心中虚拟机数量较多、应用较多时,需要选择vCenter Operations

Manager,用于动态监控vSphere数据中心。vCenter Operations Manager

从虚拟环境每个级别的每个对象(从单个虚拟机和磁盘驱动器到整个群集和数据中心)收集性能数据,它存储并分析这些数据,而且使用该分析提供关于虚拟环境中

任意位置的问题或潜在问题的实时信息。

8 结语

虚拟化不是万能的,但没有虚拟化是万万不能的。随着企业信息化的发展,各

种应用的增加,以及单位领导、信息中心主管观念的改变,虚拟化作为一项基础的应用,其发展会越来越好。各类组织借助VMware公司的软件,实施了虚拟化

从数据中心到云到移动设备等各类基础架构,简化了企业IT的运营,让业务更加敏捷、高效。

VMware

率先使用虚拟化和策略驱动的自动化技术,简化整个数据中心的 IT

复杂性。VMware通过虚拟化软件、专业服务和一个强大的合作伙伴体系为55,000 多家合作伙伴、为 500,000

多名客户创造价值,促进了应用互操作性,并为客户提供更广阔的选择空间。

随着时代的发展,社会的进步,作为虚拟化技术的引导者、业界领先的虚拟化软件公司,相信VMware会给技术人员带来更多的惊喜,给企业带来更多的便利!

本文出自 “王春海的博客” 博客,请务必保留此出处http://wangchunhaiblog51ctocom/225186/1425557

DABAN RP主题是一个优秀的主题,极致后台体验,无插件,集成会员系统
网站模板库 » 【理论研究】漫谈云计算IT基础设施05-超融合技术

0条评论

发表评论

提供最优质的资源集合

立即查看 了解详情