DRS是什么?
DRS
VMware Infrastructure 3 DRS (Distributed Resource Scheduler)
Vmware 分布式资源调度程序(DRS)跨聚合到逻辑资源池中的硬件资源集合来动态地分配和平衡计算容量。Vmware DRS跨资源池不间断地监控利用率,并根据反映了业务需要和不断变化的优先事务的预定义的规则,在多个虚拟机之间智能地分配可用资源。当虚拟机遇到负载增大时,Vmware DRS将通过在资源池中的物理服务器之间重新分布虚拟机来自动为其分配更多资源。
Vmware DRS使IT部门能够:
☆ 使资源优先于最重要的应用程序,以便让资源与业务目标相协调。
☆ 自动、不间断地优化硬件利用率,以响应不断变化的情况。
☆ 为业务部门提供专用的(虚拟)基础结构,同时让IT部门能够集中、全面地控制硬件。
☆ 执行零停机服务器维护。
Vmware DRS跨聚合到逻辑资源池中的硬件资源集合动态地分配和平衡计算容量。Vmware DRS跨资源池不间断地监控利用率,并在多个虚拟机之间智能地分配可用资源。Vmware DRS允许用户确定以下方面的规则和策略:决定虚拟机共享资源的方式与在多个虚拟机之间排定这些资源的优先级的方式。当虚拟机遇到负载增大时,Vmware DRS将首先根据既定的资源分配规则和策略评估其优先级,如果合理,则分配更多资源。资源是通过以下两种方式分配给虚拟机的:将虚拟机迁移到具有更多可用资源的另一台服务器上;或者通过将其他虚拟机迁移到别的服务器上而在此服务器上为该虚拟机营造更大的“空间”。通过Vmware VMtion将虚拟机实时迁移到不同的物理服务器是以对最终用户完全透明的方式完成的。
Vmware DRS可以配置为以自动或手动模式操作。在自动模式下,DRS将确定以尽可能最好的方式在不同的物理服务器之间分配虚拟机,并自动将虚拟机迁移到最合适的物理服务器上。在手动模式下,Vmware DRS将提供一个把虚拟机放到最佳位置的建议,将它提供给系统管理员,由其决定是否进行更改。资源池灵活的分层结构使管理员能够将可用的IT资源与业务部门的需求相协调起来。各业务部门可以收到专用的IT资源,同时仍然能够受益于资源池的高效性。通过强健的访问特权管理,能够将一个业务部门资源池的例行基础结构任务委派给一名业务部门系统管理员。
☆ 使IT资源与业务优先事务相匹配。
确定规则和策略以决定应如何在虚拟机之间排定资源的优先级 Vmware DRS动态、智能地将IT资源分配给优先级最高的虚拟机,以确保业务与IT之间最好的协调性。
☆ 保证IT自主性和向业务部门提供的服务级别。
为业务部门提供专用的IT基础结构,同时仍能够通过资源池受益于更高的硬件利用率。
☆ 大大提高了系统管理员的生产效率。
使单个系统管理员能够监控并有效地管理大型基础结构资源池。
☆ 自动化硬件维护。
当将一个物理服务器置于维护模式下时,Vmware DRS将自动把所有虚拟机迁移到其他物理服务器上,从而实现零停机的服务器维护。
☆ 方便地添加和部署新容量。
当向资源池中添加新的物理服务器时,Vmware DRS将在服务器之间重新分配虚拟机后自动利用添加的容量。
☆ 使用Vmware DRS的资源池。将全异的硬件聚合到统一的逻辑资源池中使用Vmware DRS,资源池实现里自动、智能的优化,从而确保IT资源分配与业务优先事务相匹配,同时最大限度地提高了硬件利用率。
☆ 将资源从硬件中提取出来。无须使用提供资源的物理服务器管理资源。
☆ 灵活的分层结构。分层组织资源池,以使可用的IT资源与业务部门的需求对应起来。Vmware DRS确保实现最高的资源利用率,同时保持业务部门对其基础结构的控制权和自主权。可以根据业务需要或部门变动灵活地添加、删除或重组资源池。
☆ 在资源池之间进行隔离。在资源池中进行分配更改,而不影响其他不相关的资源池。例如,在专用于某一特定的业务部门的资源池中所做的任何分配更改将不会影响其他资源池。
☆ 访问控制和委派。在公司中不同的级别上加强资源分配管理,同时消除了瓶颈。可以将针对某个业务部门的虚拟机创建和维护任务委派给一名业务部门系统管理员,从而消除了每一项例行操作都依赖中心IT部门的现象。
☆ 管理运行分布式应用程序的虚拟机组。对于运行分布式应用程序的整组虚拟机,控制了其聚合式资源分配后,便可优先分布式应用程序的服务级别。
手动和自动模式。Vmware DRS从服务器和虚拟机中收集资源利用率信息,然后生成优化虚拟机分配的建议。可以自动或手动执行这些建议。
☆ 初始放置。当一个虚拟机刚启动时,Vmware DRS会自动把该虚拟机放置到最合适的物理服务器上,或提出建议。
☆ 不间断地优化。Vmware DRS根据设定的资源分配规则以及资源利用率情况不间断地优化资源分配。可以通过使用VMtion执行虚拟机的实时迁移,以自动执行资源分配更改。另外,以手动模式操作,Vmware DRS将为系统管理员提供执行建议。 服务器维护模式。在物理服务器上执行维护,而无需中断虚拟机和最终用户。当一台物理服务器置于维护模式时,Vmware DRS将确定虚拟机可以在其上运行的其他备选服务器。根据自动模式设置,虚拟机可以自动过渡到使用备选服务器,也可以由系统管理员以Vmware DRS建议为指导原则手动执行此过渡。
☆ 亲合性规则。创建用于管理为物理服务器分配虚拟机的规则。例如,出于性能原因,某些虚拟机可以始终运行在同一台服务器上。另外,指定的虚拟机可以一直运行在不同的服务器上以实现更高的可用性。
☆ Vmware DRS包括Vmware Infrastructure3 Enterprise中。
☆ DRS 还可以作为单独授予使用许可的产品随Vmware Infrastructure3 Standard和Vmware Infrastructure3 starter一起购买。
Vmware DRS需要ESX Server、virtuaiCenter Mangerment Server和VMtion。有关产品规格和系统要求的详细信息,请参考位于http://wwwvmwarecom /support/pubs/vi-pubshtml上的Vmware Infrastructure安装和升级指南中的“系统要求”章节,以及资源管理指南
DSR:Diffuse Reflectance Spectroscopy 散射反射谱
1、资源管理不同:物理服务器的资源量和性能,相比云服务器拥有更高的优势。但在资源的管理和使用方面,云服务器更加灵活,通过云托管可以轻松执行资源分段,并且成本低。
2、安全:根据安全需求,物理服务器租用支持自由构建任意所需安全设置,最大限度地保障网站或应用安全,物理服务器租用专用于单个用户。云服务器则利用VxLAN等虚拟化技术,使每个用户都拥有相互分割,相对独立的空间。
3、适应性:选择合适的业务托管服务完全取决于需求。如果想提高网站性能,需要掌握背后的技术。选择物理服务器对于更加重视数据安全问题的大型企业和电商公司来说是一个绝佳选择。用户定期进行高度安全交易的高流量网站,需要物理服务器租用提供的稳定性、安全性和可扩展性。
使用云服务器注意事项
在选择使用云服务器的时候,服务商的水平很重要,关系着服务器的安全,数据问题。后续公司业务扩展也和其有关联。如果在使用过程中,服务器因不明原因宕机,服务商未能及时解决问题,极易造成很大的损失。因为服务商的售后服务和专业技术团队才是选择服务器所在的关键。
服务器的网络速度直接影响到服务器的运行速度的,如果网络资源不足,会导致网站打开加载过慢,直接影响用户的访问体验。南方地区基本采用的是电信的光纤,运行速度可以,但是到了二三线城市,光纤的速度自然下降,因此网络带宽资源选择也很重要。
以上内容参考 -云服务器、-服务器
服务器机房
物理服务器,一般是指将实体电脑(服务器电脑)托管到机房或者IDC中心,一般性能比较高,成本投入也比较大。
云服务器,如阿里云的ECS,性价比更高,话很少的钱得到最优的服务。
云主机,云主机可以想象成放在云端的虚拟主机,没有云服务器性能好,比虚拟主机性能好。
虚拟主机,从名字上就可以看出是虚拟出来的主机,一般是在物理机或者云服务器上安装虚拟机,分割成多个虚拟主机,其实就是占用服务器的一小块资源。
二层三层四层交换机区别
二层交换技术是发展比较成熟,二层交换机属数据链路层设备,可以识别数据包中的MAC 地
址信息,根据MAC 地址进行转发,并将这些MAC 地址与对应的端口记录在自己内部的一个地
址表中。具体的工作流程如下:
(1) 当交换机从某个端口收到一个数据包,它先读取包头中的源MAC 地址,这样它就知道
源MAC 地址的机器是连在哪个端口上的;
(2) 再去读取包头中的目的MAC 地址,并在地址表中查找相应的端口;
(3) 如表中有与这目的MAC 地址对应的端口,把数据包直接复制到这端口上;
(4) 如表中找不到相应的端口则把数据包广播到所有端口上,当目的机器对源机器回应
时,交换机又可以学习一目的MAC 地址与哪个端口对应,在下次传送数据时就不再需要对所
有端口进行广播了。
不断的循环这个过程,对于全网的MAC 地址信息都可以学习到,二层交换机就是这样建立和
维护它自己的地址表。
从二层交换机的工作原理可以推知以下三点:
(1) 由于交换机对多数端口的数据进行同时交换,这就要求具有很宽的交换总线带宽,
如果二层交换机有N个端口,每个端口的带宽是M,交换机总线带宽超过N×M,那么这交换
机就可以实现线速交换;
(2) 学习端口连接的机器的MAC 地址,写入地址表,地址表的大小(一般两种表示方式:
一为BEFFER RAM,一为MAC 表项数值),地址表大小影响交换机的接入容量;
(3) 还有一个就是二层交换机一般都含有专门用于处理数据包转发的ASIC (Applicati
on specific Integrated Circuit)芯片,因此转发速度可以做到非常快。由于各个厂家
采用ASIC 不同,直接影响产品性能。
以上三点也是评判二三层交换机性能优劣的主要技术参数,这一点请大家在考虑设备选型
时注意比较。
(二)路由技术
路由器工作在OSI模型的第三层---网络层操作,其工作模式与二层交换相似,但路由器工
作在第三层,这个区别决定了路由和交换在传递包时使用不同的控制信息,实现功能的方
式就不同。工作原理是在路由器的内部也有一个表,这个表所标示的是如果要去某一个地
方,下一步应该向那里走,如果能从路由表中找到数据包下一步往那里走,把链路层信息
加上转发出去;如果不能知道下一步走向那里,则将此包丢弃,然后返回一个信息交给源
地址。
路由技术实质上来说不过两种功能:决定最优路由和转发数据包。路由表中写入各种信息
,由路由算法计算出到达目的地址的最佳路径,然后由相对简单直接的转发机制发送数据
包。接受数据的下一台路由器依照相同的工作方式继续转发,依次类推,直到数据包到达
目的路由器。
而路由表的维护,也有两种不同的方式。一种是路由信息的更新,将部分或者全部的路由
信息公布出去,路由器通过互相学习路由信息,就掌握了全网的拓扑结构,这一类的路由
协议称为距离矢量路由协议;另一种是路由器将自己的链路状态信息进行广播,通过互相
学习掌握全网的路由信息,进而计算出最佳的转发路径,这类路由协议称为链路状态路由
协议。
由于路由器需要做大量的路径计算工作,一般处理器的工作能力直接决定其性能的优劣。
当然这一判断还是对中低端路由器而言,因为高端路由器往往采用分布式处理系统体系设
计。
(三)三层交换技术
近年来的对三层技术的宣传,耳朵都能起茧子,到处都在喊三层技术,有人说这是个非常
新的技术,也有人说,三层交换嘛,不就是路由器和二层交换机的堆叠,也没有什么新的
玩意,事实果真如此吗?下面先来通过一个简单的网络来看看三层交换机的工作过程。
组网比较简单
使用IP 的设备A------------------------三层交换机------------------------使用IP 的
设备B
比如A要给B 发送数据,已知目的IP,那么A就用子网掩码取得网络地址,判断目的IP 是否与
自己在同一网段。
如果在同一网段,但不知道转发数据所需的MAC 地址,A就发送一个ARP请求,B返回其MAC 地
址,A用此MAC 封装数据包并发送给交换机,交换机起用二层交换模块,查找MAC 地址表,将
数据包转发到相应的端口。
如果目的IP 地址显示不是同一网段的,那么A要实现和B的通讯,在流缓存条目中没有对应
MAC 地址条目,就将第一个正常数据包发送向一个缺省网关,这个缺省网关一般在操作系统
中已经设好,对应第三层路由模块,所以可见对于不是同一子网的数据,最先在MAC 表中放
的是缺省网关的MAC 地址;然后就由三层模块接收到此数据包,查询路由表以确定到达B的
路由,将构造一个新的帧头,其中以缺省网关的MAC 地址为源MAC 地址,以主机B 的MAC 地址
为目的MAC 地址。通过一定的识别触发机制,确立主机A与B 的MAC 地址及转发端口的对应关
系,并记录进流缓存条目表,以后的A到B 的数据,就直接交由二层交换模块完成。这就通
常所说的一次路由多次转发。
以上就是三层交换机工作过程的简单概括,可以看出三层交换的特点:
由硬件结合实现数据的高速转发。
这就不是简单的二层交换机和路由器的叠加,三层路由模块直接叠加在二层交换的高速背
板总线上,突破了传统路由器的接口速率限制,速率可达几十Gbit/s。算上背板带宽,这
些是三层交换机性能的两个重要参数。
简洁的路由软件使路由过程简化。
大部分的数据转发,除了必要的路由选择交由路由软件处理,都是又二层模块高速转发,
路由软件大多都是经过处理的高效优化软件,并不是简单照搬路由器中的软件。
结论
二层交换机用于小型的局域网络。这个就不用多言了,在小型局域网中,广播包影响不大
,二层交换机的快速交换功能、多个接入端口和低谦价格为小型网络用户提供了很完善的
解决方案。
路由器的优点在于接口类型丰富,支持的三层功能强大,路由能力强大,适合用于大型的
网络间的路由,它的优势在于选择最佳路由,负荷分担,链路备份及和其他网络进行路由
信息的交换等等路由器所具有功能。
三层交换机的最重要的功能是加快大型局域网络内部的数据的快速转发,加入路由功能也
是为这个目的服务的。如果把大型网络按照部门,地域等等因素划分成一个个小局域网,
这将导致大量的网际互访,单纯的使用二层交换机不能实现网际互访;如单纯的使用路由
器,由于接口数量有限和路由转发速度慢,将限制网络的速度和网络规模,采用具有路由
功能的快速转发的三层交换机就成为首选。
一般来说,在内网数据流量大,要求快速转发响应的网络中,如全部由三层交换机来做这
个工作,会造成三层交换机负担过重,响应速度受影响,将网间的路由交由路由器去完成
,充分发挥不同设备的优点,不失为一种好的组网策略,当然,前提是客户的腰包很鼓,
不然就退而求其次,让三层交换机也兼为网际互连。
第四层交换的一个简单定义是:它是一种功能,它决定传输不仅仅依据MAC 地址(第二层网
桥)或源/目标IP 地址(第三层路由),而且依据TCP/UDP(第四层) 应用端口号。第四层交换功
能就象是虚IP,指向物理服务器。它传输的业务服从的协议多种多样,有HTTP、FTP、NFS
、Telnet或其他协议。这些业务在物理服务器基础上,需要复杂的载量平衡算法。在IP 世
界,业务类型由终端TCP 或UDP 端口地址来决定,在第四层交换中的应用区间则由源端和终
端IP 地址、TCP 和UDP 端口共同决定。
在第四层交换中为每个供搜寻使用的服务器组设立虚IP 地址(VIP),每组服务器支持
某种应用。在域名服务器(DNS)中存储的每个应用服务器地址是VIP,而不是真实的服务
器地址。
当某用户申请应用时,一个带有目标服务器组的VIP 连接请求(例如一个TCP SYN包)发
给服务器交换机。服务器交换机在组中选取最好的服务器,将终端地址中的VIP 用实际服务
器的IP 取代,并将连接请求传给服务器。这样,同一区间所有的包由服务器交换机进行映
射,在用户和同一服务器间进行传输。
第四层交换的原理
OSI模型的第四层是传输层。传输层负责端对端通信,即在网络源和目标系统之间协调
通信。在IP 协议栈中这是TCP(一种传输协议)和UDP(用户数据包协议)所在的协议层。
在第四层中,TCP 和UDP标题包含端口号(portnumber),它们可以唯一区分每个数据包
包含哪些应用协议(例如HTTP、FTP 等)。端点系统利用这种信息来区分包中的数据,尤其
是端口号使一个接收端计算机系统能够确定它所收到的IP 包类型,并把它交给合适的高层
软件。端口号和设备IP 地址的组合通常称作“插口(socket)”。
1和255之间的端口号被保留,他们称为“熟知”端口,也就是说,在所有主机TCP/I
P 协议栈实现中,这些端口号是相同的。除了“熟知”端口外,标准UNIX 服务分配在256到
1024端口范围,定制的应用一般在1024以上分配端口号
分配端口号的最近清单可以在RFc1700”Assigned Numbers”上找到。TCP/UDP 端
口号提供的附加信息可以为网络交换机所利用,这是第4 层交换的基础。
"熟知"端口号举例:
应用协议 端口号
FTP 20(数据)
21(控制)
TELNET 23
SMTP 25
HTTP 80
NNTP 119
NNMP 16
162(SNMP traps)
TCP/UDP端口号提供的附加信息可以为网络交换机所利用,这是第四层交换的基础。
具有第四层功能的交换机能够起到与服务器相连接的“虚拟IP”(VIP)前端的作用。
每台服务器和支持单一或通用应用的服务器组都配置一个VIP 地址。这个VIP 地址被发送出
去并在域名系统上注册。
在发出一个服务请求时,第四层交换机通过判定TCP 开始,来识别一次会话的开始。然
后它利用复杂的算法来确定处理这个请求的最佳服务器。一旦做出这种决定,交换机就将
会话与一个具体的IP 地址联系在一起,并用该服务器真正的IP 地址来代替服务器上的VIP 地
址。
每台第四层交换机都保存一个与被选择的服务器相配的源IP 地址以及源TCP 端口相
关联的连接表。然后第四层交换机向这台服务器转发连接请求。所有后续包在客户机与服
务器之间重新影射和转发,直到交换机发现会话为止。
在使用第四层交换的情况下,接入可以与真正的服务器连接在一起来满足用户制定的规
则,诸如使每台服务器上有相等数量的接入或根据不同服务器的容量来分配传输流。
如何选用合适的第四层交换
a,速度
为了在企业网中行之有效,第四层交换必须提供与第三层线速路由器可比拟的性能。也
就是说,第四层交换必须在所有端口以全介质速度操作,即使在多个千兆以太网连接上亦
如此。千兆以太网速度等于以每秒1488000 个数据包的最大速度路由(假定最坏的情形,即
所有包为以及网定义的最小尺寸,长64 字节)。
b,服务器容量平衡算法
依据所希望的容量平衡间隔尺寸,第四层交换机将应用分配给服务器的算法有很多种,
有简单的检测环路最近的连接、检测环路时延或检测服务器本身的闭环反馈。在所有的预
测中,闭环反馈提供反映服务器现有业务量的最精确的检测。
c,表容量
应注意的是,进行第四层交换的交换机需要有区分和存贮大量发送表项的能力。交换机
在一个企业网的核心时尤其如此。许多第二/ 三层交换机倾向发送表的大小与网络设备的
数量成正比。对第四层交换机,这个数量必须乘以网络中使用的不同应用协议和会话的数
量。因而发送表的大小随端点设备和应用类型数量的增长而迅速增长。第四层交换机设计
者在设计其产品时需要考虑表的这种增长。大的表容量对制造支持线速发送第四层流量的
高性能交换机至关重要
d,冗余
第四层交换机内部有支持冗余拓扑结构的功能。在具有双链路的网卡容错连接时,就可
能建立从一个服务器到网卡,链路和服务器交换器的完全冗余系统。
0条评论