无线局域网中的负载均衡问题
在网络应用过程中,我们经常能听到负载均衡这个词,那么什么是负载均衡呢?在有线分布式系统中,负载均衡是指将网络的外部服务请求均匀分配到多台后端的服务器上,从而提高网络服务质量的方法。
我们都知道,由于外部网络任务到达的随机性,以及各处理节点处理能力上的差异,当分布式系统运行一段时间后,某些节点分配的任务还很多(称之为超载),而另一些节点却是空闲的(称之为轻载)。一方面,使超载节点上的任务尽可能快地完成是当务之急;另一方面,某些节点轻载是一种浪费。如何避免这种忙与空闲并存情况的发生,从而有效地提高系统的资源利用率,减少任务的平均响应时间。这是负载均衡需要解决的问题。
简单的来说,负载均衡问题是对任务的优化组合问题。有线分布式系统中的负载均衡方法操作的对象是任务。其的基本途径就是收集负载信息,进行相关算法决策,对分配给各节点的任务进行重新调度如进程迁移或任务迁移。
无线局域网中的负载均衡面临比有线网络更多的困难。随着无线局域网中扩展服务集中的终端的移动和无线信道的时变,各个接入点(AP)上的负载出现差异。负载均衡的作用就是平衡各个AP的差异,以达到化的网络资源利用。
其实,负载均衡是无线资源管理的重点,IEEE的80211工作组的TGv任务组,专门负责解决无线局域网的负载均衡问题。
下面,我们主要来探讨下无线局域网中的负载均衡,
无线局域网中的负载均衡与有线分布式系统中的负载均衡不同,表现在负载均衡控制的对象和控制方式上。由于无线终端的移动性和无线信道的时变性,无线局域网中的负载均衡面临的情况更加复杂。
无线局域网(WLAN)是指应用无线通信技术将计算机设备互联起来,构成的可以互相通信和实现资源共享的网络体系。在无线局域网中有两种角色:AP和终端(STA)。AP作为固定基础设备,通过有线分布式系统互连。STA作为移动终端,接受AP提供的接入服务。
负载不均衡形式一:无线AP连接的终端的个数不均衡
终端通过扫描信道,获取所处WLAN环境中扩展服务集和基本服务集信息,并选择加入一个合适的基本服务集。WLAN中负载均衡就是由多个AP为多个移动终端提供接入服务的系统,每一个AP通过利用网络信息进行站点管理,目的是充分利用网络现有资源,减少网络阻塞。
位于中心点的AP,经过一段时间的运行,连接的终端的个数要多于四周AP的终端个数,承担的业务也已经饱和,此时连接到中心点AP的终端的业务的服务质量(QoS)已经不能保证。而外围的AP业务还不饱和,网络中出现负载差异。负载均衡就是要解决这种差异,将中心点AP的某些业务转移到外围的AP上,以提高网络的服务容量和中心点AP的业务质量。
负载不均衡形式二:终端不停地切换造成负载抖动
WLAN共有两种工作组织形式,独立基本服务集(IBSS)和基本服务集(BSS)。
终端(例如带有无线网络下的笔记本电脑)在进入网络的时候必须选择一个AP作为连接对象,这就是终端接入过程,接入过程要经过扫描、认证、连接等步骤。一般而言,终端在扫描过程中会扫描到多个AP的信息,终端选择AP的条件是扫描到的AP的信号强度。由于无线局域网中终端的移动特性和无线信道的时变特性,终端在某些情况下会发生从一个BSS切换到另一个BSS的情况。这种情况就是无线局域网中的切换。终端切换带来的问题是切换时延,甚至上层业务的中断。切换还会带来的问题是“乒乓效应”。即终端不停地在两个或多个AP之间切换,终端就像乒乓球一样。这样会造成负载抖动,对网络资源造成极大的损耗。
路由模式部署灵活,约60%的用户采用这种方式部署;桥接模式不改变现有的网络架构;服务直接返回(DSR)比较适合吞吐量大特别是内容分发的网络应用。约30%的用户采用这种模式。1、路由模式(推荐) 路由模式的部署方式如上图。服务器的网关必须设置成负载均衡机的LAN口地址,且与WAN口分署不同的逻辑网络。因此所有返回的流量也都经过负载均衡。这种方式对网络的改动小,能均衡任何下行流量。2、桥接模式 桥接模式配置简单,不改变现有网络。负载均衡的WAN口和LAN口分别连接上行设备和下行服务器。LAN口不需要配置IP(WAN口与LAN口是桥连接),所有的服务器与负载均衡均在同一逻辑网络中。由于这种安装方式容错性差,网络架构缺乏弹性,对广播风暴及其他生成树协议循环相关联的错误敏感,因此一般不推荐这种安装架构。3、服务直接返回模式 这种安装方式负载均衡的LAN口不使用,WAN口与服务器在同一个网络中,互联网的客户端访问负载均衡的虚IP(VIP),虚IP对应负载均衡机的WAN口,负载均衡根据策略将流量分发到服务器上,服务器直接响应客户端的请求。因此对于客户端而言,响应他的IP不是负载均衡机的虚IP(VIP),而是服务器自身的IP地址。也就是说返回的流量是不经过负载均衡的。
负载均衡有分硬件负载和软件。
1
硬件方面,可以用F5做负载,内置几十种算法。
2
软件方面,可以使用反向代理服务器,例如apache,Nginx等高可用反向代理服务器。
利用DNSPOD智能解析的功能,就可以实现多台机器负载均衡
首先你用一台高配置的机器来当数据库服务器然后把网站的前端页面复制成多份,分别放在其他的几台机器上面再用DNSPOD做智能解析,把域名解析指向多个服务器的IP,DNSPOD默认就有智能分流的作用,也就是说当有一台机器的资源不够用时会自动引导用户访问其他机器上这是相对来讲比较简单的实现负载均衡的方法
1、服务直接返回:这种安装方式负载均衡的LAN口不使用,WAN口与服务器在同一个网络中,互联网的客户端访问负载均衡的虚IP(VIP),虚IP对应负载均衡机的WAN口,负载均衡根据策略将流量分发到服务器上,服务器直接响应客户端的请求。
2、桥接模式:桥接模式配置简单,不改变现有网络。负载均衡的WAN口和LAN口分别连接上行设备和下行服务器。LAN口不需要配置IP(WAN口与LAN口是桥连接),所有的服务器与负载均衡均在同一逻辑网络中。
3、路由模式:路由模式的部署方式,服务器的网关必须设置成负载均衡机的LAN口地址,且与WAN口分署不同的逻辑网络。因此所有返回的流量也都经过负载均衡。这种方式对网络的改动小,能均衡任何下行流量。
扩展资料
负载均衡的算法:
1、随机算法:Random随机,按权重设置随机概率。在一个截面上碰撞的概率高,但调用量越大分布越均匀,而且按概率使用权重后也比较均匀,有利于动态调整提供者权重。
2、哈希算法:一致性哈希一致性Hash,相同参数的请求总是发到同一提供者。当某一台提供者挂时,原本发往该提供者的请求,基于虚拟节点,平摊到其它提供者,不会引起剧烈变动。
3、URL散列:通过管理客户端请求URL信息的散列,将发送至相同URL的请求转发至同一服务器的算法。
参考资料
-负载均衡
随着网站、应用访问量的增加,一台服务器租用已经不能满足应用的需求,而需要多台服务器集群,这时就会用到负载均衡,那么负载均衡优点是什么呢呢,今天南昌壹基比小小喻下面为大家讲解一下:
服务器负载均衡有哪些优点:
• 负载均衡优化了访问请求在服务器组之间的分配,消除了服务器之间的负载不平衡,从而提高了系统的反应速度与总体性能;
• 负载均衡可以对服务器的运行状况进行监控,及时发现运行异常的服务器,并将访问请求转移到其它可以正常工作的服务器上,从而提高服务器组的可靠性采用了负均衡器器以后,可以根据业务量的发展情况灵活增加服务器,系统的扩展能力得到提高,同时简化了管理。
负载均衡器有多种多样的形式,除了作为独立意义上的负载均衡器外,有些负载均衡器集成在交换设备中,置于服务器与Internet链接之间,有些则以两块网络适配器将这一功能集成到PC中,一块连接到Internet上,一块连接到后端服务器群的内部网络上。
一般而言,硬件负载均衡在功能、性能上优于软件方式,不过成本昂贵。当Web服务器为图像服务、SSL(安全套接层)会话或数据库事务而进行优化时,负载均衡器可以体现特别的价值。
当需要进行服务器升级或系统维护时,保证稳定的服务器退出服务以避免服务中断。当选定某台服务器要退出服务后,将不会将任何新的用户分配到该服务器。但是,它可以要该服务器完成对当前用户的服务。从而保证了无中断的优质服务,并且简化了服务器群的管理。
智能的服务器服务恢复:
将重新启动的服务器应用到服务中时,避免新服务器因突然出现的流量冲击导致系统故障是非常重要的。所以,在将新服务器引入服务器群时,将逐渐地增加分配到该服务器的流量,直至达到其完全的处理能力。从而不仅保证用户在服务器退出服务时,同时还保证服务器在启动期间以及应用程序开始时,均能获得不间断服务。
负载均衡是由多台服务器以对称的方式组成一个服务器集合,每台服务器都具有等价的地位,都可以单独对外提供服务而无须其他服务器的辅助。通过某种负载分担技术,将外部发送来的请求均匀分配到对称结构中的某一台服务器上,而接收到请求的服务器独立地回应客户的请求。均衡负载能够平均分配客户请求到服务器列阵,籍此提供快速获取重要数据,解决大量并发访问服务问题。
软件负载
基于特定服务器软件的负载均衡
---- 这种技术是利用网络协议的重定向功能来实现负载均衡的,例如在Http协议中支持定位指令,接收到这个指令的浏览器将自动重定向到该指令指明的另一个URL上。由于和执行服务请求相比,发送定位指令对Web服务器的负载要小得多,因此可以根据这个功能来设计一种负载均衡的服务器。一旦Web服务器认为自己的负载较大,它就不再直接发送回浏览器请求的网页,而是送回一个定位指令,让浏览器去服务器集群中的其他服务器上获得所需要的网页。在这种方式下,服务器本身必须支持这种功能,然而具体实现起来却有很多困难,例如一台服务器如何能保证它重定向过的服务器是比较空闲的,并且不会再次发送定位指令?定位指令和浏览器都没有这方面的支持能力,这样很容易在浏览器上形成一种死循环。因此这种方式实际应用当中并不多见,使用这种方式实现的服务器集群软件也较少。
DNS负载
基于DNS的负载均衡
---- DNS负载均衡技术是最早的负载均衡解决方案,它是通过DNS服务中的随机名字解析来实现的,在DNS服务器中,可以为多个不同的地址配置同一个名字,而最终查询这个名字的客户机将在解析这个名字时得到其中的一个地址。因此,对于同一个名字,不同的客户机会得到不同的地址,它们也就访问不同地址上的Web服务器,从而达到负载均衡的目的。
---- 这种技术的优点是,实现简单、实施容易、成本低、适用于大多数TCP/IP应用;但是,其缺点也非常明显,首先这种方案不是真正意义上的负载均衡,DNS服务器将Http请求平均地分配到后台的Web服务器上,而不考虑每个Web服务器当前的负载情况;如果后台的Web服务器的配置和处理能力不同,最慢的Web服务器将成为系统的瓶颈,处理能力强的服务器不能充分发挥作用;其次未考虑容错,如果后台的某台Web服务器出现故障,DNS服务器仍然会把DNS请求分配到这台故障服务器上,导致不能响应客户端。最后一点是致命的,有可能造成相当一部分客户不能享受Web服务,并且由于DNS缓存的原因,所造成的后果要持续相当长一段时间(一般DNS的刷新周期约为24小时)。所以在国外最新的建设中心Web站点方案中,已经很少采用这种方案了。
交换负载
基于四层交换技术的负载均衡
---- 这种技术是在第四层交换机上设置Web服务的虚拟IP地址,这个虚拟IP地址是DNS服务器中解析到的Web服务器的IP地址,对客户端是可见的。当客户访问此Web应用时,客户端的Http请求会先被第四层交换机接收到,它将基于第四层交换技术实时检测后台Web服务器的负载,根据设定的算法进行快速交换。常见的算法有轮询、加权、最少连接、随机和响应时间等。
七层负载
基于七层交换技术的负载均衡
---- 基于第七层交换的负载均衡技术主要用于实现Web应用的负载平衡和服务质量保证。它与第四层交换机比较起来有许多优势:第七层交换机不仅能检查TCP/IP数据包的TCP和UDP端口号,从而转发给后台的某台服务器来处理,而且能从会话层以上来分析Http请求的URL,根据URL的不同将不同的Http请求交给不同的服务器来处理(可以具体到某一类文件,直至某一个文件),甚至同一个URL请求可以让多个服务器来响应以分担负载(当客户访问某一个URL,发起Http请求时,它实际上要与服务器建立多个会话连接,得到多个对象,例如txt/gif/jpg文档,当这些对象都下载到本地后,才组成一个完整的页面)。
---- 以上几种负载均衡技术主要应用于一个站点内的服务器群,但是由于一个站点接入Internet的带宽是有限的,因此可以把负载均衡技术开始应用于不同的网络站点之间,这就是站点镜像技术,站点镜像技术实际上利用了DNS负载均衡技术。
众所周知,windows server 2012是支持虚拟系统的。那么具体怎么对服务器设置网络负载均衡,一起来看看。
1、给2台WEB服务器装置NLB,以后在其间恣意一台上来新建群集,然后将别的一台加入到这个群会集即可,并保证这2台服务器都是运用的静态IP。
2、在web-01(1921681130)上从管理工具中翻开 网络负载均衡器,右击“网络负载平衡群集”,挑选“新建群集”
3、在“新群集:衔接”窗口中将 1921681130增加为主机,点击下一步进入 “新群集:主机参数”,下一步,进入 “新群集:群集IP地址”,增加窗口中的“增加” 将1921681254 增加到窗口中然后下一步;
4、进入 “新群集:群集参数”,挑选“多播”然后下一步;进入 “新群集:端口规则”,选中悉数,然后修改;将端口范围改成 80~80,协议选 “TCP”,相关性选“无”点击断定回到主窗口,然后点击完结。
5、经过上面的过程,咱们现已建立了一个群集,并且将web-01加入到了群会集,咱们还需要手动将web-02也加入到群会集。在群集(1921681254)上右键点击“增加主机到群集”。衔接”窗口中的 主机中输入1921681131即可。
0条评论