怎么实现服务器的负载均衡?
负载均衡有分硬件负载和软件。
1
硬件方面,可以用F5做负载,内置几十种算法。
2
软件方面,可以使用反向代理服务器,例如apache,Nginx等高可用反向代理服务器。
利用DNSPOD智能解析的功能,就可以实现多台机器负载均衡
首先你用一台高配置的机器来当数据库服务器然后把网站的前端页面复制成多份,分别放在其他的几台机器上面再用DNSPOD做智能解析,把域名解析指向多个服务器的IP,DNSPOD默认就有智能分流的作用,也就是说当有一台机器的资源不够用时会自动引导用户访问其他机器上这是相对来讲比较简单的实现负载均衡的方法
负载均衡有两种含义:第一种,单个负载的运算分担到多台节点设备上做并行处理,每个节点设备处理结束后,将结果汇总,返回给用户,系统处理能力得到大幅度提高,也就是常说的集群(clustering)技术。第二种,大量的并发访问或数据流量分担到多台节点设备上分别处理,减少用户等待响应的时间,这主要针对Web服务器、FTP服务器、企业关键应用服务器等网络应用。通常,负载均衡会根据网络的不同层次(网络七层)来划分。其中,第二层的负载均衡指将多条物理链路当作一条单一的聚合逻辑链路使用,这就是链路聚合(Trunking)技术,它不是一种独立的设备,而是交换机等网络设备的常用技术。现代负载均衡技术通常操作于网络的第四层或第七层,这是针对网络应用的负载均衡技术,它完全脱离于交换机、服务器而成为独立的技术设备。
服务器实现负载均衡有软件和硬件两种方式
软件负载均衡的方式是在一台或多台服务器相应的操作系统上安装一个或多个应用软件来实现负载均衡,如DNS Load Balance,CheckPoint Firewall-1 ConnectControl等,它的优点是基于特定环境,配置简单,使用灵活,成本低廉,可以满足一般的负载均衡需求。缺点就是服务器上的软件本身就会消耗服务器系统不定量的资源,同时操作系统本身的原因,安全方面会有影响
硬件负载均衡的方法就是直接在服务器和外部网络间安装负载均衡设备,专由门的设备完成专门的任务,独立于操作系统,整体性能得到提高,加上多样化的负载均衡策略,智能化的流量管理,可达到负载均衡需求。
负载均衡具体有三种部署方式:路由模式、桥接模式、服务直接返回模式。
路由模式部署灵活,服务器的网关设置成负载均衡机的LAN口地址,且与WAN口分署不同的逻辑网络。因此所有返回的流量也都经过负载均衡。这种方式对网络的改动小,能均衡任何下行流量。
桥接模式配置简单,不改变现有网络。负载均衡的WAN口和LAN口分别连接上行设备和下行服务器。LAN口
不需要配置IP(WAN口与LAN口是桥连接),所有的服务器与负载均衡均在同一逻辑网络中。这种安装方式容错性差,网络架构缺乏弹性,对广播风暴及其他生成树协议循环相关联的错误敏感。
服务直接返回模式这种安装方式负载均衡的LAN口不使用,WAN口与服务器在同一个网络中,互联网的客户端访问负载均衡的虚IP(VIP),虚IP对应负载均衡机的WAN口,负载均衡根据策略将流量分发到服务器上,服务器直接响应客户端的请求。因此对于客户端而言,响应他的IP不是负载均衡机的虚IP(VIP),而是服务器自身的IP地址。也就是说返回的流量是不经过负载均衡的。因此这种方式适用大流量高带宽要求的服务。
用bind搭建的dns服务器自带负载均衡功能,实现的原理很简单,是通过ip轮询的方式。比如域名对应有3个IP,ip1、ip2、ip3,第一次请求该域名会返回ip1、ip2、ip3,第二次请求时应答IP的顺序会发生改变,为ip2、ip3、ip1,第三次ip3、ip1、ip2,以此类推……而根据通常情况系统会采用第一IP作为去访问的IP,于是就形成了均衡负载。
1、服务直接返回:这种安装方式负载均衡的LAN口不使用,WAN口与服务器在同一个网络中,互联网的客户端访问负载均衡的虚IP(VIP),虚IP对应负载均衡机的WAN口,负载均衡根据策略将流量分发到服务器上,服务器直接响应客户端的请求。
2、桥接模式:桥接模式配置简单,不改变现有网络。负载均衡的WAN口和LAN口分别连接上行设备和下行服务器。LAN口不需要配置IP(WAN口与LAN口是桥连接),所有的服务器与负载均衡均在同一逻辑网络中。
3、路由模式:路由模式的部署方式,服务器的网关必须设置成负载均衡机的LAN口地址,且与WAN口分署不同的逻辑网络。因此所有返回的流量也都经过负载均衡。这种方式对网络的改动小,能均衡任何下行流量。
扩展资料
负载均衡的算法:
1、随机算法:Random随机,按权重设置随机概率。在一个截面上碰撞的概率高,但调用量越大分布越均匀,而且按概率使用权重后也比较均匀,有利于动态调整提供者权重。
2、哈希算法:一致性哈希一致性Hash,相同参数的请求总是发到同一提供者。当某一台提供者挂时,原本发往该提供者的请求,基于虚拟节点,平摊到其它提供者,不会引起剧烈变动。
3、URL散列:通过管理客户端请求URL信息的散列,将发送至相同URL的请求转发至同一服务器的算法。
参考资料
-负载均衡
基于包和基于流的负载分担的差异如下:
基于包的负载分担和基于流的负载分担是两种常用的网络负载分担技术。
基于包的负载分担是将数据包分散到多个服务器进行处理,通常是随机将数据包分配到可用的服务器中,每个服务器独立处理所分配到的数据包,适用于比较简单的网络环境。当同时发送多个数据包时,由于这些数据包被分配到不同的服务器,可能会导致多个数据包的先后顺序不同,从而导致数据包传输的不稳定。
基于流的负载分担是将整个数据流分配到同一个服务器进行处理,过对数据流进行识别和分类,将不同的数据流分配到不同的服务器中,保证了同一个数据流中的所有数据包均被分配到同一个服务器中进行处理。优点是可以有效避免数据包处理的不均衡,保证数据包传输的稳定性。
基于流的负载分担更适用于复杂的网络环境和对数据稳定性要求较高的场景,而基于包的负载分担则更适用于简单的网络环境和数据处理要求不高的场景。
基于包和基于流的负载分担的应用
基于包和基于流的负载均衡技术主要应用于同时接受大量请求的服务器集群中,实现服务器资源的合理分配,以提高服务器的负载能力和可靠性。
基于包的负载均衡应用:
1、HTTP/HTTPS服务:对于HTTP/HTTPS协议的服务,可以通过基于包的负载均衡实现请求的随机分配或轮询分配到不同的服务器上。
2、DNS服务:DNS服务也可以使用基于包的负载均衡,将请求分配到不同的DNS服务器上进行处理。
3、通讯服务:如VoIP、视频通讯等实时通信服务,通常会使用基于包的负载均衡技术,将请求分配到不同的服务器上进行处理,以确保服务的实时性和可靠性。
基于流的负载均衡应用:
1、数据库服务:对于数据库服务,通常会使用基于流的负载均衡技术,将同一个数据库访问流量分配到同一台服务器上进行处理,以确保数据的一致性和可靠性。
2、文件服务:对于文件服务,如FTP、SFTP等服务,也可以使用基于流的负载均衡技术,将同一个文件访问流量分配到同一台服务器上进行处理,以确保文件的完整性和可靠性。
3、视频流服务:对于视频流服务,通常会使用基于流的负载均衡技术,将同一视频访问流量分配到同一台服务器上进行处理,以确保视频的稳定性和可靠性。
您好,很高兴为您解答。
1、企业实现Web服务器负载均衡
为了将负载均匀的分配给内部的多个服务器上,就需要应用一定的负载均衡策略。通过服务器负载均衡设备实现各服务器群的流量动态负载均衡,并互为冗余备份。并要求新系统应有一定的扩展性,如数据访问量继续增大,可再添加新的服务器加入负载均衡系统。
对于WEB服务应用,同时有几台机器提供服务,每台机器的状态可以设为regular(正常工作)或backup(备份状态),或者同时设定为regular状态。负载均衡设备根据管理员事先设定的负载算法和当前网络的实际的动态的负载情况决定下一个用户的请求将被重定向到的服务器。而这一切对于用户来说是完全透明的,用户完成了对WEB服务的请求,并不用关心具体是哪台服务器完成的。
2、使用网络地址转换实现多服务器负载均衡
支持负载均衡的地址转换网关中可以将一个外部IP地址映射为多个内部IP地址,对每次TCP连接请求动态使用其中一个内部地址,达到负载均衡的目的。很多硬件厂商将这种技术集成在他们的交换机中,作为他们第四层交换的一种功能来实现,一般采用随机选择、根据服务器的连接数量或者响应时间进行选择的负载均衡策略来分配负载。然而硬件实现的负载控制器灵活性不强,不能支持更优化的负载均衡策略和更复杂的应用协议。
基于网络地址转换的负载均衡器可以有效的解决服务器端的CPU和磁盘I/O负载,然而负载均衡器本身的性能受网络I/O的限制,在一定硬件条件下具有一定的带宽限制,但可以通过改善算法和提高运行负载均衡程序的硬件性能,来提高这个带宽限制。不同的服务类型对不同的服务器资源进行占用,我们使用的负载衡量策略是使用同一个负载进行评估,这对于大多数条件是适合的,然而最好的办法是针对不同的资源,如CPU、磁盘I/O或网络I/O等,分别监视服务器负载,由中心控制器选择最合适的服务器分发客户请求。
3、使用DNS服务器实现负载均衡
访问企业网服务器的用户急剧增加,一台服务器难以满足用户的访问需要,那么如何才能保证用户的正常访问呢解决方法有很多,如使用Windows
2000或Windows Server 2003提供网络负载均衡服务,但该服务的设置非常复杂。而通过DNS服务器实现网络负载均衡则是一种比较简单的方法。
企业网通常由很多子网构成,为了降低网络中的数据流量,客户机最好能访问处于同一子网内的Web服务器。虽然实现了网络负载均衡功能,但并不能保证客户访问的是本子网的Web服务器。其实这个问题也很好解决,只要启用DNS服务器的“启用网络掩码排序”功能即可。在DNS管理器窗口中,右键点击DNS服务器,在弹出的菜单中选择“属性”,然后在属性对话框中切换到“高级”选项卡,勾选“服务器选项”列表框中的“启用网络掩码排序”选项即可。这样客户机每次都能访问到本子网内的Web服务器了。完成以上设置后,就使DNS服务器实现了网络负载均衡功能,把客户的访问分担到每个Web服务器上,并且还减少了跨子网的网络通信流量,大大降低了企业网的通信负担。
4、企业实现SQL Server数据库服务器负载均衡
MS SQL
Server数据库服务器可以说是应用范围最广的数据库产品,并且越来越多地在大型和比较关键的应用系统中提供服务。当企业应用越来越复杂、数据量越来越大的时候,SQL
Server数据库要不停的进行处理、存储、查询的工作,这个时候企业就要考虑SQL Server数据库服务器的性能和速度及安全性了。然而,长期以来,SQL
SERVER数据库服务器都只有“热备”的解决方案,而没有“负载均衡”和“集群”的解决方案。
随着数据库路由器软件ICX的出现,为基于MS SQL Server的数据库系统提供了一种更优秀的集群解决方案。它可以真正的实现SQL
Server数据库服务器的动态负载均衡,提高性能和速度;它可以真正的保证SQL
Server数据库服务器不间断的提供服务,在服务器发生故障的时候实时切换到其他服务器上继续提供服务,切换时间为“零”。数据库路由器是实时并发数据库事务处理同步复制器和负载平衡器。
所有的数据库客户都通过ICX访问数据库。当访问、查询SQL
Server数据库的时候ICX可以根据实际情况分配服务器来提供服务,大大提高服务速度和优化性能,完成负载均衡。ICX可以同时连接多台数据库,这若干台数据库的内容在任何时刻由ICX保证是完全一致的。也就是说,ICX采用了全新的并发事务处理的方式,向连接的N台数据库同步复制事务处理,使得系统在任何时刻具有多个一致的最新逻辑数据库数据集。当其中一台数据库服务器发生故障的时候,ICX可以实时的、第一时间切换到其他服务器上来继续提供服务。真正的实现零时间的服务器切换,大大提高安全性,真正意义的实现服务器不间断服务。
5:当然自己可以DIY:用f5的网络负载均衡硬件和sql
server的复制技术软件可以实现负载均衡,故障切换则需要windows的cluster或者sql server
2005的mirror。除了那个f5的硬件外,整个方案成本其实很低。
DNS服务器地址呢?
在“开始”中找到“运行”(或者直接Win+R),然后输入“cmd”进入管理员操作界面:
在管理员界面中输入命令:ipconfig/all然后按Enter键确认即可显示Windows IP配置,在这里我们可以查看我们的DNS服务器地址。
如果连接了路由的话也可以通过路由来查看DNS服务器地址,在浏览器输入地址19216811弹出路由器登入对话框,通常路由器默认的账户密码均为:admin(登入后可修改)。登入路由之后可以在首页查看到DNS服务器地址了。
知道了DNS地址就可以来修改了,点击电脑右下角的连接图标,选择“打开网络和共享中心”,当然也可以在控制面板中“网络和Internet”进入“打开网络和共享中心”:
进入“网络和共享中心”后,我们再点击“本地连接”进入“本地连接 状态”对话框:
在“本地连接 状态”对话框中点击“属性”选项,弹出本地连接属性对话框:
这里我们选中本地连接属性对话框中的“Internet 协议版本4 (ICP/iPv4)”,双击后者选择下方的属性,之后即可进入“Internet 协议版本4 (ICP/iPv4)属性对话框”,在这里边即可更改DNS设置。
在“Internet 协议版本4属性”对话框中即可更改DNS地址了,选中“使用下面的DNS服务器地址”,然后DNS地址成为可编辑状态,再把查看到的DNS地址填写上再确认即可。
首选 DNS 服务器(P) 20296128166
备用 DNS 服务器(A) 20296134133
0条评论