服务器怎么进行多机负载?

服务器怎么进行多机负载?,第1张

集群架设服务器数量:2台

集群架设方法:(设定:主服务器IP:192168011 从服务器 192168012)

第一步:架设主服务器

1、 利用启动器配置好完整的服务端程序 (举例:比如服务器名:测试 服务器IP:192168011 登陆网关端口 7000 角色网关端口 7100 游戏RUN端口 7200 7300 7400),利用启动器配置好后,那么你的主服务器是一个完整的服务端了

2、 修改配置文件:(修改配置文件的目的是为了让你的从服务器能够跟这台主服务器进行通讯,具备负担的条件)

1> DBServer !addrtabletxt 此文档含义:允许连接DBS管理器的IP列表,一般写上 127001 主IP 192168011 从IP 192168012 三个IP独立成行

2> DBServer !serverinfotxt 此文档含义:主服务器 从服务器 的网关IP以及端口,可以设置如下

192168011 192168011 7200 192168011 7300 192168011 7400

192168012 192168012 7200 192168012 7300 192168012 7400

3> LogunSrv !addrtabletxt 此文档 实际上是一个角色网关跟登陆网关直接通讯路由标识表 在最后加一个 从服务器的IP跟端口即可

比如:127001 127001 192168011:7100 192168012:7100

4> LogunSrv !serveraddrtxt 允许连接IDDBS 同DBServer !addrtabletxt

主服务器架设完毕 架设完毕后切忌不要再用启动器配置了 否则要从来再配置一遍,就麻烦啦。

第二步:架设从服务器

1、 从服务器只需要开 SELATE RUNGATE

1> SELATE 开启的目的是 登陆7000之后 可以选择到这台从服务器的网关 记得配置文件网关地址写本服务器IP地址 192168012 服务器地址写 192168011

2> RUNGATE 手动配置3个 7200 7300 7400 服务器地址写上 主服务器地址 192168011

架设完毕主服务器利用启动所有程序 从服务器手动开 角色网关 和三个游戏网关

在主服务器的M2上面能看到 从服务器的IP过来就说明通讯成功,如果看不到,说明自己哪里设置错了,仔细检查下!原理很简单的,自己实践吧!

·这里是系统区,建议你发到网络区去~~~那样你可能能得到更多网络达人的帮助

一、集群的基本概念

有一种常见的方法可以大幅提高服务器的安全性,这就是集群。

Cluster集群技术可如下定义:一组相互独立的服务器在网络中表现为单一的系统,并以单一系统的模式加以管理。此单一系统为客户工作站提供高可靠性的服务。

大多数模式下,集群中所有的计算机拥有一个共同的名称,集群内任一系统上运行的服务可被所有的网络客户所使用。Cluster必须可以协调管理各分离的组件的错误和失败,并可透明地向Cluster中加入组件。

一个Cluster包含多台(至少二台)拥有共享数据存储空间的服务器。任何一台服务器运行一个应用时,应用数据被存储在共享的数据空间内。每台服务器的操作系统和应用程序文件存储在其各自的本地储存空间上。

Cluster内各节点服务器通过一内部局域网相互通讯。当一台节点服务器发生故障时,这台服务器上所运行的应用程序将在另一节点服务器上被自动接管。当一个应用服务发生故障时,应用服务将被重新启动或被另一台服务器接管。当以上任一故障发生时,客户将能很快连接到新的应用服务上。

二、集群的硬件配置

镜像服务器双机

集群中镜像服务器双机系统是硬件配置最简单和价格最低廉的解决方案,通常镜像服务的硬件配置需要两台服务器,在每台服务器有独立操作系统硬盘和数据存贮硬盘,每台服务器有与客户端相连的网卡,另有一对镜像卡或完成镜像功能的网卡。

镜像服务器具有配置简单,使用方便,价格低廉诸多优点,但由于镜像服务器需要采用网络方式镜像数据,通过镜像软件实现数据的同步,因此需要占用网络服务器的CPU及内存资源,镜像服务器的性能比单一服务器的性能要低一些。

有一些镜像服务器集群系统采用内存镜像的技术,这个技术的优点是所有的应用程序和网络操作系统在两台服务器上镜像同步,当主机出现故障时,备份机可以在几乎没有感觉的情况下接管所有应用程序。因为两个服务器的内存完全一致,但当系统应用程序带有缺陷从而导致系统宕机时,两台服务器会同步宕机。这也是内存镜像卡或网卡实现数据同步,在大数据量读写过程中两台服务器在某些状态下会产生数据不同步,因此镜像服务器适合那些预算较少、对集群系统要求不高的用户。

硬件配置范例:

网络服务器 两台

服务器操作系统硬盘 两块

服务器数据存贮硬盘 视用户需要确定

服务器镜像卡(部分软件可使用标准网卡) 两块

网络服务网卡 两块三、双机与磁盘阵列柜

与镜像服务器双机系统相比,双机与磁盘阵列柜互联结构多出了第三方生产的磁盘阵列柜,目前,豪威公司、精业公司等许多公司都生产有磁盘阵列柜,在磁盘阵列柜中安装有磁盘阵列控制卡,阵列柜可以直接将柜中的硬盘配置成为逻辑盘阵。磁盘阵列柜通过SCSI电缆与服务器上普通SCSI卡相连,系统管理员需直接在磁盘柜上配置磁盘阵列。

双机与磁盘阵列柜互联结构不采用内存镜像技术,因此需要有一定的切换时间(通常为60?D?D180秒),它可以有郊的避免由于应用程序自身的缺陷导致系统全部宕机,同时由于所有的数据全部存贮在中置的磁盘阵列柜中,当工作机出现故障时,备份机接替工作机,从磁盘阵列中读取数据,所以不会产生数据不同步的问题,由于这种方案不需要网络镜像同步,因此这种集群方案服务器的性能要比镜像服务器结构高出很多。

双机与磁盘阵列柜互联结构的缺点是在系统当中存在单点错的缺陷,所谓单点错是指当系统中某个部件或某个应用程序出现故障时,导致所有系统全部宕机。在这个系统中磁盘阵列柜是会导致单点错,当磁盘阵列柜出现逻辑或物理故障时,所有存贮的数据会全部丢失,因此,在选配这种方案时,需要选用一个品质与售后服务较好的产品。

硬件配置范例:

网络服务器 两台

服务器操作系统硬盘 两块

第三方生产的磁盘阵列柜 一台

磁盘柜专用SCSI电线 两根

磁盘阵列柜数据存贮硬盘 视用户需求确定

网络服务网卡 两块

除此之外,一些厂商还有更优秀的技术的解决方案,比如 HP

四、HP双机双控容错系统

HP NetServer为双机双控容错系统提供了高品质和高可靠的硬件基础……

HP双机双控容错系统结合了HP服务器产品的安全可靠性与Cluster技术的优点,相互配合二者的优势。

硬件配置范例:

HP L系统的网络服务器 两台

服务器操作系统硬盘 两块

HP硬盘存贮柜(SS/6,RS/8,RS/12) 一台

磁盘柜专用SCSI集群适配电缆 两根

磁盘柜数据存贮硬盘 视用户需求确定

HP集群专用阵列卡 两块

网络服务网卡 两块五、HP光纤通道双机双控集群系统

光纤通道是一种连接标准,可以作为SCSI的一种替代解决方案,光纤技术具有高带宽、抗电磁干扰、传输距离远、质量高、扩展能力强等特性,目前在FC-AL仲裁环路上可接入126个设备。

光纤设备提供了多种增强的连接技术,大大方便了用户使用。服务器系统可以通过光缆远程连接,最大可跨越10公里的距离。它允许镜像配置,这样可以改善系统的容错能力。服务器系统的规模将更加灵活多变。SCSI每条通道最多可连接15个设备,而光纤仲裁环路最多可以连接126个设备。

光纤集群系统组成:

HP光纤集群系统硬件设备包括有两台HP服务器(需支持光纤卡,目前有LC2000、LH3000、LH4、 LH6000、LT6000、LXr8000、LXR8500)及光纤适配卡,可以使用RS/12FC光纤磁盘阵列柜,需另加一对或两对网卡用于心跳检测和与客户端连接。在配置过程中还需另外选配光纤卡到光纤存贮设备的光纤电缆。

硬件配置:

HPL系统的网络服务器 两台

服务器操作系统硬盘 两块

HP光纤阵列存贮柜(RS/12FC) 一台

光纤磁盘柜专用光纤电缆 两根

光纤磁盘柜数据存贮硬盘 视用户需求确定

HP光纤适配卡 两块

网络服务网卡 两块

六、集群的软件配置

基于NT平台的集群软件

Microsoft的MSCS,也有许多第三方的专业软件公司开发的集群软件,如豪威的DATAWARE,VIN CA公司的STANDBY SERVER,NSI公司的DOUBLE-TAKE

MS WolfPack的特点

MS WolfPack是MS Cluster server的别称,是 微软针对Cluster技术研制开发的双机软件。它集成在NT SERVER上,支持由二台机器组成的双机系统,提供一种高可用且易管理的应用环境。

主要特点:

自动检测和修复服务器或应用程序的错误

可实现对服务器中应用程序的切换

可通过TCP/IP连接各种客户端,如MS-DOS、WINDOWS 3X/9X/NT,Apple Macintosh、UNIX等

生产主机无需人工干涉即可自动恢复数据并接管任务

易管理性:

可自动审核服务器和应用程序的工作状态

可建立高可用性的应用程序、文件共享、打印请求等

可灵活设置应用程序和数据的恢复策略

简单操作即可进行应用程序的离线,重新再线,服务器间的迁移。

目前,WINDOWS 2000 Advanced Server与WINDOWS 2000 DataCenter Server都集成有更先进集群技术。

其它的网络操作系统平台上也有许多集群软件,比如:

基于novell平台的集群软件有Novell HA Server、Novell SFT III

基于sco UNIX平台的集群软件有Sentinel集群软件

基于Linux平台的集群软件有TurboCluster

七、集群技术的发展趋势

集群技术随着服务器硬件系统与网络操作系统的发展将会在可用性、高可靠性、系统冗余等方面逐步提高。未来的集群可以依靠集群文件系统实现对系统中的所有文件、设备和网络资源的全局访问,并且生成一个完整的系统映像。这样,无论应用程序在集群中的哪台服务器上,集群文件系统允许任何用户(远程或本地)都可以对这个软件进行访问。任何应用程序都可以访问这个集群任何文件。甚至在应用程序从一个节点转移到另一个节点的情况下,无需任何改动,应用程序就可以访问系统上的文件。

在今天,利用服务器的集群技术,通过周密计划和网络维护,系统破坏的机率是非常小的。所以,企业服务器的稳定必须使用集群技术。

CentOS 7下怎么搭建高可用集群。高可用集群是指以减少服务中断时间为目的的服务器集群技术。它通过保护用户的业务程序对外不间断提供的服务,把因软件/硬件/人为造成的故障对业务的影响降低到最小程度。那么新的centos下怎么来搭建高可用集群。

  环境:本文以两台机器实现双集热备高可用集群,主机名node1的IP为192168122168 ,主机名node2的IP为192168122169 。

  一、安装集群软件必须软件pcs,pacemaker,corosync,fence-agents-all,如果需要配置相关服务,也要安装对应的软件

  二、配置防火墙

  1、禁止防火墙和selinux

  修改/etc/sysconfig/selinux确保SELINUX=disabled,然后执行setenforce 0或者reboot服务器以生效

  2、设置防火墙规则

  三、各节点之间主机名互相解析分别修改2台主机名分别为node1和node2,在centos 7中直接修改/etc/hostname加入本机主机名和主机表,然后重启网络服务即可。

  配置2台主机的主机表,在/etc/hosts中加入

  四、各节点之间时间同步在node1和node2分别进行时间同步,可以使用ntp实现。

  五、各节点之间配置ssh的无密码密钥访问。下面的操作需要在各个节点上操作。

  两台主机都要互相可以通信,所以两台主机都得互相生成密钥和复制公钥,相互的节点上的hosts文件是都要解析对方的主机名, 192168122168 node1 192168122169 node2

  六、通过pacemaker来管理高可用集群

  1、创建集群用户

问题1 :服务器集群简单可以理解为负载均衡 就是多台服务器分担同一个应用任务,但是还要看具体应用是要跑什么然后才能判断能不能实现。比如web服务器(网站服务器)就可以放到群集服务器上,100个人访问的话可以随机分配到3个服务器上,但是看到的内容是一样的感觉就是在一台服务器上。

问题2:云是依托集群来做的。群集是实现云技术的一个基础平台。简单例子:三台服务器可以做成群集架设成云平台,然后经过云平台虚拟出6台或者更多台的虚拟服务器(视你物理服务器的性能来做)

CoreOS集群的架设比架设一个传统服务器集群更加容易。一方面因为 CoreOS 使用了 Cloud-init 自动化了集群信息的配置,另一方面则是受益于 etcd 分布式存储实现的消息分发和服务器自发现机制。这些便利性正是 CoreOS 系统设计充分为集群架构考虑带来的效率提升。

安装 CoreOS

CoreOS 的安装方法和传统 Linux 系统有很大的不同。鉴于是基础教程,在这一篇中,我们会使用官方的Vagrant镜像一步一步的构建CoreOS的VirtualBox虚拟机集群。本文使用了Linux/Mac作为测试环境,Vagrant从16版已经支持Windows,但需要安装Putty作为登录工具,略有不同,具体使用方法见 链接。  

需要顺带说明一点,比较仔细的使用者可能已经发现官方提供的镜像中有一个是“ ISO镜像文件”,然而这个镜像实际上只是一个 Live CD,也就免安装的试用镜像,直接使用这个ISO启动的系统是不具备服务自发现和分布式消息分发的能力的。通过ISO镜像安装集群的方式我们会放到专题篇的内容里面详述。好,现在进入正题吧。

正如系列的第一篇所提到的,Cloud-init 通常依赖于具体平台的实现定制,将其直接在物理机上使用并不是主流的使用方法。对于这种安装方法, 官方有一篇文档提供了详细的步骤,这里不再进行详细讨论。

首先来看一下 CoreOS 原生支持的平台。截止到目前,最新版本的CoreOS v540已经支持的平台如下图。

可以看到除去安装到本地的 Bare Metal,其余基本是针对主流的云服务平台定制的版本。这里的定制主要是 Cloud-init 等启动服务的配置,那么如何知道 CoreOS 已经支持自动化的集群部署的平台有哪些呢?我们可以从 CoreOS 源代码的 coreos-base 目录里得到答案。

这些 oem 开头的目录就是平台定制的实现。其中每个目录中的 files/cloud-configyml 文件,就是 Cloud-init 的配置文件。在每一种平台安装 CoreOS 的方式各有不同,可以从官方网站相应的页面找到相应步骤。这里我们选择其中的 Vagrant 作为演示的目标平台。

在 Vagrant 上部署 CoreOS 集群

使用 Vagrant 建立 CoreOS 集群可以说是最简单且经济的方式了,使用本地虚拟机构建,特别适合快速验证 CoreOS 的功能。

预备

需要准备的东西,包括一台连接到互联网的 Mac 或者桌面 Linux 电脑,安装好 Git、VirtualBox 和 Vagrant。

通过 Git 下载官方的 Vagrant 仓库:

git clone https://githubcom/coreos/coreos-vagrantgit

下载完成后,我们接下来配置 CoreOS 集群。

配置

为了使用集群服务器的自发现功能,我们需要一个能用来唯一标识一个集群并提供集群信息的地址。CoreOS 官方提供了这个服务,当然我们也可以使用自己搭建的私有集群标识服务器。鉴于搭建私有标识服务器属于比较进阶的内容,我们会在这个系列的后续文章详述。

通过浏览器或命令行 curl 访问地址 https://discoveryetcdio/new可以得到一个新的集群标识 URL(如果是在Windows下,可以直接使用浏览器访问这个URL地址),这个 URL 会在配置 user-data 时候使用到。

curl https://discoveryetcdio/new

进入 coreos-vagrant 目录,将 user-datasample 和 configrbsample 两个文件各备份一份,并去掉 sample 后缀。得到 user-data 和 configrb 文件。

首先修改 user-data 文件,它将作为启动的配置文件提供给 CoreOS 操作系统。值得一提的是,在这个配置中,可以使用两个变量 $private_ipv4 和 $public_ipv4,它们会在实际运行的时候被自动替换为主机的真实外网 IP 和内网 IP 地址。

这里我们需要做的只是将其中 discovery所在行前面的注释符合“#”去掉,然后替换它的值为我们刚刚获得的集群标识 URL 地址。简单来说,所有使用了同一个标识 URL 的主机实例都会在 CoreOS 启动时自动加入到同一个集群中,这就实现了无需人工干预的集群服务器自发现。

#cloud-config 

coreos: 

  etcd: 

    # generate a new token for each unique cluster from https://discoveryetcdio/new 

    # WARNING: replace each time you 'vagrant destroy' 

    discovery: <集群标识URL地址> 

    addr: $public_ipv4:4001 

peer-addr: $public_ipv4:7001 

然后修改 configrb 文件,这里包含了 Vagrant 虚拟机的配置。通过这个文件实际上可以覆写任何 Vagrantfile 里的参数,但是目前我们只需要关注 $num_instances 和 $update_channel 这两个参数的值。

$num_instances 表示将启动的 CoreOS 集群中需要包含主机实例的数量; $update_channel 表示启动的 CoreOS 实例使用的升级通道,可以是 ‘stable’,’beta’ 或 ‘alpha’。

$num_instances=3 

$update_channel='stable'

CoreOS 没有跨越式的版本发布,而是使用与 Arch Linux 类似的平滑的滚动升级,确保用户任何时候下载到的版本都是最新发布的系统镜像,并且从根本上解决了服务器系统在运行几年后,由于无法平滑升级而被迫重新安装的情况。此外 CoreOS 提供了 Stable、Beta 和 Alpha 三种升级通道,用于满足不同用户对系统新特性和稳定性的平衡。关于升级通道的切换,可参考官方的文档。

启动

启动集群,执行:

vagrant up

查看集群运行状态,所有的集群实例都已经启动。

vagrant up 

Current machine states: 

core-01                   running (virtualbox) 

core-02                   running (virtualbox) 

core-03                   running (virtualbox)

此时,在 CoreOS 集群的内部正发生着许多故事,集群的实例之间通过自发现服务,相互认识了对方并建立了联系。它们具备了在集群中任意一个实例节点控制整个集群的能力。是的,一个功能完备的 CoreOS 服务器集群已经完全运行起来了。

我现在使用的是小鸟云,他们目前官网有活动,3折优惠,建议去看看!

  想学习服务器架构、调试,建议看以下方面的书籍:

  1、LINUX服务器安全策略详解

  2、网络服务器配置完全手册

  3、服务器配置全攻略(珍藏版)

  4、网络安全基础

  常见的服务器架构有以下三种:

  1、服务器集群架构:

  服务器集群就是指将很多服务器集中起来一起进行同一种服务,在客户端看来就像是只有一个服务器。集群可以利用多个计算机进行并行计算从而获得很高的计算速度,也可以用多个计算机做备份,从而使得任何一个机器坏了整个系统还是能正常运行。

  2、服务器负载均衡架构:

  负载均衡 (Load Balancing) 建立在现有网络结构之上,它提供了一种廉价有效透明的方法扩展网络设备和服务器的带宽、增加吞吐量、加强网络数据处理能力、提高网络的灵活性和可用性。

  3、分布式服务器架构:

  所谓分布式资源共享服务器就是指数据和程序可以不位于一个服务器上,而是分散到多个服务器,以网络上分散分布的地理信息数据及受其影响的数据库操作为研究对象的一种理论计算模型服务器形式。分布式有利于任务在整个计算机系统上进行分配与优化,克服了传统集中式系统会导致中心主机资源紧张与响应瓶颈的缺陷,解决了网络GIS 中存在的数据异构、数据共享、运算复杂等问题,是地理信息系统技术的一大进步。

你这个需求是备份吧,Windows有两种服务可以解决你现在的问题:

1、网络负载均衡,可以把指定的服务器添加到负载均衡群中,并指定网络端口和协议,选择负载均衡集群切换模式是按照一对一还是交叉负载均衡;

2、故障转移集群,可以针对进程判断是否启用备份机的指定进程;

这两个集群各有各的用途,同时对于搭建也有自己的要求,完成集群后所对应的功能也略有不同。

部署:

负载均衡不需要额外设备;

但故障转移,需要iSCSI存储设备支持;

用途:

负载均衡针对网络端口,重点在于均衡,可以通过交叉策略,保证a/b的访问量一致,或者单一主机方式,保证在宕机或网线不通的情况下切换到备机;

故障转移,可以精确监控到进程,保证进程出现故障(包括宕机)即可转移到备机;

具体问题具体分析,看你需要什么级别的备份,要求高的话,上故障转移(但是要增加设备——iSCSI),要求简单,就上负载均衡

DABAN RP主题是一个优秀的主题,极致后台体验,无插件,集成会员系统
网站模板库 » 服务器怎么进行多机负载?

0条评论

发表评论

提供最优质的资源集合

立即查看 了解详情