在UBUNTU系统上配置HA(High Available 高可用性群集)的问题,大神们快来啊!
这个得看硬件情况
简单一点的是:
用两台服务器分别安装ESX, 虚拟机放到另一个磁盘阵列上,
用Vsphere 直接有HA功能, 得先设置好DNS,
只有一台电脑这个还叫什么高可用, 电脑都挂了,用什么
平时只在windows下连接过putty,现在因为项目的需要,必须学会在Ubuntu上连接服务器。
首先安装ssh
然后看看ssh服务是否开启
若ssh没有开启,可以使用如下命令开启该服务
然后修改一下sshd_config的配置,把28行注释下并改写为29行的形式保存即可
此时我们ssh服务已经开启,已经成功1/3啦
这里就要发挥Ubuntu的优势啦
安装完之后,用命令行打开putty的界面
没错,就是这条命令啦
这样就完成啦
其实发现第一种方法特别low。真正的打开方式应该是这样的:
若服务器的SSH服务没有开启22端口,那么ssh链接时则需要用 -p 指定端口:
是不是第二种方法更简单,哎,没办法小菜鸡只能见一个记录一个一步一步慢慢成长。
在make之前编译mosquitto时把configmk中的WITH_BRIDGE注释掉,把WITH_CLUSTER:=yes取消注释,然后make && make install安装mosquitto即可。
你好,当前linux操作系统的服务器占据了整个服务器操作系统的80%以上,所以掌握linux的系统管理,是一名合格运维工程师的必要,ubuntu即为debian的衍生版本,所以各种特性最接近debian.个人觉得还是使用RHEL /CENTOS作为服务器操作系统比较合适,
1 在企业中最受欢迎的是红帽公司,因为它解决了客户的后顾之忧,可以在遇到问题时候求助官方,而不是放眼忘穿,等待别人的“救助”
2 ubuntu 比较适合作为个人用户的桌面系统使用,,界面比较华丽,而且更新周期比较快,所以对于个人玩家是非常合适的,但是服务器是企业的命根子 需要稳定,而不是华丽。
综合以上的原因建议采用RHEL/CENTOS作为你公司的服务器操作系统,推荐你一本入门的"葵花宝典"《linux就该这么学》这本书,是有多名多年经验的运维工程师编写的,书中都是干货,可以帮助你快速入门linux操作系统!
阿里云ECS实例已经提供了NTP服务器支持,直接启动已配置好的NTP服务即可。
《阿里云NTP服务器》
《配置Linux实例NTP服务》
在开启服务前,先确保环境配置:
文档 《配置Linux实例NTP服务》 中介绍了CentOS环境下开启NTP服务。
由于本人购买的Ubuntu服务器,下面总结Ubuntu环境下的配置。
执行命令查询所有服务,看ntp服务是否已开启(+号:已开启;-号:未开启):
发现香港地区的服务默认都没有开启ntp服务;但深圳地区的服务器默认已经开启了ntp服务。
执行命令查询ntp进程,发现深圳服务器默认已经开启了ntp服务:
如果未开启ntp服务,执行命令开启ntp服务:
开启成功后,如图:
或者查询ntp相关的进程:
重启后通过如下命令观察NTP的运行状态:
这个命令可以列出目前我们的 NTP 与相关的上层 NTP 的状态,上头的几个字段的意义为:
driftfile /etc/ntp/drift
语法为: restrict IP地址 mask 子网掩码 参数
其中IP地址也可以是default ,default 就是指所有的IP
参考 《ubuntu安装和使用NTP》
ubuntu集群用什么传输文件?
在linux下一般用scp这个命令来通过ssh传输文件。
---------------
1、从服务器上下载文件
scpusername@servername:/path/filename/var/www/local_dir(本地目录)
例如scproot@1921680101:/var/www/testtxt把1921680101上的/var/www/testtxt的文件下载到/var/www/local_dir(本地目录)
2、上传本地文件到服务器
scp/path/filenameusername@servername:/path
例如scp/var/www/testphproot@1921680101:/var/www/把本机/var/www/目录下的testphp文件上传到1921680101这台服务器上的/var/www/目录中
linux平台的集群软件有哪些软件?
Linux集群主要分成三大类(高可用集群,负载均衡集群,科学计算集群)
高可用集群(HighAvailabilityCluster)
负载均衡集群(LoadBalanceCluster)
科学计算集群(HighPerformanceComputingCluster)
================================================
高可用集群(HighAvailabilityCluster)
常见的就是2个节点做成的HA集群,有很多通俗的不科学的名称,比如"双机热备","双机互备","双机"
高可用集群解决的是保障用户的应用程序持续对外提供服务的能力。(请注意高可用集群既不是用来保护业务数据的,保护的是用户的业务程序对外不间断提供服务,把因软件/硬件/人为造成的故障对业务的影响降低到最小程度)
Linux平台常见的高可用集群有这些:
1RedHat公司的开放源代码RedHatClusterSuite,简称RHCS(产品介绍
http://wwwredhatcom/solutions/clustersuite/
)
-RHCS实际上是一个套件,除了现在提到的高可用集群软件,还包含了一个基于LVS的负载均衡软件
-RHCS包含的集群软件,是GPL协议下开放源代码的集群系统
-RHCS目前的版本有RHCSv3和v4,分别对应于RedHat企业版Linux的30家族和40家族
-RHCS是一个独立的产品,不包括在RedHatEnterpriseLinux当中,无论是购买还是下载,都是单独存在的
RHCS的获得:
RHCS的获得有三个途径:
a从redhat的官方销售渠道购买,得到的是RedHatRHCS产品的二进制代码(光盘或直接从RHN-RedHatNetwork下载),源代码,以及支持和升级服务
b从redhat的官方站点下载SRPM包,编译并安装无原厂商业支持和升级服务这里下载(ftpredhatcom/pub/redhat/linux/enterprise/4/en/RHCS和ftp:/tpredhatcom/pub/redhat/linux/enterprise/3/en/RHCS)
c从centOS官方站点下载RHCS的二进制代码包并安装,无原厂商业支持和升级服务这里下载(
http://mirrorcentosorg/centos/4/csgfs/
,请阅读此目录中的README文件)
在本实验环境中我们没有办法为大家提供多台服务器来模拟集群环境,由此我们 docker 工具来创建多个 container 来模拟集群所需要的多台服务器。
docker 可以简单的理解为非常轻量级的虚拟机工具,而 container 则理解为创建的虚拟机。
集群系统中,服务器资源可以简单分为两种角色:
一种是 Load Balancer,即负载均衡调度器,位于集群系统的前端,对后端服务器实现负载均衡作用,对外 IP 地址也称为 VIP(虚拟 IP 地址)。
另一种就是后端服务器群,处理由 Load Balancer 发来的请求。
整个集群系统结构:
宿主机环境(默认桌面环境):装有 ipvsadm(LVS 的 IP 负载由 IPVS 内核模块完成,ipvsadm 是为 IPVS 编制规则的工具),充当负载均衡调度器
宿主机浏览器:通过宿主机中的浏览器来充当客户端
RealServer1 的 container:部署 Nginx web 服务器,提供 Web 访问服务,充当服务器池中的一员
RealServer2 的 container:部署 Nginx web 服务器,提供 Web 访问服务,充当服务器池中的一员
我们将通过这样的一些步骤来完成此次的实验:
本地安装 ipvsadm 工具,加载 IPVS 模块
通过 docker 创建两个 container 来模拟服务器池中的成员
配置两台 RealServer 的环境:
安装 vim 与 nginx 工具
修改默认的 nginx 展示页面
配置负载均衡调度机器:
修改内核转发参数
配置 ipvsadm 规则
测试实验效果
LVS 成功测试:我们能够通过 VIP 访问我们的 Nginx 站点,经过多次的刷新我们能够访问另一个站点的内容(以显示的内容以作区分,因为负载并不高,所以需要很多次刷新,点击地址栏,按住 F5 不放)
安装 ipvsadm 工具
首先为了能够使用 IPVS 内核模块,我们将在宿主机中安装 ipvsadm,并尝试能否使用:
命令讲解:
docker run:创建 docker 容器
name 参数:给容器命名,方便区分
tid 参数:分配 tty,能够与之交互
ubuntu:指定容器镜像,这里使用 ubuntu 镜像
安装相关工具
为了区分 RealServer1 和 RealServer2 的 Nginx 响应页面,需要修改默认 nginx 的展示 html 页面。
按 i 键插入,按 esc 再输入 :wq 保存退出。
注意若完成了 RealServer1 的配置之后,如果我们不想打开新的终端,可以通过 ctrl+p+q 的组合快捷键脱离当前机器的登录,切勿使用 exit 的方式退出 container,这样的方式关闭服务器的。 脱离之后便会返回到 shiyanlou 的 zsh 交互,可以通过 docker attach RealServer2 的命令来登录另一台机器,然后做类似的操作(同上的软件安装操作以及 nginx 启动操作)
接下来就修改 nginx 页面,如下所示:
LoadBalancer 的对外 IP 地址为 VIP,即 VIP 地址为 12026159 (注意,你的 VIP 地址可能和我的不一样,根据自己实际情况来)。对内 IP 称为 RIP,此时 RIP 为 19216801。
2开启 LoadBalancer 的内核路由转发:
3查看当前机器内核路由转发开启情况:
得到的值为 1,说明此机器已开启内核路由转发。进行下一步。
4使用 ipvsadm 添加 ipvs 规则。定义集群服务:
上面命中 ipvsadm 参数讲解:
以上便实现了 LVS 的 NAT 负载均衡系统。
与 NAT 方式相同,我们将通过 docker 来模拟我们的集群环境。
集群系统中,服务器资源可以简单分为两种角色:
一种是 Load Balancer,即负载均衡调度器,位于集群系统的前端,对后端服务器实现负载均衡作用,对外 IP 地址也称为 VIP(虚拟 IP 地址)。
另一种就是后端服务器群,处理由 Load Balancer 发来的请求。
整个集群系统结构:
宿主机环境(默认桌面环境):充当客户端访问 web 服务
LoadBalancer1 的 container:装有 ipvsadm,充当负载均衡调度器
RealServer1 的 container:部署 Nginx web 服务器,提供 Web 访问服务,充当服务器池中的一员
RealServer2 的 container:部署 Nginx web 服务器,提供 Web 访问服务,充当服务器池中的一员
我们将通过这样的一些步骤来完成此次的实验:
本地安装 ipvsadm 工具,加载 IPVS 模块
通过 docker 创建三个 container 来模拟服务器池中的成员
配置两台 RealServer 的环境:
安装 vim 与 nginx 工具
修改默认的 nginx 展示页面
修改内核参数,抑制 arp
创建网卡别名与添加路由
配置一台 LoadBalancer 环境:
安装 ipvsadm
配置网卡别名
配置 ipvsadm 规则
测试实验效果
LVS 成功测试:我们能够通过 VIP 访问我们的 Nginx 站点,经过多次的刷新我们能够访问另一个站点的内容(以显示的内容以作区分,因为负载并不高,所以需要很多次刷新,点击地址栏,按住 F5 不放)
查看 ipvsadm 中的统计数据。
若是我们沿用 NAT 的实验环境,我们需要做环境的清理:
1首先清除 ipvsadm 的规则:
2删除之前所创建的 container,虽然都是提供 Web 服务,但是在 DR 模式中需要修改内核参数与创建网卡别名,需要超级权限,所以不能沿用之前的 container:
安装 ipvsadm 工具
因为在 NAT 实验中我们已安装所以可跳过该步骤,若是新启动的环境请参考 NAT 中的步骤,此处提示务必在宿主机环境中执行 ipvsadm -L 的验证步骤,若是不执行该步骤,在 LoadBalancer 的 container 中我们将无法加载 IPVS 的内核模块。
创建与配置服务器池成员
同样我们使用 docker 来模拟我们的集群环境,创建三台 container:
其中 --privileged 参数用于给予容器超级权限。
完成我们服务器池成员的创建之后,我们参照 NAT 中配置步骤完成 RealServer 中的:
nginx 与 vim 的安装
默认展示页面的修改
nginx 服务的启动
在完成这样的配置之后我们需要一些额外的操作:
1修改内核参数
以 RealServer1 为例,登录 container:
执行下列命令:
ARP 的内核参数: arp_ignore 部分参数:定义了本机响应 ARP 请求的级别
0 表示目标 IP 是本机的,则响应 ARP 请求。默认为 0
1 如果接收 ARP 请求的网卡 IP 和目标 IP 相同,则响应 ARP 请求
arp_announce 参数:定义了发送 ARP 请求时,源 IP 应该填什么。
0 表示使用任一网络接口上配置的本地 IP 地址,通常就是待发送的 IP 数据包的源 IP 地址 。默认为 0
1 尽量避免使用不属于该网络接口(即发送数据包的网络接口)子网的本地地址作为 ARP 请求的源 IP 地址。大致的意思是如果主机包含多个子网,而 IP 数据包的源 IP 地址属于其中一个子网,虽然该 IP 地址不属于本网口的子网,但是也可以作为ARP 请求数据包的发送方 IP。
2 表示忽略 IP 数据包的源 IP 地址,总是选择网络接口所配置的最合适的 IP 地址作为 ARP 请求数据包的源 IP 地址(一般适用于一个网口配置了多个 IP 地址)
2配置网卡别名
只有目的 IP 是本机器中的一员时才会做相应的处理,所以需要添加网卡别名:
同两台 Web 服务器中都做该配置,即完成了所有 Web 服务器所需的配置工作。
配置调度器规则
紧接着我们登录 LoadBalancer 机器:
安装 ipvsadm 软件:
创建 eth0 的别名并绑定 VIP 地址,作为集群同时使用:
查看网卡信息:ifconfig
在 LoadBalancer 中添加 IPVS 规则:
ipvsadm 命令参数讲解:
以上操作就实现了 LVS/DR 模式,实现集群系统的负载均衡。
0条评论