Linux系统 CentOS 7怎么搭建集群
CentOS 7下怎么搭建高可用集群。高可用集群是指以减少服务中断时间为目的的服务器集群技术。它通过保护用户的业务程序对外不间断提供的服务,把因软件/硬件/人为造成的故障对业务的影响降低到最小程度。那么新的centos下怎么来搭建高可用集群。
环境:本文以两台机器实现双集热备高可用集群,主机名node1的IP为192168122168 ,主机名node2的IP为192168122169 。
一、安装集群软件必须软件pcs,pacemaker,corosync,fence-agents-all,如果需要配置相关服务,也要安装对应的软件
二、配置防火墙
1、禁止防火墙和selinux
修改/etc/sysconfig/selinux确保SELINUX=disabled,然后执行setenforce 0或者reboot服务器以生效
2、设置防火墙规则
三、各节点之间主机名互相解析分别修改2台主机名分别为node1和node2,在centos 7中直接修改/etc/hostname加入本机主机名和主机表,然后重启网络服务即可。
配置2台主机的主机表,在/etc/hosts中加入
四、各节点之间时间同步在node1和node2分别进行时间同步,可以使用ntp实现。
五、各节点之间配置ssh的无密码密钥访问。下面的操作需要在各个节点上操作。
两台主机都要互相可以通信,所以两台主机都得互相生成密钥和复制公钥,相互的节点上的hosts文件是都要解析对方的主机名, 192168122168 node1 192168122169 node2
六、通过pacemaker来管理高可用集群
1、创建集群用户
一、集群搭建
1前置操作
若克隆已有的es虚拟机,一定要清空一下文件:
2配置集群,修改elasticsearchyml
# 配置集群名称,保证每个节点的名称相同,如此就能都处于一个集群之内了
clustername: imooc-es-cluster
# 每一个节点的名称,必须不一样
nodename: es-node1
# http端口(使用默认即可)
httpport: 9200
# 主节点,作用主要是用于来管理整个集群,负责创建或删除索引,管理其他非master节点(相当于企业老总)
nodemaster: true
# 数据节点,用于对文档数据的增删改查
nodedata: true
# 集群列表(列出所有的其它服务器ip)
discoveryseed_hosts: ["1921681184", "1921681185", "1921681186"]
# 启动的时候使用一个master节点
clusterinitial_master_nodes: ["es-node1"]
3可查看剔除注释的配置文件内容
more elasticsearchyml | grep ^[^#]
4分别启动各个节点,后查看信息
二、集群脑裂
1集群脑裂
如果发生网络中断或者服务器宕机,那么集群会有可能被划分为两个部分,各自有自己的master管理,那么这就是脑裂
服务器1原为master,宕机后自己投票为master
2解决方案
解决实现原理:半数以上的节点同意选举,节点方可成为master
discoveryzenminimum_master_nodes=(N/2)+1;
N为集群中master节点的数量,也就是nodemaster=true服务节点总数
3ES7之后无此参数,已交由es自己管理
在实际应用中,如果网站的访问量很大,为了提高访问速度,可以与多个Tomcat服务器与Apache服务器集成,让他们共同运行servlet/jsp组件的任务,多个Tomcat服务器构成了一个集群(Cluster)系统,共同为客户提供服务。集群系统具有以下优点:
高可靠性(HA):利用集群管理软件,当主服务器故障时,备份服务器能够自动接管主服务器的工作,并及时切换过去,以实现对用户的不间断服务。
高性能计算(HP):即充分利用集群中的每一台计算机的资源,实现复杂运算的并行处理,通常用于科学计算领域,比如基因分析,化学分析等。
负载平衡:即把负载压力根据某种算法合理分配到集群中的每一台计算机上,以减轻主服务器的压力,降低对主服务器的硬件和软件要求。
原理:JK插件的负载均衡器根据在workerproperties中配置的lbfactor(负载平衡因数),负责为集群系统中的Tomcat服务器分配工作负荷,以实现负载平衡。每个Tomcat服务器间用集群管理器(SimpleTcpCluster)进行通信,以实现HTTP回话的复制,比如Session。
下面我们在一台机器上配置一个Apache和两个Tomcat服务器集群:
2安装Apache,安装两个Tomcat,并把一个测试项目放到两个Tomcat的webapps目录下以便以后测试。
3把mod_jkso复制到<apache_home>/modules下。
4在<apache_home>/conf目录下创建:workersproperties文件:
"pln">worker "pun"> "pln">list "pun">= "pln"> worker1 "pun">, "pln">worker2 "pun">, "pln">loadbalancer "com">#apache把Tomcat看成是工人,loadbalancer是负载均衡器
workerworker1host=localhost #Tomcat worker1服务器
workerworker1port=8009 #Tomcat端口
workerworker1type=ajp13 #协议
workerworker1lbfactor=100 #负载平衡因数
workerworker2host=localhost #Tomcat worker2服务器
workerworker2port=8009 #因为在一台机器上所以端口不能一样
workerworker2type=ajp13 #协议
workerworker2lbfactor=100 #设为一样代表两台机器的负载相同
workerloadbalancertype=1b
workerloadbalancerbalanced_workers=worker1,worker2
workerloadbalancersticky_seesion=false
workerloadbalancersticky_session_force=false
说明:1workerloadbalancersticky_seesion如果设为true则说明会话具有“粘性”,也就是如果一个用户在一个Tomcat中建立了会话后则此后这个用户的所有操做都由这个Tomcat服务器承担。集群系统不会进行会话复制。如果设为false则下面的 sticky_session_force无意义。
2sticky_session_force:假设sticky_session设为true,用户会话具有了粘性,当当前Tomcat服务器停止服务后,如果sticky_session_force为true也就是强制会话与当前Tomcat关联,那么会报500错误,如果设为false则会转到另外的Tomcat服务器。
5修改<apache_home>/conf/httpdconf文件,在文件后面加上:
"com">#Tomcat集群配置
"com">LoadModule jk_module modules/mod_jkso
JkWorkersFile conf/workersproperties
#我的工人们
JkLogFile logs/mod_jklog
#日志文件
JkLogLevel debug
#tomcat运行模式
JkMount /jsp loadbalancer
#收到jsp结尾的文件交给负载均衡器处理
JkMount /helloapp/ loadbalancer
#收到helloapp/路径交给负载均衡器处理
6修改两个Tomcat的conf/servicexml文件。
61首先要修改AJP端口,确保他们与workersproperties中配置的一样
例如按我们上面的配置,只需要把Tomcat2中的AJP端口该为8109即可。
62此外在使用了loadbalancer后,要求worker的名字与Tomcat的servicexml中的Engine元素的jvmRoute属性一致,
例如worker1修改为: <Engine name="Catalina" defaultHost="localhost" jvmRoute="worker1">
63另外,如果两台Tomcat服务器装在一台机器上,必须确保他们的端口没有冲突,Tomcat中一共配置了三个端口:
<Server port="8005" shutdown="SHUTDOWN">
<Connector port="8080" />
<Connector port="8109" protocol="AJP/13" redirectPort="8443" />
把其中一个该了让它们不一样就行了。
完成了以上步骤我们的集群算是基本完成了,打开Apache和两个Tomcat 浏览器进入:localhost/demo/ 能够正确访问。
为了测试,我们写一个jsp文件:testjsp
"tag"><html>
<head>
<title>test</title>
</head>
<body>
<%
Systemoutprintfln("call testjsp");
%>
session:<%=sessiongetId() %>
</body></html>
把它放到两个Tomcat中的demo项目中,浏览器访问这个页面,每次访问只在一个Tomcat控制台打印语句。
然而页面中的Session Id是会变的。这种情况下如果一个用户正在访问时,如果跳到另一个Tomcat服务器,那么他的session就没有了,可能导致错误。
7配置集群管理器
如果读者对HttpSession有了解应该知道,用户的会话状态保存在session中,一个浏览器访问多个网页它们的请求始终处于一个会话范围中,因此SessionID应该是不变的。
以上我们看到的浏览器中的SessionID不同,因为转到另一个Tomcat后当前会话就结束了,又在另一个服务器上开启了一个新的会话。那么怎么让多个Tomcat服务器共享一个会话呢
为了解决上述问题,我们启用Tomcat的集群管理器(SimpleTcpCluster):
71修改Tomcat1和Tomcat2的servletxml文件,在Engine元素中加入以下Cluster元素
"tag"><Cluster "pln"> "atn">className "pun">= "atv">"orgapachecatalinahatcpSimpleTcpCluster"
channelSendOptions="8">
<Manager className="orgapachecatalinahasessionDeltaManager"
expireSessionsOnShutdown="false"
notifyListenersOnReplication="true"/>
<Channel className="orgapachecatalinatribesgroupGroupChannel">
<Membership className="orgapachecatalinatribesmembershipMcastService"
bind="127001"
address="228004"
port="45564"
frequency="500"
dropTime="3000"/>
<Receiver className="orgapachecatalinatribestransportnioNioReceiver"
address="auto"
port="4000"
autoBind="100"
selectorTimeout="5000"
maxThreads="6"/>
<Sender className="orgapachecatalinatribestransportReplicationTransmitter">
<Transport className="orgapachecatalinatribestransportnioPooledParallelSender"/>
</Sender>
<Interceptor className="orgapachecatalinatribesgroupinterceptorsTcpFailureDetector"/>
<Interceptor className="orgapachecatalinatribesgroupinterceptorsMessageDispatch15Interceptor"/>
</Channel>
<Valve className="orgapachecatalinahatcpReplicationValve" filter=""/>
<Valve className="orgapachecatalinahasessionJvmRouteBinderValve"/>
<Deployer className="orgapachecatalinahadeployFarmWarDeployer"
tempDir="/tmp/war-temp/"
deployDir="/tmp/war-deploy/"
watchDir="/tmp/war-listen/"
watchEnabled="false"/>
<ClusterListener className="orgapachecatalinahasessionJvmRouteSessionIDBinderListener"/>
<ClusterListener className="orgapachecatalinahasessionClusterSessionListener"/>
</Cluster>
关于Cluster的相关介绍参照:<tomcat-home>\webapps\docs\cluster-howtohtml <tomcat-home>\webapps\docs\config\clusterhtml
72分别修改Tomcat1和Tomcat2 demo项目的webxml文件,在后面加入<distributable>元素
"tag"><web-app>
"pln">
"tag"><distributable/>
</web-app>
如果一个web项目的webxml文件中指定了<distributable/>元素那么Tomcat服务器启动这个Web应用时,会为它创建由<Cluster>元素指定的会话管理器,这里我们用的是DeltaManager,他们把会话从一个Tomcat服务器复制到集群中另一个Tomcat服务器。
73重新启动两个Tomcat,发现Tomcat控制台还是依次打印出Call testjsp 页面中的SessionID却不变了。测试完成。
重要说明:(1)如果项目要发布到集群上,那么与会话有关的类需要实现javaioSerializable序列化接口。
(2)集群中Tomcat间用组播方式进行通信,如果机器上有多个网卡则可能导致组播失败,解决的办法是<Cluster>元素的<Membership>元素配置bind属性,它用于明确知道组播地址:
<Membership className="orgapachecatalinatribesmembershipMcastService" bind="127001"/>
(3)如果集群较小,可以采用DeltaManager会话管理器,如果多的话建议使用BackupManager
(4)<Membership>的address设为"228004",运行时须确保机器联网能访问到该地址,否则可能运行失败。
查看集群健康状况:URL+ /GET _cat/health
Cluster
代表一个集群,集群中有多个节点,其中有一个为主节点,这个主节点是可以通过选举产生的,主从节点是对于集群内部来说的。es的一个概念就是去中心化,字面上理解就是无中心节点,这是对于集群外部来说的,因为从外部来看es集群,在逻辑上是个整体,你与任何一个节点的通信和与整个es集群通信是等价的。
Shards
代表索引分片,es可以把一个完整的索引分成多个分片,这样的好处是可以把一个大的索引拆分成多个,分布到不同的节点上。构成分布式搜索。分片的数量只能在索引创建前指定,并且索引创建后不能更改。
replicas
代表索引副本,es可以设置多个索引的副本,副本的作用一是提高系统的容错性,当某个节点某个分片损坏或丢失时可以从副本中恢复。二是提高es的查询效率,es会自动对搜索请求进行负载均衡。
Recovery
代表数据恢复或叫数据重新分布,es在有节点加入或退出时会根据机器的负载对索引分片进行重新分配,挂掉的节点重新启动时也会进行数据恢复。
(2)、ES为什么要实现集群
在单台ES服务器节点上,随着业务量的发展索引文件慢慢增多,会影响到效率和内存存储问题等。
我们可以采用ES集群,将单个索引的分片到多个不同分布式物理机器上存储,从而可以实现高可用、容错性等。
ES集群中索引可能由多个分片构成,并且每个分片可以拥有多个副本。通过将一个单独的索引分为多个分片,我们可以处理不能在一个单一的服务器上面运行的大型索引,简单的说就是索引的大小过大,导致效率问题。不能运行的原因可能是内存也可能是存储。由于每个分片可以有多个副本,通过将副本分配到多个服务器,可以提高查询的负载能力。
(3)、ES是如何解决高并发
ES是一个分布式全文检索框架,隐藏了复杂的处理机制,内部使用 分片机制、集群发现、分片负载均衡请求路由。
Shards 分片:代表索引分片,es可以把一个完整的索引分成多个分片,这样的好处是可以把一个大的索引拆分成多个,分布到不同的节点上。构成分布式搜索。分片的数量只能在索引创建前指定,并且索引创建后不能更改。
Replicas分片:代表索引副本,es可以设置多个索引的副本,副本的作用一是提高系统的容错性,当某个节点某个分片损坏或丢失时可以从副本中恢复。二是提高es的查询效率,es会自动对搜索请求进行负载均衡。
1、每个索引会被分成多个分片shards进行存储,默认创建索引是分配5个分片进行存储。每个分片都会分布式部署在多个不同的节点上进行部署,该分片成为primary shards。
注意:索引的主分片primary shards定义好后,后面不能做修改。
2、为了实现高可用数据的高可用,主分片可以有对应的备分片replics shards,replic shards分片承载了负责容错、以及请求的负载均衡。
注意: 每一个主分片为了实现高可用,都会有自己对应的备分片,主分片对应的备分片不能存放同一台服务器上。主分片primary shards可以和其他replics shards存放在同一个node节点上。
3、documnet routing(数据路由)
当客户端发起创建document的时候,es需要确定这个document放在该index哪个shard上。这个过程就是数据路由。
路由算法:shard = hash(routing) % number_of_primary_shards
如果number_of_primary_shards在查询的时候取余发生的变化,无法获取到该数据
注意:索引的主分片数量定义好后,不能被修改
高可用视图分析(下图所示:上面的图,如果节点1与节点2宕机了,es集群数据就不完整了。下面图,如果节点1与节点2宕机了,es集群数据还是完整的)
(1)、服务器环境
准备三台服务器集群
| 服务器名称 | IP地址 |
| node-1 | 192168212182 |
| node-2 | 192168212183 |
| node-3 | 192168212184 |
(2)、关闭防火墙
(3)、 http://192168212185:9200/_cat/nodespretty
号表示为master节点
注意:
注意克隆data文件会导致数据不同步
报该错误解决办法 :
failed to send join request to master
因为克隆导致data文件也克隆呢,直接清除每台服务器data文件。
一、Redis集群介绍
Redis真的是一个优秀的技术,它是一种key-value形式的NoSQL内存数据库,由ANSI C编写,遵守BSD协议、支持网络、可基于内存亦可持久化的日志型、Key-Value数据库,并提供多种语言的API。 Redis最大的特性是它会将所有数据都放在内存中,所以读写速度性能非常好。Redis是基于内存进行操作的,性能较高,可以很好的在一定程度上解决网站一瞬间的并发量,例如商品抢购秒杀等活动。
网站承受高并发访问压力的同时,还需要从海量数据中查询出满足条件的数据,需要快速响应,前端发送请求、后端和mysql数据库交互,进行sql查询操作,读写比较慢,这时候引入Redis ,把从mysql 的数据缓存到Redis 中,下次读取时候性能就会提高;当然,它也支持将内存中的数据以快照和日志的形式持久化到硬盘,这样即使在断电、机器故障等异常情况发生时数据也不会丢失,Redis能从硬盘中恢复快照数据到内存中。
Redis 发布了稳定版本的 50 版本,放弃 Ruby的集群方式,改用 C语言编写的 redis-cli的方式,是集群的构建方式复杂度大大降低。Redis-Cluster集群采用无中心结构,每个节点保存数据和整个集群状态,每个节点都和其他所有节点连接。
为了保证数据的高可用性,加入了主从模式,一个主节点对应一个或多个从节点,主节点提供数据存取,从节点则是从主节点拉取数据备份,当这个主节点挂掉后,就会有这个从节点选取一个来充当主节点,从而保证集群不会挂掉。
redis-cluster投票:容错,投票过程是集群中所有master参与,如果半数以上master节点与master节点通信超过(cluster-node-timeout),认为当前master节点挂掉。
集群中至少应该有奇数个节点,所以至少有三个节点,每个节点至少有一个备份节点,所以下面使用6节点(主节点、备份节点由redis-cluster集群确定)。6个节点分布在一台机器上,采用三主三从的模式。实际应用中,最好用多台机器,比如说6个节点分布到3台机器上,redis在建立集群时为自动的将主从节点进行不同机器的分配。
二、单机redis模式
下载源码redis50并解压编译
wget http://downloadredisio/releases/redis-500targz
tar xzf redis-500targz
cd redis-500
make
redis前端启动需要改成后台启动
修改redisconf文件,将daemonize no -> daemonize yes
vim redisconf
启动redis
/www/server/redis/src/redis-server /www/server/redis/redisconf
查看redis是否在运行
ps aux|grep redis
现在是单机redis模式完成。
三、redis集群模式:
1创建6个Redis配置文件
cd /usr/local/
mkdir redis_cluster //创建集群目录
cd redis_cluster
mkdir 7000 7001 7002 7003 7004 7005//分别代表6个节点
其对应端口 7000 7001 7002 70037004 7005
2复制配置文件到各个目录
cp /www/server/redis/redisconf /usr/local/redis_cluster/7000/
cp /www/server/redis/redisconf /usr/local/redis_cluster/7001/
cp /www/server/redis/redisconf /usr/local/redis_cluster/7002/
cp /www/server/redis/redisconf /usr/local/redis_cluster/7003/
cp /www/server/redis/redisconf /usr/local/redis_cluster/7004/
cp /www/server/redis/redisconf /usr/local/redis_cluster/7005/
3分别修改配置文件
vim /usr/local/redis_cluster/7000/redisconf
vim /usr/local/redis_cluster/7001/redisconf
vim /usr/local/redis_cluster/7002/redisconf
vim /usr/local/redis_cluster/7003/redisconf
vim /usr/local/redis_cluster/7004/redisconf
vim /usr/local/redis_cluster/7005/redisconf
如下
port 7000 #端口
cluster-enabled yes #启用集群模式
cluster-config-file nodes_7000conf #集群的配置 配置文件首次启动自动生成
cluster-node-timeout 5000 #超时时间 5秒
appendonly yes #aof日志开启 它会每次写操作都记录一条日志
daemonize yes #后台运行
protected-mode no #非保护模式
pidfile /var/run/redis_7000pid
//下面可以不写
#若设置密码,master和slave需同时配置下面两个参数:
masterauth "jijiji" #连接master的密码
requirepass "jijiji" #自己的密码
cluster-config-file,port,pidfile对应数字
4启动节点
cd /www/server/redis/src/
/redis-server /usr/local/redis_cluster/7000/redisconf
/redis-server /usr/local/redis_cluster/7001/redisconf
/redis-server /usr/local/redis_cluster/7002/redisconf
/redis-server /usr/local/redis_cluster/7003/redisconf
/redis-server /usr/local/redis_cluster/7004/redisconf
/redis-server /usr/local/redis_cluster/7005/redisconf
查看redis运行
ps aux|grep redis
5启动集群
/www/server/redis/src/redis-cli --cluster create 127001:7000 127001:7001 127001:7002 127001:7003 127001:7004 127001:7005 --cluster-replicas 1
这里使用的命令是create,因为我们要创建一个新的集群。 该选项--cluster-replicas 1意味着我们希望每个创建的主服务器都有一个从服。
输入yes
至此,Reids5 集群搭建完成。
6检查Reids5集群状态
可以执行redis-cli --cluster check host:port检查集群状态slots详细分配。
redis-cli --cluster info 127001:7000
7停止Reids5集群
(1)因为Redis可以妥善处理SIGTERM信号,所以直接kill -9也是可以的,可以同时kill多个,然后再依次启动。
kill -9 PID PID PID
(2)redis5 提供了关闭集群的工具,修改文件: /www/server/redis/utils/create-cluster/create-cluster
端口PROT设置为6999,NODES为6,工具会生成 7000-7005 六个节点 用于操作。
修改后,执行如下命令关闭集群:
/www/server/redis/utils/create-cluster/create-cluster stop
重新启动集群:
/www/server/redis/utils/create-cluster/create-cluster start
8帮助信息
执行redis-cli --cluster help,查看更多帮助信息
redis-cli --cluster help
吉海波
0条评论