双机热备和集群和负载均衡的关系?

双机热备和集群和负载均衡的关系?,第1张

双机热备:

只有一个主机在工作,不能够平均分担负载,同一时间只有一台机器在工作,如果工作的机器发生故障,则通过集群将所有服务转移给另外一台机器,转移时间30秒到2分钟不等,根据数据量决定。

大多数应用于对安全性要求较高,且无24小时人员值守的环境。

负载均衡:

2台或2台以上的机器同时运行,设备之间没有主次之分,需要负载均衡设备,需要数据同步软件,并且基本上只应用前端接收请求的设备。当单台设备出现故障,则由其他设备平均分担所有应用请求。

大多数应用于访问量非常大的场合。只要有一台设备在工作,访问就不会中断。

双机热备与负载均衡区别在于:

1、双机热备相当于2台服务器其中有一台是另一台的备机,也可以互为备机;主机在运行服务时,备机处于检测状态,主机发生故障后,备机将接管主机的服务

2、负载均衡是在这2台服务器(或N多台)之上增加了一台负载均衡服务器,负载均衡服务器的作用是把用户的请求平均分配到每个节点;增加集群整体的处理能力;实现网络访问的均衡

3、双机热备是为保障247小时高可用不停机而推出的产品,而负载均衡是解决服务器压力过大,网络请求大量并发而设计的产品

4、双机热备的优点是:能保障用户服务不间断;负载均衡的优点:WEB访问流畅,用户请求平均分布在每个节点上

5、双机热备缺点:用传统加加阵列的方式增加了存储空间,同样也形成了单点故障;有可能双机热备成为虚设,因为一旦阵列崩溃,服务也意味这停止。 (在条件允许的情况下,可以考虑不加阵列,用软件方式做数据同步,阵列做为备份数据的存储,不失为一个好办法)

6、负载均衡的缺点:适用静态WEB,如果是数据库将不起作用,数据库的多向同步目前还没有完全解决的方案(比如某用户被分配到1号服务器,他在数据库里添加了一条信息;当他下次访问,却被分到2号服务器,那么他原先的数据库信息将不存在)

对于动态的、时常更新的WEB,多向的数据同步也很难,不过我现在已经有了不错的解决办法 因为增加了负载均衡服务器,使得各个节点冗余;但负载均衡器又会形成新的单点故障,所以如果要增加负载均衡设备,一定要选2台做均衡器冗余。

一、集群的基本概念

有一种常见的方法可以大幅提高服务器的安全性,这就是集群。

Cluster集群技术可如下定义:一组相互独立的服务器在网络中表现为单一的系统,并以单一系统的模式加以管理。此单一系统为客户工作站提供高可靠性的服务。

大多数模式下,集群中所有的计算机拥有一个共同的名称,集群内任一系统上运行的服务可被所有的网络客户所使用。Cluster必须可以协调管理各分离的组件的错误和失败,并可透明地向Cluster中加入组件。

一个Cluster包含多台(至少二台)拥有共享数据存储空间的服务器。任何一台服务器运行一个应用时,应用数据被存储在共享的数据空间内。每台服务器的操作系统和应用程序文件存储在其各自的本地储存空间上。

Cluster内各节点服务器通过一内部局域网相互通讯。当一台节点服务器发生故障时,这台服务器上所运行的应用程序将在另一节点服务器上被自动接管。当一个应用服务发生故障时,应用服务将被重新启动或被另一台服务器接管。当以上任一故障发生时,客户将能很快连接到新的应用服务上。

二、集群的硬件配置

镜像服务器双机

集群中镜像服务器双机系统是硬件配置最简单和价格最低廉的解决方案,通常镜像服务的硬件配置需要两台服务器,在每台服务器有独立操作系统硬盘和数据存贮硬盘,每台服务器有与客户端相连的网卡,另有一对镜像卡或完成镜像功能的网卡。

镜像服务器具有配置简单,使用方便,价格低廉诸多优点,但由于镜像服务器需要采用网络方式镜像数据,通过镜像软件实现数据的同步,因此需要占用网络服务器的CPU及内存资源,镜像服务器的性能比单一服务器的性能要低一些。

有一些镜像服务器集群系统采用内存镜像的技术,这个技术的优点是所有的应用程序和网络操作系统在两台服务器上镜像同步,当主机出现故障时,备份机可以在几乎没有感觉的情况下接管所有应用程序。因为两个服务器的内存完全一致,但当系统应用程序带有缺陷从而导致系统宕机时,两台服务器会同步宕机。这也是内存镜像卡或网卡实现数据同步,在大数据量读写过程中两台服务器在某些状态下会产生数据不同步,因此镜像服务器适合那些预算较少、对集群系统要求不高的用户。

硬件配置范例:

网络服务器 两台

服务器操作系统硬盘 两块

服务器数据存贮硬盘 视用户需要确定

服务器镜像卡(部分软件可使用标准网卡) 两块

网络服务网卡 两块三、双机与磁盘阵列柜

与镜像服务器双机系统相比,双机与磁盘阵列柜互联结构多出了第三方生产的磁盘阵列柜,目前,豪威公司、精业公司等许多公司都生产有磁盘阵列柜,在磁盘阵列柜中安装有磁盘阵列控制卡,阵列柜可以直接将柜中的硬盘配置成为逻辑盘阵。磁盘阵列柜通过SCSI电缆与服务器上普通SCSI卡相连,系统管理员需直接在磁盘柜上配置磁盘阵列。

双机与磁盘阵列柜互联结构不采用内存镜像技术,因此需要有一定的切换时间(通常为60?D?D180秒),它可以有郊的避免由于应用程序自身的缺陷导致系统全部宕机,同时由于所有的数据全部存贮在中置的磁盘阵列柜中,当工作机出现故障时,备份机接替工作机,从磁盘阵列中读取数据,所以不会产生数据不同步的问题,由于这种方案不需要网络镜像同步,因此这种集群方案服务器的性能要比镜像服务器结构高出很多。

双机与磁盘阵列柜互联结构的缺点是在系统当中存在单点错的缺陷,所谓单点错是指当系统中某个部件或某个应用程序出现故障时,导致所有系统全部宕机。在这个系统中磁盘阵列柜是会导致单点错,当磁盘阵列柜出现逻辑或物理故障时,所有存贮的数据会全部丢失,因此,在选配这种方案时,需要选用一个品质与售后服务较好的产品。

硬件配置范例:

网络服务器 两台

服务器操作系统硬盘 两块

第三方生产的磁盘阵列柜 一台

磁盘柜专用SCSI电线 两根

磁盘阵列柜数据存贮硬盘 视用户需求确定

网络服务网卡 两块

除此之外,一些厂商还有更优秀的技术的解决方案,比如 HP

四、HP双机双控容错系统

HP NetServer为双机双控容错系统提供了高品质和高可靠的硬件基础……

HP双机双控容错系统结合了HP服务器产品的安全可靠性与Cluster技术的优点,相互配合二者的优势。

硬件配置范例:

HP L系统的网络服务器 两台

服务器操作系统硬盘 两块

HP硬盘存贮柜(SS/6,RS/8,RS/12) 一台

磁盘柜专用SCSI集群适配电缆 两根

磁盘柜数据存贮硬盘 视用户需求确定

HP集群专用阵列卡 两块

网络服务网卡 两块五、HP光纤通道双机双控集群系统

光纤通道是一种连接标准,可以作为SCSI的一种替代解决方案,光纤技术具有高带宽、抗电磁干扰、传输距离远、质量高、扩展能力强等特性,目前在FC-AL仲裁环路上可接入126个设备。

光纤设备提供了多种增强的连接技术,大大方便了用户使用。服务器系统可以通过光缆远程连接,最大可跨越10公里的距离。它允许镜像配置,这样可以改善系统的容错能力。服务器系统的规模将更加灵活多变。SCSI每条通道最多可连接15个设备,而光纤仲裁环路最多可以连接126个设备。

光纤集群系统组成:

HP光纤集群系统硬件设备包括有两台HP服务器(需支持光纤卡,目前有LC2000、LH3000、LH4、 LH6000、LT6000、LXr8000、LXR8500)及光纤适配卡,可以使用RS/12FC光纤磁盘阵列柜,需另加一对或两对网卡用于心跳检测和与客户端连接。在配置过程中还需另外选配光纤卡到光纤存贮设备的光纤电缆。

硬件配置:

HPL系统的网络服务器 两台

服务器操作系统硬盘 两块

HP光纤阵列存贮柜(RS/12FC) 一台

光纤磁盘柜专用光纤电缆 两根

光纤磁盘柜数据存贮硬盘 视用户需求确定

HP光纤适配卡 两块

网络服务网卡 两块

六、集群的软件配置

基于NT平台的集群软件

Microsoft的MSCS,也有许多第三方的专业软件公司开发的集群软件,如豪威的DATAWARE,VIN CA公司的STANDBY SERVER,NSI公司的DOUBLE-TAKE

MS WolfPack的特点

MS WolfPack是MS Cluster server的别称,是 微软针对Cluster技术研制开发的双机软件。它集成在NT SERVER上,支持由二台机器组成的双机系统,提供一种高可用且易管理的应用环境。

主要特点:

自动检测和修复服务器或应用程序的错误

可实现对服务器中应用程序的切换

可通过TCP/IP连接各种客户端,如MS-DOS、WINDOWS 3X/9X/NT,Apple Macintosh、UNIX等

生产主机无需人工干涉即可自动恢复数据并接管任务

易管理性:

可自动审核服务器和应用程序的工作状态

可建立高可用性的应用程序、文件共享、打印请求等

可灵活设置应用程序和数据的恢复策略

简单操作即可进行应用程序的离线,重新再线,服务器间的迁移。

目前,WINDOWS 2000 Advanced Server与WINDOWS 2000 DataCenter Server都集成有更先进集群技术。

其它的网络操作系统平台上也有许多集群软件,比如:

基于novell平台的集群软件有Novell HA Server、Novell SFT III

基于sco UNIX平台的集群软件有Sentinel集群软件

基于Linux平台的集群软件有TurboCluster

七、集群技术的发展趋势

集群技术随着服务器硬件系统与网络操作系统的发展将会在可用性、高可靠性、系统冗余等方面逐步提高。未来的集群可以依靠集群文件系统实现对系统中的所有文件、设备和网络资源的全局访问,并且生成一个完整的系统映像。这样,无论应用程序在集群中的哪台服务器上,集群文件系统允许任何用户(远程或本地)都可以对这个软件进行访问。任何应用程序都可以访问这个集群任何文件。甚至在应用程序从一个节点转移到另一个节点的情况下,无需任何改动,应用程序就可以访问系统上的文件。

在今天,利用服务器的集群技术,通过周密计划和网络维护,系统破坏的机率是非常小的。所以,企业服务器的稳定必须使用集群技术。

两台服务器手动部署大数据平台

##### 初始服务器数量

- 2台centos7

##### 建议配置

- 32G(RAM)

- 24cpu

- 10t(SATA)

### 1环境

- 系统centos7

- jdk:180_171(64位)

- zookeeper:348

- spark-210-bin-hadoop26

- kafka_210-01021

- hadoop-270

- hbase-126

- elasticsearch-630

### 2系统准备

对应的安装包文件:

elasticsearch-630targz

hadoop-270targz

hbase-126-bintargz

jdk-8u171-linux-x64targz

kafka_210-01021tgz

mysql-5723-1el7x86_64rpm-bundletar

spark210hadoop26tgzgz

zookeeper-348targz

一、 配置好hosts

```

两台设备的host

ip1 hello1

ip2 hello2

关闭防火墙

systemctl stop firewalld

systemctl disable firewalld

二、机器之间做好免密

1 在hello1服务器中,cd /root/

2 ssh-keygen -trsa  (全部按回车,走默认配置)

3 cat ~/ssh/id_rsapub >> ~/ssh/authorized_keys

4 chmod 600 ~/ssh/authorized_keys

5 scp ~/ssh/authorized_keys root@hello2:~/ssh/

到此处时可以实现hello1机器上通过root账户登录到hello2中,但从hello2中无法通过免密码登录到hello1服务器。

6 在hello2服务器中,cd /root/

7 ssh-keygen -trsa  (全部按回车,走默认配置)

8 cat ~/ssh/id_rsapub >> ~/ssh/authorized_keys

9 scp ~/ssh/authorized_keys root@hello1:~/ssh/

到此处时可以实现hello1机器与hello2机器之间免密码互通

三、建立一个用户操作elasticsearch用户,后期所有安装软件放在该目录下(当前使用root账户安装)

1添加用户:

useradd -m -s /bin/bash es

2为该用户设置密码:

password es

四、安装JDK

如果系统自带openjdk,先将其卸载掉!

1创建jdk安装路径(hello1、hello2都执行)

执行: mkdir /usr/java

2解压缩jdk到安装目录

执行: tar -zxvf jdk-8u171-linux-x64targz -C /usr/java/

3添加环境变量

vi /etc/profile,添加以下语句

export JAVA_HOME=/usr/java/jdk180_171

export CLASSPATH=:$JAVA_HOME/lib/dtjar:$JAVA_HOME/lib/toolsjar

export PATH=$PATH:$JAVA_HOME/bin

执行:source /etc/profile

4复制安装包和数据目录到hello2

scp  -r /usr/java/jdk180_171 hello2:/usr/java/

scp /etc/profile hello2:/etc/

登录到hello2上,进入/home/es目录

执行: source /etc/profile

5、验证:

两台服务器上分别执行: java -version,查看输出的版本是否与安装的版本一致。

五、安装mysql

1如果centos系统中自带mariadb,先卸载mariadb。

2解压mysql安装包程序

执行:tar -xvf  mysql-5723-1el7x86_64rpm-bundletar

3依次安装里面rpm包组建

rpm -ivh mysql-community-common-5723-1el7x86_64rpm

rpm -ivh mysql-community-libs-5723-1el7x86_64rpm

rpm -ivh mysql-community-client-5723-1el7x86_64rpm

rpm -ivh mysql-community-server-5723-1el7x86_64rpm

rpm -ivh mysql-community-devel-5723-1el7x86_64rpm

4启动MySQL

执行: systemctl start mysqld

5登录mysql服务器

这种方式安装好后,会再mycnf文件中自动生成一个密码,

执行:cat /var/log/mysqldlog | grep password, 出现如下记录:

2017-09-15T01:58:11863301Z 1 [Note] A temporary password is generated for root@localhost: m-NdrSG4ipuO

其中“m-NdrSG4ipuO”为mysql root账户的初始密码。

登录:

执行: mysql -uroot -p

输入密码: m-NdrSG4ipuO,即可进入mysql服务器。

后续可自行修改root密码,创建新账户等操作。

六、安装zookeeper

1解压zookeeper安装包到指定目录(/home/es)

tar -zxvf zookeeper-348targz -C /home/es

2创建程序软连接

cd /home/es/

ln -s zookeeper-348 zookeeper

3添加执行路径环境

vi /etc/profile

添加

export ZOOKEEPER_HOME=/home/es/zookeeper

export PATH=$PATH:$ZOOKEEPER_HOME/bin

执行

source /etc/profile

4修改配置文件

cd /home/es/zookeeper

cp conf/zoo_samplecfg conf/zoocfg

在/home/data下创建对应的zookeeper数据存储目录

mkdir /home/data/zookeeper

mkdir /home/data/zookeeper/data

mkdir /home/data/zookeeper/log

修改配置文件:conf/zoocfg,添加以下语句

dataDir=/home/data/zookeeper/data

dataLogDir=/home/data/zookeeper/log

server1=hello1:2888:3888

server2=hello2:2888:3888

5创建server表示符文件

touch /home/data/zookeeper/data/myid

echo echo 1>/home/data/zookeeper/data/myid

6复制安装包和数据目录到hello2

scp -r /home/es/zookeeper-348 es@hello2:/home/es

scp -r /home/data/zookeeper es@hello2:/home/data

scp  /etc/profile es@hello2:/etc

登录到hello2上

cd /home/es

ln -s zookeeper-348 zookeeper

echo echo 2>/home/data/zookeeper/data/myid

执行

source /etc/profile

7两台机器上分别执行

zkServersh start

8验证

jps | grep QuorumPeerMain,查看是否有该进程

zkServersh status,查看服务状态

六、安装kafka

1解压kafka安装包到指定目录(/home/es)

tar -zxvf kafka_210-01021tgz -C /home/es

2创建程序软连接

cd /home/es/

ln -s kafka_210-01021 kafka

3修改配置文件

备份:

cp config/serverproperties config/serverpropertiesbak

创建kafka日志目录:

mkdir /home/data/kafka

mkdir /home/data/kafka/kafka-logs

修改:config/serverproperties,具体对应字段如下:

brokerid=0

deletetopicenable=true

numnetworkthreads=10

numiothreads=32

socketsendbufferbytes=102400

socketreceivebufferbytes=102400

socketrequestmaxbytes=104857600

logdirs=/home/data/kafka/kafka-logs

numpartitions=1

numrecoverythreadsperdatadir=1

logretentionhours=168

logsegmentbytes=1073741824

logretentioncheckintervalms=300000

zookeeperconnect=hello1:2181,hello2:2181

zookeeperconnectiontimeoutms=6000

6复制安装包和数据目录到hello2

scp -r /home/es/kafka_210-01021 es@hello2:/home/es

scp -r /home/data/kafka es@hello2:/home/data

修改hello2中的配置

登录到hello2上,cd /home/es/kafka,修改config/serverproperties中brokerid值为2

7启动kafka

在两台机器的/home/es/kafka中,创建一个日志存放目录:mkdir start_log,执行以下命令:

nohup bin/kafka-server-startsh config/serverproperties > start_log/kafka_start_log 2>&1 &

8验证运行情况

jps | grep Kafka,查看进程

通过kafka命令查看topic。

七、安装hadoop

1解压hadoop安装包到指定目录(/home/es)

tar -zxvf hadoop-270targz -C /home/es

2创建程序软连接

cd /home/es/

ln -s hadoop-270 hadoop

3创建数据存放目录

mkdir /home/data/hadoop

mkdir /home/data/hadoop/tmp

mkdir /home/data/hadoop/dfs

mkdir /home/data/hadoop/dfs/data

mkdir /home/data/hadoop/dfs/name

4修改配置文件

修改/home/es/hadoop/etc/hadoop/core-sitexml

<configuration>

<property>

<name>fsdefaultFS</name>

<value>hdfs://hello1:9000</value>

</property>

<property>

<name>hadooptmpdir</name>

<value>file:/home/data/hadoop/tmp</value>

</property>

<property>

<name>iofilebuffersize</name>

<value>131702</value>

</property>

</configuration>

修改/home/es/hadoop/etc/hadoop/hdfs-sitexml

<configuration>

<property>

<name>dfsnamenodenamedir</name>

<value>file:/home/data/hadoop/dfs/name</value>

</property>

<property>

<name>dfsdatanodedatadir</name>

<value>file:/home/data/hadoop/dfs/data</value>

</property>

<property>

<name>dfsreplication</name>

<value>2</value>

</property>

<property>

<name>dfsnamenodesecondaryhttp-address</name>

<value>hello1:9001</value>

</property>

<property>

<name>dfswebhdfsenabled</name>

<value>true</value>

</property>

</configuration>

修改/home/es/hadoop/etc/hadoop/mapred-sitexml

<configuration>

<property>

<name>mapreduceframeworkname</name>

<value>yarn</value>

</property>

<property>

<name>mapreducejobhistoryaddress</name>

<value>hello1:10020</value>

</property>

<property>

<name>mapreducejobhistorywebappaddress</name>

<value>hello1:19888</value>

</property>

</configuration>

修改/home/es/hadoop/etc/hadoop/yarn-sitexml

<configuration>

<!-- Site specific YARN configuration properties -->

<property>

<name>yarnnodemanageraux-services</name>

<value>mapreduce_shuffle</value>

</property>

<property>

<name>yarnnodemanagerauxservicesmapreduceshuffleclass</name>

<value>orgapachehadoopmapredShuffleHandler</value>

</property>

<property>

<name>yarnresourcemanageraddress</name>

<value>hello1:8032</value>

</property>

<property>

<name>yarnresourcemanagerscheduleraddress</name>

<value>hello1:8030</value>

</property>

<property>

<name>yarnresourcemanagerresource-trackeraddress</name>

<value>hello1:8031</value>

</property>

<property>

<name>yarnresourcemanageradminaddress</name>

<value>hello1:8033</value>

</property>

<property>

<name>yarnresourcemanagerwebappaddress</name>

<value>hello1:8088</value>

</property>

<property>

<name>yarnnodemanagerresourcememory-mb</name>

<value>768</value>

</property>

</configuration>

配置/home/es/hadoop/etc/hadoop目录下hadoop-envsh、yarn-envsh的JAVA_HOME(不设置的话,启动不了)

export JAVA_HOME=/usr/java/jdk180_171

配置/home/es/hadoop/etc/hadoop目录下的slaves,删除默认的localhost,增加2个从节点,

hello1

hello2

5、将配置好的Hadoop复制到各个节点对应位置上,通过scp传送

scp  -r /home/es/hadoop-270 hello2:/home/es/

scp  -r /home/data/hadoop hello2:/home/data/

登录到hello2上,进入/home/es目录

执行: ln -s hadoop-270 hadoop

6、格式化nameNode及启动hadoop

在主服务器启动hadoop,从节点会自动启动,进入/home/es/hadoop目录

初始化,输入命令,bin/hdfs namenode -format

全部启动sbin/start-allsh,也可以分开sbin/start-dfssh、sbin/start-yarnsh

输入命令,jps,可以看到相关信息

7、验证hadoop运行情况

浏览器打开http://hello1:8088/

浏览器打开http://hello1:50070/

8、添加hadoop环境变量到/etc/profile

export HADOOP_HOME=/home/es/hadoop export PATH=$PATH:$HADOOP_HOME/sbin

export PATH=$PATH:$HADOOP_HOME/bin

export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native

export HADOOP_OPTS="-Djavalibrarypath=$HADOOP_HOME/lib/native"

执行: source /etc/profile

八、安装Hbase

1解压hbase安装包到指定目录(/home/es)

tar -zxvf hbase-126-bintargz -C /home/es

2创建程序软连接

cd /home/es/

ln -s hbase-126 hbase

3添加hbase环境变量到/etc/profile

export  HBASE_HOME=/home/es/hbase

 export  PATH=$HBASE_HOME/bin:$PATH

执行:source /etc/profile

4修改HBASE配置文件

vi /home/es/hbase/conf/hbase-envsh

增加: export JAVA_HOME=/usr/java/jdk180_171

修改: export HBASE_MANAGES_ZK=false

vi /home/es/hbase/conf/hbase-sitexml

修改类容:

<configuration>

<property>

      <name>hbaserootdir</name> <!-- hbase存放数据目录 -->

      <value>hdfs://hello1:9000/hbase/hbase_db</value>

      <!-- 端口要和Hadoop的fsdefaultFS端口一致-->

    </property>

    <property>

      <name>hbaseclusterdistributed</name> <!-- 是否分布式部署 -->

      <value>true</value>

    </property>

    <property>

      <name>hbasezookeeperquorum</name> <!-- list of  zookooper -->

      <value>hello1,hello2</value>

    </property>

     <property><!--zookooper配置、日志等的存储位置 -->

        <name>hbasezookeeperpropertydataDir</name>

        <value>/home/es/hbase/zookeeper</value>

     </property>

</configuration>

配置regionservers,vi /home/es/hbase/conf/regionservers

去掉默认的localhost,加入hello1、hello2

5、将配置好的hbase复制到各个节点对应位置上,通过scp传送

scp  -r /home/es/hbase-126 hello2:/home/es/

scp /etc/profile hello2:/etc/

登录到hello2上,进入/home/es目录

执行: ln -s hbase-126 hbase

source /etc/profile

6、hbase的启动

hello1中执行: start-hbasesh

7、验证hbase运行情况

输入jps命令查看进程是否启动成功,若 hello1上出现HMaster、HRegionServer、HQuormPeer,hello2上出现HRegionServer、HQuorumPeer,就是启动成功了。

输入hbase shell 命令 进入hbase命令模式,输入status命令,查看运行状态。

在浏览器中输入http://hello1:16010就可以在界面上看到hbase的配置

注意事项:

正常安装后,创建普通不带压缩表可以正常读写,当使用snappy进行压缩创建表时,该表无法再regionServer中启动!

解决方法:

1在hbase-sitexml文件中添加一下属性

<property>

                <name>hbaseregionservercodecs</name>

                <value>snappy</value>

        </property>

2每台机器中将hadoop_nativezip解压缩到hbase安装目录的lib下,执行 unzip hadoop_nativezip $HBASE_HOME/lib/

3在$HBASE_HOME/conf/hbase-envsh 中添加:export HBASE_LIBRARY_PATH=/home/es/hbase/lib/native

4重启Hbase服务即可

九、Spark安装

1解压hbase安装包到指定目录(/home/es)

tar -zxvf spark210hadoop26tgzgz -C /home/es

2创建程序软连接

cd /home/es/

ln -s spark210hadoop26 spark

3修改配置文件

mv /home/es/spark/conf/spark-envshtemplate  /home/es/spark/conf/spark-envsh

vi /home/es/spark/conf/spark-envsh

修改对应配置:

export JAVA_HOME=/usr/java/jdk180_171

export SPARK_MASTER_IP=hello1

export SPARK_MASTER_PORT=7077

export SPARK_LOCAL_IP=hello1

修改slaves文件

mv /home/es/spark/conf/slavestemplate  /home/es/spark/conf/slaves

vi /home/es/spark/conf/slaves

将localhost修改成:

hello1

hello2

5、将配置好的hbase复制到各个节点对应位置上,通过scp传送

scp  -r /home/es/spark210hadoop26 hello2:/home/es/

登录到hello2上,进入/home/es目录

执行: ln -s spark210hadoop26 spark

在hello2中修改/home/es/spark/conf/spark-envsh

export JAVA_HOME=/usr/java/jdk180_171

export SPARK_MASTER_IP=hello1

export SPARK_MASTER_PORT=7077

export SPARK_LOCAL_IP=hello2

6、启动spark

cd /home/es/spark

执行: sbin/start-allsh

7、检测执行结果

jps | grep Worker,看是否有相应的进程。

十、安装elasticsearch

由于elasticsearch,用root账户无法启动,故该组件用es账户安装

1、切换到es账户: su es

2、解压hbase安装包到指定目录(/home/es)

tar -zxvf elasticsearch-630targz -C /home/es/

创建程序软连接

cd /home/es/

ln -s elasticsearch-630 elasticsearch

3、修改配置文件

vi /home/es/elasticsearch/config/elasticsearchyml

# 集群的名字 

clustername: crrc-health

# 节点名字 

nodename: node-1 

# 数据存储目录(多个路径用逗号分隔) 

pathdata: /home/data1/elasticsearch/data

# 日志目录 

pathlogs: /home/data1/elasticsearch/logs

#本机的ip地址

networkhost: hello1 

#设置集群中master节点的初始列表,可以通过这些节点来自动发现新加入集群的节点

discoveryzenpingunicasthosts: ["hello1", "hello2"]

# 设置节点间交互的tcp端口(集群),(默认9300) 

transporttcpport: 9300

# 监听端口(默认) 

httpport: 9200

# 增加参数,使head插件可以访问es 

httpcorsenabled: true

httpcorsallow-origin: ""

4、创建elasticsearch数据和存储目录

mkdir /home/data1/elasticsearch

mkdir /home/data1/elasticsearch/data

mkdir /home/data1/elasticsearch/logs

5、修改linux系统的默认硬限制参数

切换至root用户: su root

vim /etc/security/limitsconf

添加:

es soft nofile 65536

es hard nofile 65536

退出es登录,重新用es账户登录,使用命令:ulimit -Hn查看硬限制参数。

vi /etc/sysctlconf

添加:

vmmax_map_count=655360

执行:

sysctl -p

6、将配置好的elasticsearch复制到各个节点对应位置上,通过scp传送

scp  -r /home/es/elasticsearch-630 hello2:/home/es/

scp  -r /home/data1/elasticsearch hello2:/home/data1/

登录到hello2上,进入/home/es目录

执行: ln -s elasticsearch-630 elasticsearch-630

在hello2中修改/home/es/elasticsearch/config/elasticsearchyml

修改: networkhost: hello2

7、启动elasticsearch

使用es账户

执行:

/home/es/elasticsearch/bin/elasticsearch -d

8、验证

控制台中输入:curl http://hello1:9200

1集群必须是2台服务器以上,否则为毛要叫集群vSphere的集群还应该包含一台公用存储,虚拟机文件放在公用存储上,才能实现不停机迁移神马的

2vSphere里面所说的数据存储,可以是服务器的本地硬盘,做不做raid,做什么样的raid,那是服务器的事情,vSphere不关心

服务器的通常是CPU好,CPU主要是用来运算处理的

玩游戏的性能主要取决于显卡

有一种方法是双显卡交火,显卡交火(AMD-ATI的多显卡技术叫做CrossFire;NVIDIA的多显卡技术叫SLI) 简单的说就是:让两块或者多块显卡协同工作,是指芯片组支持能提高系统图形处理能力或者满足某些特殊需求的多显卡并行技术。要实现多显卡技术一般来说需要主板芯片组、显示芯片以及驱动程序三者的支持。

但是通常这是要在一个平台上,也就是在同一个主板上进行的。

你的笔记本显卡也不能拆下来,而且要考虑各种规格,所以是行不通的

至于你说的并行运算,那只是CPU之间的,多处理器同时运算,一般用来处理数据的

和游戏性能没什么关系。

有兴趣了解一下显卡交火吧 http://baikebaiducom/linkurl=5Ge9zg54h1n0NRyrZWhS__GJJUbk8j_2xMKbGaPLri_0XXTW6zyQpHnXqSvT3qDXLgW9ma2ErVsnKDtzSH-TPK

具体操作步骤如下:

1、首先,可以使用图中所示的工具执行热备份,如下图所示,然后进入下一步。 

2、其次,也可以从图中所示的位置获得。如下图所示,然后进入下一步。

3、接着,获得后进行安装和认证,如下图所示,然后进入下一步。

4、最后,完成后设置备份规则,即可开始热备份,如下图所示。这样,问题就解决了。

     

DABAN RP主题是一个优秀的主题,极致后台体验,无插件,集成会员系统
网站模板库 » 双机热备和集群和负载均衡的关系?

0条评论

发表评论

提供最优质的资源集合

立即查看 了解详情