怎么判断服务器的性能?
一、硬盘类型。服务器中的固态硬盘(SSD)比SATA硬盘驱动器提供更高的磁盘读/写速度,也称为输入/输出(I/O)性能。具有SSD读取和写入磁盘的服务器速度更快,但定价显著高于同等存储容量的SATA硬盘。
二、硬盘存储空间。服务器的硬盘存储是本地数据库大小和文件(如图像)的本地存储的限制因素。配置RAID磁盘阵列可有效增加数据可靠性,增加读取/写入(I/O)性能,RAID需要两个以上单独的存储卷。存储还可以采取网络存储的形式,如NAS(网络连接存储)或SAN(存储区域网络)。
三、CPU。独立服务器的CPU执行诸如服务网页、运行数据库查询或处理计算命令等指令。CPU和内核的数量会影响可执行多少个并发指令。CPU架构和功能也影响执行指令的速度,特别是在围绕这些功能设计程序的网站或应用。
四、带宽。带宽数据传输限制,指的是可以并发到您的服务器的数据量。服务器带宽价格较高,通常提供5Mbps、10Mbps国际带宽。像并发视频流、游戏和大数据处理等工作任务都需要高带宽。
五、网络延迟。网络延迟是服务器和用户之间发送信息的延迟的毫秒。网络延迟的高低由服务器提供商决定,但受到服务器和用户之间的距离和网络质量的影响。为降低延迟,服务器供应商部署中国大陆连通香港地区的CN2专线,是目前中国大陆访问最快的线路,可提供最低的延迟和最好的网络体验。
负载均衡有两种含义:第一种,单个负载的运算分担到多台节点设备上做并行处理,每个节点设备处理结束后,将结果汇总,返回给用户,系统处理能力得到大幅度提高,也就是常说的集群(clustering)技术。第二种,大量的并发访问或数据流量分担到多台节点设备上分别处理,减少用户等待响应的时间,这主要针对Web服务器、FTP服务器、企业关键应用服务器等网络应用。通常,负载均衡会根据网络的不同层次(网络七层)来划分。其中,第二层的负载均衡指将多条物理链路当作一条单一的聚合逻辑链路使用,这就是链路聚合(Trunking)技术,它不是一种独立的设备,而是交换机等网络设备的常用技术。现代负载均衡技术通常操作于网络的第四层或第七层,这是针对网络应用的负载均衡技术,它完全脱离于交换机、服务器而成为独立的技术设备。
服务器实现负载均衡有软件和硬件两种方式
软件负载均衡的方式是在一台或多台服务器相应的操作系统上安装一个或多个应用软件来实现负载均衡,如DNS Load Balance,CheckPoint Firewall-1 ConnectControl等,它的优点是基于特定环境,配置简单,使用灵活,成本低廉,可以满足一般的负载均衡需求。缺点就是服务器上的软件本身就会消耗服务器系统不定量的资源,同时操作系统本身的原因,安全方面会有影响
硬件负载均衡的方法就是直接在服务器和外部网络间安装负载均衡设备,专由门的设备完成专门的任务,独立于操作系统,整体性能得到提高,加上多样化的负载均衡策略,智能化的流量管理,可达到负载均衡需求。
负载均衡具体有三种部署方式:路由模式、桥接模式、服务直接返回模式。
路由模式部署灵活,服务器的网关设置成负载均衡机的LAN口地址,且与WAN口分署不同的逻辑网络。因此所有返回的流量也都经过负载均衡。这种方式对网络的改动小,能均衡任何下行流量。
桥接模式配置简单,不改变现有网络。负载均衡的WAN口和LAN口分别连接上行设备和下行服务器。LAN口
不需要配置IP(WAN口与LAN口是桥连接),所有的服务器与负载均衡均在同一逻辑网络中。这种安装方式容错性差,网络架构缺乏弹性,对广播风暴及其他生成树协议循环相关联的错误敏感。
服务直接返回模式这种安装方式负载均衡的LAN口不使用,WAN口与服务器在同一个网络中,互联网的客户端访问负载均衡的虚IP(VIP),虚IP对应负载均衡机的WAN口,负载均衡根据策略将流量分发到服务器上,服务器直接响应客户端的请求。因此对于客户端而言,响应他的IP不是负载均衡机的虚IP(VIP),而是服务器自身的IP地址。也就是说返回的流量是不经过负载均衡的。因此这种方式适用大流量高带宽要求的服务。
亲,负荷问题没有描述清楚哦!
以下,给你一点建议,参考一下吧。
如果是CPU、内存超负荷的话,先调查是否因软件异常引起的。如果不是软件的异常导致,那就得考虑一下调整服务器配置了。Cloud的管理界面一般都可以去更改。如果应用IIS等服务产生session连接负荷的话,需调整负载平衡。另外,每台服务器能力都是有限的,到达一定程度后需要考虑架构分散服务器。希望能够帮助你。
linux系统find命令对系统负载有什么影响?
对系统负载的影响主要看find命令的搜索范围,如果是全盘搜索,则对系统负载影响很大。
如何使得Linux服务器下多网卡负载均衡?
◆应用服务器的负载均衡技术如果将客户端的负载均衡层移植到某一个中间平台,形成三层结构,则客户端应用可以不需要做特殊的修改,透明的通过中间层应用服务器将请求均衡到相应的服务结点。比较常见的实现手段就是反向代理技术。使用反向代理服务器,可以将请求均匀转发给多台服务器,或者直接将缓存的数据返回客户端,这样的加速模式在一定程度上可以提升静态网页的访问速度,从而达到负载均衡的目的。使用反向代理的好处是,可以将负载均衡和代理服务器的高速缓存技术结合在一起,提供有益的性能。然而它本身也存在一些问题,首先就是必须为每一种服务都专门开发一个反向代理服务器,这就不是一个轻松的任务。反向代理服务器本身虽然可以达到很高效率,但是针对每一次代理,代理服务器就必须维护两个连接,一个对外的连接,一个对内的连接,因此对于特别高的连接请求,代理服务器的负载也就非常之大。反向代理能够执行针对应用协议而优化的负载均衡策略,每次仅访问最空闲的内部服务器来提供服务。但是随着并发连接数量的增加,代理服务器本身的负载也变得非常大,最后反向代理服务器本身会成为服务的瓶颈。◆基于域名系统的负载均衡NCSA的可扩展Web是最早使用动态DNS轮询技术的web系统。在DNS中为多个地址配置同一个名字,因而查询这个名字的客户机将得到其中一个地址,从而使得不同的客户访问不同的服务器,达到负载均衡的目的。在很多知名的web站点都使用了这个技术:包括早期的yahoo站点、163等。动态DNS轮询实现起来简单,无需复杂的配置和管理,一般支持bind82以上的类unix系统都能够运行,因此广为使用。DNS负载均衡是一种简单而有效的方法,但是存在不少问题。首先域名服务器无法知道服务结点是否有效,如果服务结点失效,余名系统依然会将域名解析到该节点上,造成用户访问失效。其次,由于DNS的数据刷新时间TTL(TimetoLIVE)标志,一旦超过这个TTL,其他DNS服务器就需要和这个服务器交互,以重新获得地址数据,就有可能获得不同IP地址。因此为了使地址能随机分配,就应使TTL尽量短,不同地方的DNS服务器能更新对应的地址,达到随机获得地址。然而将TTL设置得过短,将使DNS流量大增,而造成额外的网络问题。最后,它不能区分服务器的差异,也不能反映服务器的当前运行状态。当使用DNS负载均衡的时候,必须尽量保证不同的客户计算机能均匀获得不同的地址。例如,用户A可能只是浏览几个网页,而用户B可能进行着大量的下载,由于域名系统没有合适的负载策略,仅仅是简单的轮流均衡,很容易将用户A的请求发往负载轻的站点,而将B的请求发往负载已经很重的站点。因此,在动态平衡特性上,动态DNS轮询的效果并不理想。◆高层协议内容交换技术除了上述的几种负载均衡方式之外,还有在协议内部支持负载均衡能力的技术,即URL交换或七层交换,提供了一种对访问流量的高层控制方式。Web内容交换技术检查所有的HTTP报头,根据报头内的信息来执行负载均衡的决策。例如可以根据这些信息来确定如何为个人主页和图像数据等内容提供服务,常见的有HTTP协议中的重定向能力等。HTTP运行于TCP连接的最高层。客户端通过恒定的端口号80的TCP服务直接连接到服务器,然后通过TCP连接向服务器端发送一个HTTP请求。协议交换根据内容策略来控制负载,而不是根据TCP端口号,所以不会造成访问流量的滞留。由于负载平衡设备要把进入的请求分配给多个服务器,因此,它只能在TCP连接时建立,且HTTP请求通过后才能确定如何进行负载的平衡。当一个网站的点击率达到每秒上百甚至上千次时,TCP连接、HTTP报头信息的分析以及进程的时延已经变得很重要了,要尽一切可能提高这几各部份的性能。在HTTP请求和报头中有很多对负载平衡有用的信息。我们可以从这些信息中获知客户端所请求的URL和网页,利用这个信息,负载平衡设备就可以将所有的图像请求引导到一个图像服务器,或者根据URL的数据库查询内容调用CGI程序,将请求引导到一个专用的高性能数据库服务器。如果网络管理员熟悉内容交换技术,他可以根据HTTP报头的cookie字段来使用Web内容交换技术改善对特定客户的服务,如果能从HTTP请求中找到一些规律,还可以充分利用它作出各种决策。除了TCP连接表的问题外,如何查找合适的HTTP报头信息以及作出负载平衡决策的过程,是影响Web内容交换技术性能的重要问题。如果Web服务器已经为图像服务、SSL对话、数据库事务服务之类的特殊功能进行了优化,那么,采用这个层次的流量控制将可以提高网络的性能。◆网络接入协议交换大型的网络一般都是由大量专用技术设备组成的,如包括防火墙、路由器、第3、4层交换机、负载均衡设备、缓冲服务器和Web服务器等。如何将这些技术设备有机地组合在一起,是一个直接影响到网络性能的关键性问题。现在许多交换机提供第四层交换功能,对外提供一个一致的IP地址,并映射为多个内部IP地址,对每次TCP和UDP连接请求,根据其端口号,按照即定的策略动态选择一个内部地址,将数据包转发到该地址上,达到负载均衡的目的
Apache+Tomcat+Linux集群和均衡负载(Session同步复制)?
Tomacat集群就是配置过个tomcat负载均衡就是通过apache配置多个tomcat,让访问量分布到多个web服务器上面,减少单个服务器的压力。
session复制配置多个tomcat会出现这样的情况,就是某个用户在访问网站的时候,第一次请求请求到服务器1,然而第二次却请求到服务器2,此时改用户的session信息只在服务器1有,到服务器2就丢失了改用户的信息,为了解决这个问题,apache配置过程中需要将session信息在不同服务器间同步。按自己的理解写的,水平有限,希望对你有所帮助。
1 服务器客户机结构概述
11 服务器客户机结构的介绍
WinCC 客户机/服务器结构(Client/Server结构,以下简称C/S结构)是一种在网络基础上,以数据库管理为后援,以微机为工作站的系统结构。这种结构将任务合理分配到客户机端和服务器端,降低了系统的通讯开销,充分的利用了两端硬件环境优势。WinCC 可组态含有多个客户机和服务器的C/S系统,从而更有效地操作和监控大型系统,通过在多个服务器中分配操作和监控任务,平衡了服务器的使用率,从而使性能得到更大的改善。
图1 图2
12 与操作系统的兼容性
对于安装,必须满足操作系统和软件组态的某些要求,不同版本的WinCC 服务器客户机与操作系统的兼容性参考以下链接:
8795716
13 服务器客户机结构的限制条件
服务器端:
每台WinCC 服务器上都必须安装“WinCC Server”授权
客户机端:
根据需求可以分为客户机,Web 客户机和瘦客户机。
表1
1) 中央归档服务器会被视为一个服务器。但它无法被同时当作操作单元使用。
2) 如果服务器也作为操作单元使用,则此服务器的客户机数目会减少到四个。
3) 混合组态: 32 个客户机 + 3 个 Web 客户机
4) 混合组态: 50 个 Web 客户机 + 1 个 WinCC 客户机(也适合工程用途)
2 服务器客户机结构组态介绍
21 服务器客户通讯前提
> 网络连接正常
客户机/服务器系统中所有计算机都必须通过网络(局域网)相互连接。
可以通过Ping 命令 查看通讯是否正常
最好使用ping 来查看通讯是否正常
因为IP 地址和计算机名称的映射需要通过NETBIOS 解析完成,在某些情况下ping IP地址并不能确保整体网络连接正常,更多信息请参考Microsoft MSDN相关文档
连接正常如下图:
图3
> 分配Windows 用户权限
服务器客户机使用相同的用户名(推荐)
服务器端
用户◊本地用户和组◊管理工具◊1) 点击Windows 开始菜单
图4
2) 创建一个新用户或者使用默认Administrator, 为用户分配Administrators ,SIMATIC HMI和 SQLServer2005MSSQLUSER$$WinCC三个用户组。并且为该用户设置密码
图5
客户机端:
创建或者使用与服务器端相同的用户名和密码,检查这个用户是否属于Administrators ,SIMATIC HMI和 SQLServer2005MSSQLUSER$$WinCC三个用户组 服务器客户机使用不同的用户名
服务器端
本地用户和组◊管理工具◊1) 点击Windows 开始菜单
2) 创建一个新用户或者使用默认Administrator, 为用户分配Administrators ,SIMATIC HMI和 SQLServer2005MSSQLUSER$$WinCC三个用户组。并且为该用户设置密码
3) 添加客户机登陆用户的用户名到服务器用户列表中并为其设置与客户机登陆用户相同的密码,依照步骤二为这个用户添加三个用户组。(注意:添加的是客户机登陆用户用户名而不是计算机名称)
图6
客户机端
检查客户机的登陆用户是否属于Administrators ,SIMATIC HMI和
SQLServer2005MSSQLUSER$$WinCC三个用户组
注意:
> Windows登陆用户必须有密码,否则会造成用户权限的限制
> 禁用来宾(Guest )用户的访问
22 客户机类型介绍
WinCC 的客户机对服务器的访问方式可以分为多用户系统和分布式系统
多用户与分布式系统的特性:
表2
23 多用户系统
特点:
多个操作站通过过程驱动器连接访问服务器上的项目。在多用户情况下,客户端没有必要组态项目,服务器负责实现所有公共功能
组态步骤
1) 在服务器上创建类型为“多用户项目”的新项目。
图7
2) 在项目里组态必需的项目数据(画面、归档、变量……)
3) 在项目的计算机属性中添加远程访问的客户机计算机名称,并组态相应的启动,参数属性
图8
4) 在项目中组态客户机的登录用户和权限(此处的登录用户为WinCC 项目的登录用户) WinCC 项目管理器→用户管理器
创建客户机的登录用户,为此用户分配1000 远程激活,1001远程组态权限
图9
5) 在服务器上生成服务器数据包
WinCC 项目管理→服务器数据右键→隐含更新(确保自动导入选上)→创建服务器数据包
图10
6) 在服务器上激活项目
7) 在客户机上通过网上邻居或者Simatic Shell浏览服务器项目, 激活项目
以Simatic Shell为例:
找到服务器的项目选择互连,再弹出的登陆对话框中输入在步骤3中建立的具有1000,1001权限的用户名和密码
图11
注意:
如果在Simatic Shell中看不到服务器计算机。
> 检查网络的连接状况
> 检查计算机是否属于相同的工作组
> 检查Simatic Shell的设置中默认网卡的设置是否正确
图12
> 重新注销登录用户
24 分布式系统
特点:
分布任务在多个服务器上,减轻单个服务器负荷,客户机具有自己的项目,可以浏览多个服务器上的数据,服务器所更新的数据将通过数据包导出特性传送到客户机。使大型系统获得更好的性能。
组态步骤:
1) 在每个服务器上创建类型为“多用户项目”的新项目。
图13
2) 在服务器项目里组态必需的项目数据(画面、归档、变量……)。
单个服务器所承担的任务可根据技术或功能等方面进行分配:
> 技术方面: 每个服务器对过程/系统的指定区进行管理。
> 功能方面: 每个服务器在运行时完成整个过程中的某个指定任务,例如报警记录或归档。
3) 组态具有远程组态能力的客户机,必须在服务器项目中添加此客户机计算机名称
4) 在服务器上生成服务器数据包
WinCC 项目管理→服务器数据右键→隐含更新(确保自动导入选上)→创建服务器数据包
图14
5) 在客户机上创建类型为“客户机项目”的新项目
图15
6) 客户机项目加载所需要的服务器数据(数据包)
通常,服务器数据包将以名称“pck”存储在目录“\\\\Packages\”中。
图16
7) 在客户机项目中组态服务器数据
图17
注意:
并不是所有的数据都包含在数据包内(eg 菜单和工具栏,全局脚本,报表编辑器,用户管理器,交叉索引)如果客户机想要执行以上服务器数据内容,则需要在客户机端组态相应内容或者将服务器相应内容拷贝到客户机对应文件夹下。
3 常见问题
Q :多用户系统下客户机打开服务器项目提示“服务器项目不可用”的可能原因?
图18
A :1 服务器端项目没有打开
2 检查客户机端的Guest 来宾用户是否关闭
Q : 多用户系统下打开服务器项目提示“数据库上下文不存在或者无效”?
图19
A :项目在创建时缺少相应用户权限,请检查创建项目的用户是否属于ADMINISTRATORS 用户组。
Q :多用户系统下打开服务器项目提示“用户没有执行该操作的权限”
图20
A :请检查服务器客户机的登陆用户是否属于Simatic HMI用户组
Q :打开服务器文件夹提示没有相应访问权限
图21
A :当前登录用户没有权限访问这个文件夹,检查这个文件夹的共享权限和安全权限,保证当前的登陆用户能够访问这个文件夹。
Q :客户端打开服务器项目提示“Server is not available”
A :打开“Workstation Configuration”设置成“Multi-user system”
Q :错误消息“Not enough server memory available for this command"
A :IRPStackSize ,操作系统所使用的 I/O 请求数据包 (IRP) 中堆栈数目太少所造成的,一般来讲是在安装防火墙后,在启动WinCC 项目的时候有可能出现,可以修改注册表来人为的增大堆栈数目
Q :客户机定义了启动画面(服务器端),但是启动项目提示找不到起始画面?
A :1 检查此时WinCC 图形编辑器中的画面是否存在,如果编辑器中的画面也丢失,有可能是病毒关闭了此用户的共享权限,建议查杀病毒,重新生成服务器数据包。
2 检查服务器和客户机的用户是否设置了密码,如果没有,添加相同的密码。
(1)方案一(数据库保存所有服务器索引信息)
全对称结构,没有中央服务器
web方案:
只从本地数据库检索符合条件的记录,给出结果
每次检索都要从本地服务器的海量数据中进行
数据库方案:
数据库保存所有服务器的索引内容
缓存命中率高的记录,减少检索时间
服务器负载分析:
服务器负载假设:
一百个结点,每结点一百人同时使用,每个结点一万条记录
web服务器:同时一百线程在本地数据库服务器检索
数据库服务器:每次接收一百个查询请求;每个请求要从一百万条索引中检索(最坏的情况);缓冲机制可以稍微减轻负担
数据更新操作:
同时更新所有数据库/只更新本地,服务器间相互同步
方案二(数据库保存本地索引及少量缓冲)
每高校作为一个结点
所有结点全对称结构,网络中没有一个中央服务器
web方案:
接收到请求时同时多线程向其它服务器同时搜索(服务器压力问题?)
数据库方案:
数据库保存本地数据
数据库保存一定量缓冲数据,
服务器负载分析:
服务器负载假设:
一百个结点,每结点一百人同时使用
则每个web服务器同时发起一万个线程向其它数据服务器搜索(oops!)
每个数据库服务器会同时接收到一万个查询请求(oops!)
采用学习过程只能少量减少查询请求和web服务器搜索线程
数据更新操作:
只更新本地
方案三(中央服务器方案一)
每高校一个结点
每结点结构相同,连接到同一个中央服务器
web方案
每个查询向中央服务器进行,由中央服务器实行检索,中央服务器返回检索结果
数据库方案
中央数据库保存所有索引信息
每结点可以只用小型数据库保存本地用户和其它信息即可
服务器负载分析:
服务器负载假设:
一百个结点,每结点一百人同时使用,每结点资料记录一万条
web服务器:同时发起一百个进程向中央数据库查询
数据库服务器(中央):同时接收一万条查询请求并返回大容量结果
数据库服务器(结点):少量工作
数据更新操作:
只更新中央服务器
方案四(中央服务器方案二)
每高校一个结点
每结点结构相同,连接到同一中央服务器
web方案:
每个查询向中央服务器进行,由中央服务器根据查询内容进行转发到结点数据库,再由结点数据库返回结果
数据库方案:
中央服务器保存各结点分类信息,根据页面请求的分类转发查询到相应服务器
服务器负载分析:
服务器负载假设:
一百个结点,每结点一百人同时使用,每结点资料记录一万条,每结点一百个类别
web服务器:同时一百个进程向中央数据库查询
数据库服务器(中央):同时接收一万条请求并转发
数据库服务器(结点):从中央服务器接收查询请求,最坏情况下每结点接收到一万条查询请求
数据更新操作:
只更新本地服务器
分类变化时更新中央服务器
这样可以么?
0条评论