服务器系统年停机时间为8.5小时,系统可用性可以达到( )。
答案:B
如果系统可用性达到99.9%,那么每年停机时间≤8.8小时;系统高可用性达到99.99%,那么每年的停机时间小于等于53分钟;系统高可用性达到99.999%,那么每年的停机时间小于等于5分钟。也可以利用如下公式进行计算:(365×24-8.5)/(365×24)=99.903%
如何检测公开代理的可用性?
如何检测公开代理的可用性?
公开代理是一种供用户免费使用的代理服务器,可以帮助用户隐藏其真实IP地址,在浏览网站、下载文件等方面提供帮助。然而,由于使用公开代理可能存在安全隐患,用户使用前要先对其可用性进行检测,避免将自己的数据暴露在公开网络中。
以下是几种检测公开代理可用性的方法:
1使用在线代理检测工具
一些在线代理检测工具可以通过测试公开代理的响应速度、服务器位置等指标,来评估其可用性。此方法适用性较广,操作简单,但需要注意选择可靠的在线工具,确保其数据来源完整、准确。
2使用网络爬虫工具
建立一个网络爬虫,针对公开代理的网站进行爬取,并通过爬虫程序去检测代理服务器的可用性,如果检测到某些代理IP地址不再可用,那么这些IP地址被排除在代理池之外。
3手工测试
手工测试最为常用,通过设置代理服务器地址,并连接到目标网站,判断代理服务器是否可用。但要注意,手动测试会耗费时间和精力,而只能对部分代理服务器进行测试,有效性略微不足。
总之,检测公开代理可用性是确保自身安全和数据安全的重要步骤。通过今天的介绍,您有了一些实际方法来帮助您检测公开代理的可用性,并将更安全地在网络环境中进行活动。
可用性是评价互联网平台表现最重要的因素之一。硬件故障、网络问题或者应用停止服务就等于平台损失收入。了解和掌握平台可用性的计算方法,会有利于业务和技术主管在衡量研发、测试和运维团队的工作业绩标准上达成一致。而对客户而言,当他们需要平台的服务时,没有比可用性更重要的度量指标了。
企业中的每个人都应该把可用性作为个人目标的一部分。技术团队的每个成员都应该知道每个服务中断对可用性的影响。对于服务中断,人们应该互相质问并且共同努力确保这些问题尽可能少发生。作为公司的部分目标,可用性影响着员工的工资、奖金和晋升等等,因此他们有巨大的动力去关心这个指标。
在讨论计算可用性的不同方法之前,我们需要确保对可用性的基本定义有共同的认识。用互联网的术语说, 可用性是指在一个特定的时间范围内,网站可用的时间长度,即用户可以使用该网站的时间除以总的时间 。
举个例子,如果测量某个平台一周的可用性,最多可用时间是 7 天 24 小时/天 60 分钟/小时 = 10080 分钟。如果网站在这一周内有 10010 分钟是可用的,那么可用性就是 10010 / 10080 = 09935 。可用性通常是以百分比表示,所以该平台本周的可用性是 9935% 。
计算可用性通常有以下几种方法:
对可用性最简单最直接的度量是硬件设备的正常运行时间。依靠SNMP陷阱,我们可以利用捕捉设备故障时间的监控工具,监控硬件基础设施的可用性,并跟踪记录网站硬件出问题的时间。不管要计算哪个时间范围的可用性,团队都可以通过查看监控日志,确定问题服务器的数量以及这些问题的持续时间。
有一个简单的方法可以计算总的停机时间,即
例如某个网络接入交换机失败,主机没有安排冗余双连,导致连接它的 12 个网络服务器有 15 小时无法连接,该网站有 120 个网络服务器,因此总的停机时间计算过程如下:
确定了停机时间就可以计算可用性。继续上述的例子,假设我们要度量这周的可用性,而这是本周唯一的中断事故,因此我们有 10080 – 9 = 10071分钟的正常运行时间。可用性是正常运行时间与总时间的百分比,也就是 10071/10080 = 9991% 。
如上所述,这是一个非常简单的计算可用性的方法。当然,网络服务器的表现不一定完全代表客户的体验。如果仅仅是因为服务器不可用,这并不意味着该网站对客户不可使用。事实上,如果网站的架构合理,单一硬件的故障可能不会对客户带来任何影响。
但是,这并不意味着我们可以忽略度量服务器和其他硬件的可用性。相反,设备可用性会影响到服务的可用性,服务本身的可用性是最重要的指标。可用性的最佳度量将直接关系到股东价值的最大化;反过来又可能对用户体验产生影响,进而影响公司的收入或成本。因此,使用设备或硬件可用性作为衡量系统健康状况的重要指标,还需要更复杂的以客户为中心的度量指标。
确定可用性的第二个方法是以客户做为“晴雨表”来评价网站的表现。这种度量的表现形式可以是客服中心接到的用户电话呼入数、电子邮件的数量或者在线论坛的帖子数。
通常,拥有完善客服中心的公司,对客户寻求支持的电话和电子邮件会进行实时跟踪。呼叫中心每天都会统计这些数据,密切留意接到了多少电话和电子邮件请求以及多大程度可以满足用户的呼叫服务请求。如果服务请求量突然出现了明显的尖峰,那通常应该是发生了故障。
那么如何把呼叫数量变成可用性度量呢?这里有很多方法可以选择,但都是不准确的。一个简单的方法是分别统计正常时间段的呼叫数量和服务中断期间的呼叫数量;这两个数值分别代表着 100% 的可用性和 0% 的可用性。呼叫的总数量减去正常的呼叫数量,从而得到网站服务中断而引发的呼叫数量,再将其转化为网站完全不可用的时间。
用公式表达为:
举个例子,假设我们通常每小时接到200个客户的电话。当网站彻底瘫痪时,通话量会达到每小时1000个。从上午9点开始,我们观察到每小时有400个通话发生,这种趋势一直持续到中午,然后下降到每小时150个。我们假设该网站在这段时间内出现了一些问题,这个怀疑最后得到了运维人员的证实。我们把从上午9点到中午的时间标记为一次宕机。宕机率计算过程如下:
虽然这个度量确实更加接近用户的真实体验,但也存在问题和不准确性。首先,问题出现时,客户不太可能马上打电话。大多数客服中心要求客户在电话线上等几分钟甚至更长的时间。许多消费者因为不愿意等而懒得打电话,所以可能只有反应最强烈的客户才会打。例如,在 eBay ,实际上受影响客户中只有大约 1% 至 5% 左右的人会打电话联系。该统计指标扭曲了实际情况,反应最强烈的客户,往往是那些最高级的用户。
这个测量指标的另外一个问题是,很多 Web20 和 SaaS 公司没有客户支持中心,他们很少有机会与客户直接接触,很难及时了解是否真正发生了问题,以及问题持续的时间和影响。
再有一个问题是,用户每天在不同时段呼入的情况变化很大。为了弥补这一因素,必须要有每小时的测量指标来做比较。
类似前面讨论过的硬件度量,客户接触率的度量是跟踪可用性的一个很好的指标,但是我们不能完全依赖它来进行可用性的评估。客户温度或者客户脉搏(无论你想怎么称呼),是观察客户群对新的网页布局、功能集成或付款模式如何反应的非常好的方式。这种反馈对确保产品经理专注于客户需求和听取客户意见是非常宝贵的。但是对真实可用性的测量,还需要一些更加复杂的方法。
测量可用性的第三种方法是监视网站上服务的可用性。如果网站有故障隔离泳道来保持服务的分离,这种测量会更加容易进行。你可以通过脚本来监控模拟用户执行某些任务的能力,如登录和运行报表等。该模拟用户就成为可用性的度量目标。
举个例子,我们想要监控登录、报表、支付、发布和注销五个服务,于是分别创建五个脚本,每五分钟运行一次。如果任何脚本失败,它就会通知预先定义好的联系人。服务恢复后,测试脚本会停止发送故障通知。通过这种方式,我们可以通过电子邮件准确地跟踪停机时间,以及哪些服务受到了影响。
上午 9 点 45 分,我们开始收到登录服务出现问题的电子邮件,11 点 15 分停止发送。这样就测量出登录服务出现 15 小时的停机时间。因为五个服务中有一个出现问题,所以计算总的停机时间的简单方法是把停机时间除以5,计算过程如下:
这个方法有一定的局限性和缺点,却是一个相当精确地测量对客户影响时间的方法。主要局限是该方法只限于有脚本监控的服务。如果不创建脚本或者不能准确地模拟真实的用户,监控就不那么有效了。因此我们不可能监控每个服务,但是应该要覆盖主要的服务。
另外一个局限性是,并不是所有的用户都均等使用所有的服务。例如,只有新用户使用注册流程,所有存量用户都使用登录流程。每个业务的权重都不一样。我们可以按每个业务的重要性或者使用量添加权重,以便更准确地计算出每个业务可用性对客户的影响。
最后,这种方法还有一个局限性就是如果你从网络内部进行应用监控,监控不一定会受到与客户相同的影响,尤其是当故障是由网络服务提供商造成的。话说回来,尽管这种方法在监控网站可用性时有一定的局限性,但是它确实提供了很好的以客户为中心的可用性测量。
第四种确定可用性的测量方法是使用第三方监控服务。这种方法和第三种方法非常相似,但却克服了在内部网络监控的限制,并且还有可能包括更复杂的脚本,以模拟更真实的用户体验。它们主要的概念基本相同:配置要监控的服务,当出现问题时,向第三方服务报警联系人发出警报。
目前,市场上有很多厂商提供这种监控服务,包括 Keynote、Gomez 和 Montastic 等。有些服务是免费的,有些则是相当昂贵的,取决于需要监控的应用的复杂性和多样性。例如,一些优质的监控服务,其监控从许多不同的网络上发起,同时有能力从计算机上模拟用户,这几乎是真实的用户体验。
使用第三方监控服务的关键是首先要确定监控要求,包括应用或服务的动态性,需要在多少个不同的地理位置上监控,这种监控的难度多大等。有些厂商能够从几乎任何地区的互联网提供全球性的监控服务;一些供应商能提供对动态网页的特殊监控;其他的可以学习什么是正常的行为,在不需要预先设置阈值的情况下,根据统计学的规律提供动态的警报。
最后一种监控方法是根据业务流量图计算可用性,也是我们的首选方法。因为它采用对业务更有意义的收入来表达平台可用性。它需要用关键表现指标,如实时收入,来确定可用性对业务的影响。要做到这一点,我们必须为每个与企业经营业绩密切相关的关键指标(KPI)安排好监控。然后,当发生服务中断时,可以把正常的一天与服务中断那天做对比,以确定影响的程度。具体方式是计算业务流量图之间的面积之差,这部分代表着服务中断时间。
实线是正常一天的收入变化曲线(这里的收入是 KPI 监控的),虚线是交通中断那天的收入变化曲线。业务中断从大约下午 4 点开始,并持续到 6 点 40 分网站完全恢复。这段时间两条曲线之间的面积占比可以用来作为对可用性的影响。
正如你所看到的,可用性的计算并不那么直接了当,可能会比较复杂。本文的目的不是要讨论哪种方法是正确的,而是要给出几种选择,让大家从中选择一种或综合几种为自己的组织找出最佳的整体可用性度量。绝不应该低估在测量可用性方法上取得共识的重要性,因为它对技术团队和个人目标度量密切相关。非常有必要花些时间,制订出最准确的度量,使之成为权威的可用性指标。
对于一台服务器而言,一个非常重要的方面就是它的“可用性”,即所选服务器能满足长期稳定工作的要求,不能经常出问题。其实就等同于Sun所提出的可靠性(Reliability)。
因为服务器所面对的是整个网络的用户,而不是单个用户,在大中型企业中,通常要求服务器是永不中断的。在一些特殊应用领域,即使没有用户使用,有些服务器也得不间断地工作,因为它必须持续地为用户提供连接服务,而不管是在上班,还是下班,也不管是工作日,还是休息、节假日。这就是要求服务器必须具备极高的稳定性的根本原因。
一般来说专门的服务器都要7X24小时不间断地工作,特别像一些大型的网络服务器,如大公司所用服务器、网站服务器,以及提供公众服务iqdeWEB服务器等更是如此。对于这些服务器来说,也许真正工作开机的次数只有一次,那就是它刚买回全面安装配置好后投入正式使用的那一次,此后,它不间断地工作,一直到彻底报废。如果动不动就出毛病,则网络不可能保持长久正常运作。为了确保服务器具有高得“可用性”,除了要求各配件质量过关外,还可采取必要的技术和配置措施,如硬件冗余、在线诊断等。
如需了解更多,请访问蛙云官网wayuncn
专业领域十余载,倾情奉献
一次沟通,终生陪伴
服务器选购策略
选择一款合适的服务器来满足用户的需要,需要对服务器使用有一个正确的理解。在进行服务器选配时,应根据以下3个方面来考虑。
1网络环境及应用软件
是指整个系统主要做什么应用。具体来说就是服务器支持的用户数量、用户类型、处理的数据量等方面内容。不同的应用软件工作机理不同,对服务器选配的要求区别很大,常见的应用可以分为文件服务、Web服务、一般应用和数据库等。
2可用性
服务器是整个网络的核心,不但在性能上能够满足网络应用需求,而且还要具有不间断地向网络客户提供服务的能力。实际上,服务器的可靠运行是整个系统稳定发挥功能的基础。
3服务器选配
服务器类型,如低端、中端和高端的分类,只是确定了服务器所能支持的最大用户数。但要用好服务器,还需要优化配置,用最小的代价获得最佳的性能。
服务器选择的多样性
目前中小企业在选购服务器时,通常在高档商用PC、伪服务器以及低档服务器三种产品之间选择。下面分别对这三种服务器作一简单分析。
1高档商用PC
PC工作在单用户和单线程环境中,与服务器的多用户环境有显著的不同。PC在设计时采用不同部件选型、配置的策略,如增强的显示性能、相对较差的网络子系统等。高档PC的目标是进军低档工作站市场。
2伪服务器
最差劲的是用PC的处理器芯片、服务器的名来充当服务器,稍微好一些的服务器采用部分服务器技术,如专业电源等。
3低档服务器
通常兼顾性能、可扩展性、可用性和可管理性等多个性能指标,兼容多种操作系统以支持多种网络环境。此种产品的缺点(也是辨别方法)是:体积大(通常外形不够美观)、噪音大(散热风扇多)、功率大。
服务器选配方法
国内市场上,服务器厂商多达十几个,低档服务器更有几十款之多。下面结合至翔899来谈谈服务器配置问题。
1磁盘子系统
上面已经提过磁盘的故障概率及危害,不如直接配置双硬盘做RAID-1,因为现在硬盘的价格已降到了冰点,既提高了磁盘读取数据的性能,又保护了数据,可使用户高枕无忧。令Linux用户放心的是,至翔899的IDE RAID支持Linux。
2内存
在小型用户环境中,内存通常得不到重视,用户往往花费更多的时间关注CPU的性能。由于Windows 2000就要消耗100MB以上的内存,再加上应用,所以系统最少应配置256MB内存,配置到1GB也不为过。请牢牢记住,提高内存容量通常是提高服务器性能的最有效的方法。
3CPU
通常不会成为系统瓶颈。但对于需要CPU进行密集型的运算,如数据库类应用,CPU的作用就很巨大。记住:如果再增加一颗CPU,内存容量要同时加倍,才能有效发挥CPU的性能。
4网卡
低端应用环境中,100Mbps网卡足够了。至翔899的网卡还支持网络冗余(ALB)功能。有兴趣的用户可以另买一款同型号的Intel 82559网卡进行网卡绑定,既提高网络子系统的吞吐量,又保证了线路冗余。
为了满足网络应用不断增长的性能需要,我们通常增加新服务器个数,分担业务,提高系统工作性能,即横向扩展。其实也可以通过提高现有服务器的配置来提高服务器的整体性能,即纵向扩展——因为服务器部件的选配对服务器的性能至关重要。而直接存储数据的硬盘更是影响服务器服务性能的重要一环。
提高服务器性能的方法就是寻找制约服务器性能的瓶颈在哪。不同应用可能存在的瓶颈是不同的,有的要重点考虑处理器、内存,有的要重点考虑硬盘或网络的I/O吞吐能力;那么,在哪些应用环境下需要重点考虑服务器硬盘瓶颈呢
通讯服务器(messaging/E-mail/VOD):快速的I/O是这类应用的关键,硬盘的I/O吞吐能力是主要瓶颈;
数据仓库(联机事务处理/数据挖掘):大型商业数据存储、编目、索引、数据分析,高速商业计算等,需要具有良好的网络和硬盘I/O吞吐能力;
数据库(ERP/OLTP等):服务器运行数据库,需要具有强大的CPU处理能力,大的内存容量来缓存数据,同时需要有很好的I/O吞吐性能;
其他应用:应用集中在数据查询和网络交流中,需要频繁读写硬盘,这时硬盘的性能将直接影响服务器整体的性能。
影响硬盘的因素
谈到硬盘的指标参数,首先就应提到硬盘的接口标准。当今主流硬盘的接口界面有两种:EIDE和SCSI,当然此外还有IEEE 1394接口、USB接口和FC-AL(FibreChannel-Arbitrated Loop)光纤通道接口的产品,但是很少见。现在几乎所有的微机普遍采用基于Ultra DMA/33/66/100标准的IDE接口的硬盘,它的优势在于能提供较低价格,普及率很高。
同时,也有部分低端服务器采用了IDE硬盘,目前,几乎所有服务器主板都集成了IDE控制器,但在中高端服务器中还只是普遍用来连接低速外设IDE光驱,而硬盘一般采用SCSI接口标准,如浪潮英信服务器就普遍采用了Ultra160 SCSI硬盘,提供更高的硬盘吞吐能力。SCSI接口硬盘有着极低的CPU占用率、支持更多的设备和在多任务下工作的优势明显等优点,更适合于服务器应用的需求,当然SCSI硬盘价格要高得多。
然而,硬盘的数据传输系统之瓶颈不在于PCI总线或是接口速率上,而在硬盘本身,这是由硬盘机械部分与结构设计等诸多因素造成的。
衡量硬盘的指标
衡量硬盘性能的指标主要包括:
主轴转速
主轴转速是一个在硬盘的所有指标中除了容量之外,最应该引人注目的性能参数,也是决定硬盘内部传输速度和持续传输速度的第一决定因素。如今硬盘的转速多为5400rpm、7200rpm、10000rpm和15000rpm。从目前的情况来看,10000rpm的SCSI硬盘具有性价比高的优势,是目前硬盘的主流,而7200rpm及其以下级别的硬盘在逐步淡出硬盘市场。
内部传输率
内部传输率的高低才是评价一个硬盘整体性能的决定性因素。硬盘数据传输率分为内外部传输率;通常称外部传输率也为突发数据传输率(Burstdata Transfer Rate)或接口传输率,指从硬盘的缓存中向外输出数据的速度,目前采用Ultra 160 SCSI技术的外部传输率已经达到了160MB/s;内部传输率也称最大或最小持续传输率(Sustained Transfer Rate),是指硬盘在盘片上读写数据的速度,现在的主流硬盘大多在30MB/s到60MB/s之间。由于硬盘的内部传输率要小于外部传输率,所以只有内部传输率才可以作为衡量硬盘性能的真正标准。
单碟容量
除了对于容量增长的贡献之外,单碟容量的另一个重要意义在于提升硬盘的数据传输速度。单碟容量的提高得益于磁道数的增加和磁道内线性磁密度的增加。磁道数的增加对于减少磁头的寻道时间大有好处,因为磁片的半径是固定的,磁道数的增加意味着磁道间距离的缩短,而磁头从一个磁道转移到另一个磁道所需的就位时间就会缩短。这将有助于随机数据传输速度的提高。而磁道内线性磁密度的增长则和硬盘的持续数据传输速度有着直接的联系。磁道内线性密度的增加使得每个磁道内可以存储更多的数据,从而在碟片的每个圆周运动中有更多的数据被从磁头读至硬盘的缓冲区里。
平均寻道时间
平均寻道时间是指磁头移动到数据所在磁道需要的时间,这是衡量硬盘机械性能的重要指标,一般在3ms~13ms之间,建议平均寻道时间大于8ms的SCSI硬盘不要考虑。平均寻道时间和平均潜伏时间(完全由转速决定)一起决定了硬盘磁头找到数据所在的簇的时间。该时间直接影响着硬盘的随机数据传输速度。
缓存
提高硬盘高速缓存的容量也是一条提高硬盘整体性能的捷径。因为硬盘的内部数据传输速度和外部传输速度不同。因此需要缓存来做一个速度适配器。缓存的大小对于硬盘的持续数据传输速度有着极大的影响。它的容量有512KB、2MB、4MB,甚至8MB或16MB,对于视频捕捉、影像编辑等要求大量磁盘输入/输出的工作,大的硬盘缓存是非常理想的选择。
知道了服务器硬盘的性能指标,下一步自然要依此选择出适合具体应用的服务器硬盘,以提高系统的工作性能。
选用高性能硬盘
由于SCSI具有CPU占用率低,多任务并发操作效率高,连接设备多,连接距离长等优点,对于大多数的服务器应用,建议采用SCSI硬盘,并采用最新的Ultra160 SCSI控制器;对于低端的小型服务器应用,可以采用最新的IDE硬盘和控制器。确定了硬盘的接口和类型后,就要重点考察上面提到的影响硬盘性能的技术指标,根据转速、单碟容量、平均寻道时间、缓存等因素,并结合资金预算,选定性价比最合适的硬盘方案。
RAID技术
冗余磁盘阵列RAID系统提供了比通常的磁盘存储更高的性能指标、数据完整性和数据可用性,尤其是在当今面临的硬盘I/O总是滞后于CPU性能的瓶颈问题越来越突出的情况下,RAID解决方案能够有效地弥补这个缺口。
依据磁盘阵列数据不同的校验方式, RAID技术分为不同的等级(RAID Levels),各有不同的技术特点,读者可以参考有关手册进行选用。
为了更好地提高硬盘的I/O性能,推荐采用RAID技术,根据应用的特点,把被频繁访问读写的硬盘做成RAID0或RAID1、RAID5;目前,在低端服务器可采用IDE RAID,如浪潮英信NP200;而在中高端服务器,建议采用SCSI RAID控制器,并注意RAID控制器有关技术指标,如CPU类型、通道类型和数目、缓存数量、有无电池后备等;需要注意的是:主板集成的RAID控制器由于本身没有硬盘控制器,而占用了主板上的SCSI硬盘控制器,需要耗费更多的主处理器时间,会使服务器的处理能力受到影响。
热拔插技术
除了从性能指标上评价硬盘,还要考虑到硬盘的故障率、平均无故障运行情况和易维护性。在具体的应用中,首先应选用寿命长、故障率低的硬盘,可降低故障出现的几率和次数,这牵扯到硬盘的MTBF(平均无故障时间)和数据保护技术,MTBF值越大越好,如浪潮英信服务器采用的硬盘的MTBF值一般超过120万小时,而硬盘所共有的SMART(自监测、分析、报告技术)以及类似技术,如seagate和IBM的DST(驱动器自我检测)和DFT(驱动器健康检测),对于保存在硬盘中数据的安全性有着重要意义。
另外,一旦硬盘损坏,应考虑如何保证数据不丢失,并且减少服务器的宕机时间。 RAID技术可以用来保证数据的可靠性和安全性,通过硬盘的热拔插技术可以保证在更换或维修硬盘的同时,服务器仍然能正常运行可用。目前热拔插技术在中高档服务器中非常普遍,一直也被作为服务器档次的一个重要标志。一般在服务器中采用的热拔插技术的部件有硬盘、电源、风扇、PCI插槽等,而SCSI硬盘也有专门支持热拔插技术的SCA2接口(80-pin),与SCSI背板配合使用,就可以
0条评论