服务器是什么东西?
服务器是什么意思_
中文名称:服务器 英文名称:server 定义:局域网中,一种运行管理软件以控制对网络或网络资源(磁盘驱动器、打印机等)进行访问的计算机,并能够为在网络上的计算机提供资源使其犹如工作站那样地进行操作。 应用学科:资源科技(一级学科);资源信息学(二级学科)
百科名片
服务器指一个管理资源并为用户提供服务的计算机软件,通常分为文件服务器、数据库服务器和应用程序服务器。运行以上软件的计算机或计算机系统
按照体系架构来区分 目前,按照体系架构来区分,服务器主要分为两类:
非x86服务器
非x86服务器:包括大型机、小型机和UNIX服务器,它们是使用RISC(精简指令集)或EPIC(并行指令代码)处理器,并且主要采用UNIX和其它专用操作系统的服务器,精简指令集处理器主要有IBM公司的POWER和PowerPC处理器,SUN与富士通公司合作研发的SPARC处理器、EPIC处理器主要是Intel研发的安腾处理器等。这种服务器价格昂贵,体系封闭,但是稳定性好,性能强,主要用在金融、电信等大型企业的核心系统中。
x86服务器
服务器
x86服务器:又称CISC(复杂指令集)架构服务器,即通常所讲的PC服务器,它是基于PC机体系结构,使用Intel或其它兼容x86指令集的处理器芯片和Windows操作系统的服务器。价格便宜、兼容性好、稳定性差、不安全,主要用在中小企业和非关键业务中。
网络上所说的服务器是什么意思
服务器是计算机的一种,它是网络上一种为客户端计算机提供各种服务的高性能的计算机,它在网络操作系统的控制下,将与其相连的硬盘、磁带、打印机、Modem及各种专用通讯设备提供给网络上的客户站点共享,也能为常络用户提供集中计算、信息发表及数据管理等服务。它的高性能主要体现在高速度的运算能力、长时间的可靠运行、强大的外部数据吞吐能力等方面。
目前,按照体系架构来区分,服务器主要分为两类:ISC(精简指令集)架构服务器:这是使用RISC芯片并且主要采用UNIX操作系统的服务器,如Sun公司的SPARC、HP公司的PA-RISC、DEC的Alpha芯片、SGI公司的MIPS等。
IA架构服务器:又称CISC(复杂指令集)架构服务器,即通常所讲的PC服务器,它是基于PC机体系结构,使用Intel或与其兼容的处理器芯片的服务器,如联想的万全系列、HP的Netserver系列服务器等。
从当前的网络发展状况看,以“小、巧、稳”为特点的IA架构的PC服务器得到了更为广泛的应用
WEB服务器 是什么意思啊
通俗的讲,Web服务器传送(serves)页面使浏览器可以浏览,然而应用程序服务器提供的是客户端应用程序可以调用(call)的方法(methods)。确切一点,你可以说:Web服务器专门处理HTTP请求(request),但是应用程序服务器是通过很多协议来为应用程序提供(serves)商业逻辑(business logic)。
下面让我们来细细道来:
Web服务器(Web Server)
Web服务器可以解析(handles)HTTP协议。当Web服务器接收到一个HTTP请求(request),会返回一个HTTP响应(response),例如送回一个HTML页面。为了处理一个请求(request),Web服务器可以响应(response)一个静态页面或,进行页面跳转(redirect),或者把动态响应(dynamic response)的产生委托(delegate)给一些其它的程序例如CGI脚本,JSP(JavaServer Pages)脚本,servlets,ASP(Active Server Pages)脚本,服务器端(server-side)JavaScript,或者一些其它的服务器端(server-side)技术。无论它们(译者注:脚本)的目的如何,这些服务器端(server-side)的程序通常产生一个HTML的响应(response)来让浏览器可以浏览。
要知道,Web服务器的代理模型(delegation model)非常简单。当一个请求(request)被送到Web服务器里来时,它只单纯的把请求(request)传递给可以很好的处理请求(request)的程序(译者注:服务器端脚本)。Web服务器仅仅提供一个可以执行服务器端(server-side)程序和返回(程序所产生的)响应(response)的环境,而不会超出职能范围。服务器端(server-side)程序通常具有事务处理(transaction processing),数据库连接(database connectivity)和消息(messaging)等功能。
虽然Web服务器不支持事务处理或数据库连接池,但它可以配置(employ)各种策略(strategies)来实现容错性(fault tolerance)和可扩展性(scalability),例如负载平衡(load balancing),缓冲(caching)。集群特征(clustering—features)经常被误认为仅仅是应用程序服务器专有的特征。
应用程序服务器(The Application Server)
根据我们的定义,作为应用程序服务器,它通过各种协议,可以包括HTTP,把商业逻辑暴露给(expose)客户端应用程序。Web服务器主要是处理向浏览器发送HTML以供浏览,而应用程序服务器提供访问商业逻辑的途径以供客户端应用程序使用。应用程序使用此商业逻辑就象你调用对象的一个方法(或过程语言中的一个函数)一样。
应用程序服务器的客户端(包含有图形用户界面(GUI)的)可能会运行在一台PC、一个Web服务器或者甚至是其它的应用程序服务器上。在应用程序服务器与其客户端之间来回穿梭(traveling)的信息不仅仅局限于简单的显示标记。相反,这种信息就是程序逻辑(program logic)。 正是由于这种逻辑取得了(takes)数据和方法调用(calls)的形式而不是静态HTML,所以客户端才可以随心所欲的使用这种被暴露的商业逻辑。
在大多数情形下,应用程序服务器是通过组件>>
服务器到底是什么东西
是的。
但它的硬件会与一般的PC有区别。主要是为了提供稳定的,不间断的某一种服务。
现在常见的服务器角色有:
文件
打印
应用程序
邮件
终端
ADDNS
DHCP
流式媒体
WINS 这些。
服务器是什么东西,干什么用的,能不能详细说明一下大神们帮帮忙
科技名词定义 中文名称: 服务器 英文名称: server 定义: 局域网中,一种运行管理软件以控制对网络或网络资源(磁盘驱动器、打印机等)进行访问的计算机,并能够为在网络上的计算机提供资源使其犹如工作站那样地进行操作。 [编辑本段]服务器定义 从广义上讲,服务器是指网络中能对其它机器提供某些服务的计算机系统,软件或 服务器者设备(如果一个PC对外提供ftp服务,也可以叫服务器)。打印服务器就是专门为网络上共享打印机而提供的设备,文件服务器是专门为共享文件而提供的一台PC机,数据库服务器就是专门共享数据库而提供的。DNS(域名服务器)就是负责把互联网址翻译成IP地址,这也是一种服务。我们发送电子邮件靠的就是邮件服务器。 从狭义上来讲,服务器是专指某些高性能计算机,安装不同的服务软件,能够通过网络,对外提供服务。 服务器解析 服务器作为网络的节点,存储、处理网络上80%的数据、信息,因此也被称为网络的灵魂。做一个形象的比喻:服务器就像是邮局的交换机,而微机、笔记本、PDA、手机等固定或移动的网络终端,就如散落在家庭、各种办公场所、公共场所等处的电话机。我们与外界日常的生活、工作中的电话交流、沟通,必须经过交换机,才能到达目标电话;同样如此,网络终端设备如家庭、企业中的微机上网,获取资讯,与外界沟通、娱乐等,也必须经过服务器,因此也可以说是服务器在“组织”和“领导”这些设备。 它是网络上一种为客户端计算机提供各种服务的高可用性计算机,它在网络操作系统的控制下,将与其相连的硬盘、磁带、打印机、Modem及各种专用通讯设备提供给网络上的客户站点共享,也能为网络用户提供集中计算、信息发表及数据管理等服务。它的高性能主要体现在高速度的运算能力、长时间的可靠运行、强大的外部数据吞吐能力等方面。 服务器服务器的构成与微机基本相似,有处理器、硬盘、内存、系统总线等,它们是针对具体的网络应用特别制定的,因而服务器与微机在处理能力、稳定性、可靠性、安全性、可扩展性、可管理性等方面存在差异很大。尤其是随着信息技术的进步,网络的作用越来越明显,对自己信息系统的数据处理能力、安全性等的要求也越来越高,如果您在进行电子商务的过程中被黑客窃走密码、损失关键商业数据;如果您在自动取款机上不能正常的存取,您应该考虑在这些设备系统的幕后指挥者————服务器,而不是埋怨工作人员的素质和其他客观条件的限制。 [编辑本段]服务器分类按照体系架构来区分 目前,按照体系架构来区分,服务器主要分为两类: 非x86服务器:包括大型机、小型机和UNIX服务器,它们是使用RISC(精简指令集)或EPIC(并行指令代码)处理器,并且主要采用UNIX和其它专用操作系统的服务器,精简指令集处理器主要有IBM公司的POWER和PowerPC处理器,SUN与富士通公司合作研发的SPARC处理器、EPIC处理器主要是HP与Intel合作研发的安腾处理器等。这种服务器价格昂贵,体系封闭,但是稳定性好,性能强,主要用在金融、电信等大型企业的核心系统中。 服务器x86服务器:又称CISC(复杂指令集)架构服务器,即通常所讲的PC服务器,它是基于PC机体系结构,使用Intel或其它兼容x86指令集的处理器芯片和Windows操作系统的服务器,如IBM的System x系列服务器、HP的Proliant 系列服务器等。 价格便宜、兼容性好、稳定性差、不安全,主要用在中小企业和非关键业务中。 从当前的网络发展状况看,以“小、巧、稳”为特点的x86架构的PC服务器得到了更为广泛的应用。 从理论定义来看,服务器是网络环境中>>
物理主机、物理服务器是什么意思
物理主机、物理服务器是相对于虚拟主机和虚拟服务器而言的。目前比较知名的虚拟化系统有vmware 和微软的 Hy弗er-V
望采纳~~
服务器异常是什么意思
服务器异常有以下情况引起,如网络故障、数据错误、宕机、升级等,不过一般很快就能恢复,你稍后试试即可!
服务器地址是什么意思
pptp是点对点隧道协议。
服务器地址可以是网址或ip地址。
DNS服务器是什么东西?
DNS:是做域名解析的。我们平时所输入的网址,都是某台服务器的主机名,比如BAIDUCO工,主机之间通讯是通过IP地址访问的,这个是有需要某个机制,把地址解析成名字,因为IP地址是一串数字,难以记忆,而名字却很好记,这个就是DNS所要完成的,就好像,身份证上面的号码是IP,而名字就是主机名一样。
比如,你要访问BAIDU,从你输入网址开始,到网页打开,整个的过程如下:(一切所需的IP地址都是正确的)
1 你的请求通过你设置的网关地址(网关地址就是路由器内网IP地址)发到公网的DNS服务器(这个DNS服务器是在你网卡设置中设置的)。
2 DNS服务器收到请求之后,查找自己的数据库,寻找你所输入的BAIDU这台服务器的地址是什么,找到之后,再把找到的IP地址告诉你这个客户端。
3 客户端收到了DNS服务器的回应,获得了BAIDU这台主机的IP地址,然后再向这个IP地址发出请求,当然,也是通过网关出去,最终,你将打开BAIDU这个网页。
这所以出现你的这个提示,应该是你的网卡设置上没有设置DNS造成的,或者DNS设置失败。
你最好先电话咨询一下你们当地的运营商,问问DNS的IP地址是多少,然后再在网卡里设置一下。
在你的主机上,右键点击网上邻居--属性,再右键点击他的网卡(一般都是一个叫本地连接的图标),再选属性,出现一个窗口,在“此连接使用下列项目”的下面选择“internet协议(TCP/IP),双击这个选项,你会看到一个设置IP地址的对话框。里面有“使用下列DNS服务器”,在这里填写你被告知的DNS地址就可以了
电脑服务器是什么东西
电脑服务器是一种高性能计算机,作为网络的节点,存储、处理网络上80%的数据、信息,因此也被称为网络的灵魂。做一个形象的比喻:电脑服务器就像是邮局的交换机,而微机、笔记本、PDA、手机等固定或移动的网络终端,就如散落在家庭、各种办公场所、公共场所等处的电话机。我们与外界日常的生活、工作中的电话交流、沟通,必须经过交换机,才能到达目标电话;同样如此,网络终端设备如家庭、企业中的微机上网,获取资讯,与外界沟通棱娱乐等,也必须经过电脑服务器,因此也可以说是电脑服务器在“组织”和“领导”这些设备。
电脑服务器的构成与微机基本相似,有处理器、硬盘、内存、系统总线等,它们是针对具体的网络应用特别制定的,因而电脑服务器与微机在处理能力、稳定性、可靠性、安全性、可扩展性、可管理性等方面存在差异很大。尤其是随着信息技术的进步,网络的作用越来越明显,对自己信息系统的数据处理能力、安全性等的要求也越来越高,如果您在进行电子商务的过程中被黑客窃走密码、损失关键商业数据;如果您在自动取款机上不能正常的存取,您应该考虑在这些设备系统的幕后指挥者————电脑服务器,而不是埋怨工作人员的素质和其他客观条件的限制。
微软早已宣布Windows将作为一项服务,而且在现有的技术预览版中也特别针对这一点做出了不少改进。微软在芝加哥的Ignite2015会议上首次公布了WindowsUpdateforBusiness计划,主要针对企业内的终端设备而设定特别的机制,力求比标准的Windows10更新更容易、更安全且管理成本更低。当然,这只是为企业的更新计划,那么我们一般用户的Windows10设备,又该如何更新呢?
WindowsUpdate将定期和持续提供Windows的创新功能:
虽然微软还未公布未来Windows10在PC、平板电脑和智能手机上的更新细节,但我们从WindowsUpdateforBusiness也能顺藤摸瓜,摸出一些蛛丝马迹。首先,安全、补丁更新和系统改进,微软将尽快推送给设备。这意味着,微软加快了Windows的更新节奏,一些特定的功能不必等待数月就会推送给用户。微软表示,一旦开发团队完成了最新功能和性能改进的升级,就会立即让每一个人得到全面更新体验。
微软称,今天有超过85亿的Windows设备通过WindowsUpdate更新系统,因此尽快完工并推送无疑是最重要的优先事项。微软还表示,每一个用户都应该保持WindowsUpdate开启,无论使用的是平板电脑、智能手机还是PC,因为这是获得新功能改进的主要途径。
微软表示“在Windows10上,除了基本的安全补丁之外,WindowsUpdate将定期和持续提供Windows的创新功能”。毋庸置疑,旧Windows时代的升级方式(每三年一大更)已经过时,新的升级节奏将使每一次更新都具备“脱胎换骨、更新换代”的味道。
企业可针对设备指定更新频率:
WindowsUpdateforBusiness允许企业针对设备指定更新频率,包括快速分支和稳定分支,还可以决定更新的关键时间范围,包括哪些设备应该或不应该提供更新。基本可以这么说,每一个使用Windows10操作系统的企业用户,都可以决定究竟是手机先更新,还是电脑先升级,升级顺序和时间可以任意决定。
微软还提供针对企业的维护工具,SystemCenter和EnterpriseMobilitySuite,目的就是为了方便IT维护任意决定升级节奏。对于一般用户,微软可能并不会这么做,并认为无论用户使用的是平板电脑、智能手机还是PC,大多数都希望更快的获得新功能改进。
P2P点对点对等网络传输更新方式:
微软Windows10中最大的改进之一,就是加入了“P2P点对点对等网络传输”的更新方式,暂时只针对企业客户所用。但这表明,未来可能任意一台Windows设备都可以作为提供更新升级的服务器,设定共享资源供网络中其他设备所使用,届时每一次PC上更新都无需连接到微软的官方服务器。
P2P更新的作用不小,无疑加快了同一网络中的Windows10设备安装更新的速度,毕竟传输速度大大提升,节省了下载带宽。同时,在一定程度上也减轻了微软服务器的压力,对于直接从微软服务器下载更新的用户,也起到了进一步加速的作用。
Windows未来的升级做法将发质变:
Windows10很可能是最后独立的Windows版本了,微软已经在多个公开场合表示,Windows未来的升级做法将发质变,微软尽快做好重要的大更新,用户无需再用数月或数年的时间等待全新新功能的Windows版本。换句话说,所有的新功能,重要、重大版本的更新,均会立即地、自动地、直接地推送到系统,而不需要完全重装,也无需等待每三年为一周期的主要Windows版本。
Windows作为一个服务很显然是微软新的发展方向,并且微软认为在未来几年内Windows就能成为这个星球上最大的互联网服务之一。微软在Ignite2015上甚至表示,时刻为用户保证最新、最安全的功能升级,这就是微软和谷歌的不同之处。
姓名:吕红霞;学号:20011210203;学院:通信工程学院
转自https://mpweixinqqcom/s/rULXlihPLhZCjnGhbMbCMg
嵌牛导读 本文讲解了多核心CPU和SoC芯片及其工作原理
嵌牛鼻子 多核CPU,进程,线程
嵌牛提问 现在的CPU或SoC基本都是在单芯片中集成多个CPU核心,形成通常所说的4核、8核或更多核的CPU或SoC芯片。为什么要采用这种方式?多个CPU 核心在一起是如何工作的?CPU核心越多就一定越好吗?
嵌牛正文
要说明什么是多核心CPU或SoC芯片,首先要从CPU核心(Core)说起。我们知道,CPU是中央处理器(Central Processing Unit)的英文简称,它具有控制和信息处理的能力,是电脑和智能设备的控制中枢。如果把传统CPU芯片中的封装和辅助电路(例如引脚的接口电路、电源电路和时钟电路等)排除在外,只保留完成控制和信息处理功能的核心电路,这部分电路就是 CPU核心 ,也简称CPU核。一个CPU核心基本上是一个完全独立的处理器,它可以从内部存储器中读取指令,并执行指令指定的控制和计算任务。
如果把 一个 CPU核心和相关辅助电路封装在一个芯片中,这个芯片就是传统的 单核心CPU芯片 ,简称单核CPU。如果把 多个 CPU核心和相关辅助电路封装在一个芯片中,这个芯片就是 多核心CPU芯片 ,简称多核CPU。当然,多核心CPU芯片会包含更多的辅助电路,以解决多个CPU核心之间的通信和协调问题。
如果在多核心CPU芯片中再集成一些其它功能部件和接口电路,就形成了完整的系统,那么这个芯片就变成了 多核心SoC芯片 了,简称多核SoC。在不严格区分的情况下,SoC也可以称为CPU。
发展多核心CPU的初心源于“人多力量大”的简单道理。从这个意义上来看,当初芯片集成度不高的时候,Inteli8086 CPU和i8087协处理器应该算是多核心CPU的雏形,是 多芯片协作形成了一个处理核心 ,需要采取许多技术来解决CPU和协处理器之间的合作、协作问题。
今天芯片的集成度很高,单芯片中集成几个甚至几十个CPU核心已不在话下,但还是不能满足超级计算的需要,需要在超级计算机中使用成千上万块高性能CPU芯片一起合作、协作,这可以看作 芯片内 多核心、 芯片外 多芯片的多核心CPU集群。
CPU芯片从外观上看是一块芯片,但打开封装来看,内部可能只有一块裸片(die),也可能是多块裸片封装在一起,称为 多芯片模组 (Multichip Module,简称 MCM ),如图2b所示。但从软件角度来看,封装形式无关紧要,无论是芯片内还是芯片外,CPU核心多少才是最重要的,它们决定着系统的并行运算和处理能力,它们的主频频率和核心之间通信方式决定了系统的处理速度。
另外,今天的桌面计算机CPU、手机SoC中还集成了许多图形处理器(GPU)核心、人工智能处理器(APU)核心等,这些是否也应该算作多核心CPU和SoC中的“核心”呢?我觉得从广义角度上应该算吧。
因此,要回顾多核心CPU的发展,大致可以分为 1 雏形期; 2 单芯片单核心; 3 单芯片多核心; 4 单核心多芯片; 5 多核心多芯片几种情形。这些发展阶段不一定按照这个前后顺序,可能有交叉时期,也可能有前后颠倒的情形。第2和第3种情形一般是应用在桌面计算机、智能手机等移动终端上的CPU芯片,第4和第5种是应用在服务器和超级计算机上的CPU芯片。本文限于篇幅和主题集中的需要,主要探讨第3种 单芯片多核心 的情况,这种情况下的CPU是 单芯片多处理器 (Chip Multi Processors,简称 CMP )模式。
1971 ~2004年,单核心CPU一路独行 。Intel公司1971年推出全球首款CPU芯片i4004,直到2004年推出超线程的Pentium 4 CPU系列,期间共33年时间。在这期间,CPU芯片很好地沿着摩尔定律预示的规律发展,沿着集成度不断翻倍、主频不断提升、晶体管数量快速增加的道路前进,这是一条单核心CPU不断迭代升级的发展之路。
但是,当晶体管数量大幅增加导致功耗急剧增长,CPU芯片发热让人难以接受,CPU芯片可靠性也受到很大影响的时候,单核心CPU发展似乎到了穷途末路。摩尔定律的提出者 戈登摩尔 也依稀觉得“尺寸不断缩小”、“主频为王”这条路子即将走到尽头。2005年4月他曾公开表示,引领芯片行业接近40年的摩尔定律将在10~20年内失效。
其实,早在上世纪90年代末,就有许多业界人士呼吁用CMP技术实现的多核心CPU替代单线程单核心CPU。IBM、惠普、Sun等高端服务器厂商,更是相继推出了多核心服务器CPU。但是,由于服务器CPU芯片价格太高、应用面较窄,并未引起大众广泛关注。
2005年初AMD抢先推出了64位CPU芯片,并率先Intel发表声明保证其64位CPU的稳定性和兼容性,Intel才想起了利用“多核心”这一武器进行“帝国反击战”。2005年4月,Intel仓促推出简单封装的2核心Pentium D和Pentium4至尊版840。之后不久,AMD也发布了双核心皓龙(Opteron)和速龙(Athlon)CPU芯片[9]。
2006 年被认为是多核心CPU的元年 。这年7月23日,Intel基于酷睿(Core)架构的CPU发布。11月,Intel又推出了面向服务器、工作站和高端PC机的至强(Xeon)5300和酷睿2双核心和4核心至尊版系列CPU。与上一代台式机CPU相比,酷睿2双核心CPU在性能方面提高40%,功耗反而降低40%。
作为对Intel的回应,7月24日,AMD宣布对双核Athlon64 X2处理器进行大降价。两大CPU巨头在宣传多核心CPU时,都会强调其节能效果。Intel发布的低电压版4核心至强CPU功耗仅为50瓦。而AMD的“Barcelona”4核心CPU的功耗也没超过95瓦。在Intel高级副总裁Pat Gelsinger看来,摩尔定律还是有生命力的,因为“CPU从单核心到双核心,再到多核心的发展,可能是摩尔定律问世以来,CPU芯片性能提升最快的时期” [9]。
CPU 技术发展要比软件技术发展更快 ,软件对多核心CPU的支持相对滞后。如果没有操作系统的支持,多核心CPU的性能提升优势不能发挥出来。同样运行Win7的情况下,4核心CPU和8核心CPU所带来的差异化体验并不明显,导致这种情况的原因是Win7根本没有对8核心CPU进行相应的优化。而在Win10出来后,8核心CPU所带来的体验速度就明显要比4核心处理器快很多,这源于微软在Win10上对多核心CPU的支持做了优化。而且微软还将在Win10上针对多核心CPU做进一步适配优化。
目前 核心最多的服务器CPU 有Intel至强铂金9282,56核心112线程,引线焊球多达5903个,估计售价约4万美元;AMD霄龙 7H12,64核心128线程,散热设计功耗280W。这两款CPU都需要采用液冷散热。 核心最多的台式机CPU 有Intel酷睿i97980XE至尊版,18核心36线程,散热设计功耗165W,售价1999美元;AMD的Ryzen9 5950X,16核心32线程,散热设计功耗105W,售价6049元。 核心最多的手机SoC 有Apple M1、麒麟9000、高通骁龙 888等。多核心CPU或者多核心SoC似乎成为一种潮流,但是不是核心越多CPU就越好呢?在不考虑其它因素影响,单从技术和集成度考虑的话,有人甚至预测到2050年,人们可能会用上1024个核心的CPU芯片。
我们先从任务处理的角度来看这个问题。如果把CPU处理的事情叫做任务的话,以前的CPU只有一个核心,CPU只会“一心一用”地处理一个任务,干完一件事再接着干下一件事。专业上称之为 串行单任务处理 。这在DOS操作系统的时代是合适的,这个时期对CPU的追求只有一条,那就是处理速度要尽可能地快。在Windows操作系统出现后,出现了多任务的处理需求,要求CPU可以“一心多用”,同时干多件事情。专业上称之为 分时多任务处理 。这个时期对CPU的追求 一是 处理速度要尽可能地快, 二是 同时可处理的任务尽可能地多。其实这种“一心多用”的处理方法是把时间分配给了多个任务,从宏观上看CPU处理的任务多了,但从某项任务来看CPU对该项任务的处理速度变慢了。
要实现CPU处理的任务更多、处理速度更快,人们自然想到了在芯片中集成多个CPU核心,采用“多心多用”的方式处理事务,因而就出现了多核心CPU的需求,而这种需求在服务器CPU应用方面显得尤为迫切。
我们再从提高CPU时钟频率,加快处理速度的角度来看这个问题。无论是“一心一用”、“一心多用”、还是“多心多用”,只要提高了CPU的时钟频率,CPU的处理速度都会加快。如论是单任务还是多任务,就会在更短时间完成任务。因此,CPU发展的历史就是随着芯片技术的进步,CPU的时钟频率不断提升的历史,从早期的MHz级别不断提升到目前的GHz级别,大约提升了1000倍左右。无论是单核心还是多核心,CPU时钟频率是人们选用CPU芯片的重要指标。
过去很长一段时间里,随着Intel和AMD CPU速度越来越快,x86操作系统上的软件的性能和速度自然会不断提高,系统整机厂家只要对现有软件作轻微设置就能坐享电脑系统整体性能提升的好处。
但是随着芯片工艺沿着摩尔定律发展,CPU集成度提高、晶体管密度加大,时钟频率提升,直接导致CPU芯片的功率不断增大,散热问题成为一个无法逾越的障碍。据测算,CPU主频每增加1GHz,功耗将上升25瓦,而在芯片功耗超过150瓦后,现有的风冷散热将无法满足要求。2003年前后Intel推出的主频为34GHz的Pentium4至尊版CPU芯片,最高功耗已达135瓦,有人给它送了一个“电炉”的绰号,更有好事者用它来玩煎蛋的游戏。现在的服务器CPU芯片Xeon W-3175标称功耗为255W,默认频率实测能达到380W,超频的话甚至会突破500W,必须采用高端水冷系统来降温。
所以,功耗极限制约着CPU频率的提升。下图是CPU功率密度随时间的变化趋势图,IntelPentium之后的CPU芯片,由于晶体管密度和时钟频率提升,CPU芯片的功率密度陡然上升,CPU产生的热量将会超过太阳表面。
综上所述,追求多任务处理功能,追求处理速度提升是CPU芯片设计的两大目标。以提升CPU时钟频率而加快处理速度又受到CPU功耗极限的制约,多核心CPU芯片成为解决上述矛盾的必由之路。目前,多核心CPU和SoC已成为处理器芯片发展的主流。
与单核心CPU相比,多核心CPU在体系结构、软件、功耗和安全性设计等方面面临着巨大的挑战,但也蕴含着巨大的潜能。本文参考了后附的参考资料1,对多核心CPU用到的技术作如下简单介绍。
1 超线程技术
一个传统CPU核心只有一个运算处理单元(Processing Unit,简称PU)和一个架构状态单元(Architectual State,简称AS),在同一时间只能处理一个软件线程(Thread)。采用了 超线程 (Hyper-Threading,简称 HT )技术的CPU核心中包含一个PU和两个AS,两个AS共用这个PU。软件在CPU核心上运行时,AS与软件线程对接,并把线程的任务分配到PU中的相关单元中。所以,两个AS就可以处理两个软件线程。
用生产车间打个比方,PU是生产部门,有几台机床用于生产;AS是跟单员,他同时只能跟一个任务订单;软件线程好比是任务订单。如果生产车间只有一个AS时,这个车间同时只能处理一个任务订单,PU的有些机床有事干,有些机床可能无事干而闲置。如果有两个AS时,就能处理两个任务订单,并把任务分配到不同的机床上去完成。
所以,具有超线程的CPU核心的集成度增加量不大,但有两个AS后使它看起来像两个逻辑的CPU核心,就可以同时处理两个软件线程,大约可以提高40%的处理能力。所以,我们经常可以看到CPU芯片广告,说某多核心CPU芯片是N个核心,2×N个线程,就是采用了超线程带来的好处。否则,如果没有采用超线程技术的话,多核心CPU芯片参数就只能写成N个核心,N个线程。下图给出了2核心CPU无超线程和有超线程的示意图。
2 核心结构研究
多核心CPU的结构分成 同构 (homogeneous)多核和 异构 (heterogeneous)多核两类,同构多核是指芯片内多个CPU核心的结构是相同的,而异构多核是指芯片内多个CPU核心的结构各不相同。面对不同的应用场景,研究核心结构的实现方式对CPU整体性能至关重要。核心本身的结构,关系到整个芯片的面积、功耗和性能。怎样继承和发展传统CPU的成果,也直接影响多核的性能和实现周期。同时,核心所用的指令系统对系统的实现也是很重要的,多核心采用相同的指令系统还是不同的指令系统,能否运行操作系统等,也是设计者要研究的重要问题。
3Cache 设计技术
CPU和主存储器之间的速度差距对多核心CPU来说是个突出的矛盾,因此必须使用多级Cache来缓解。可分为共享一级Cache、共享二级Cache和共享主存三种方式。多核心CPU一般采用共享二级Cache的结构,即每个CPU核心拥有私有的一级Cache,并且所有CPU核心共享二级Cache。
Cache本身的体系结构设计直接关系到系统整体性能。但是在多核心CPU中,共享Cache或独有Cache孰优孰劣、是否在片上建立多级Cache、以及建立几级Cache等,对整个芯片尺寸、功耗、布局、性能以及运行效率等都有很大的影响,需要认真研究和慎重对待。同时还要考虑多级Cache引发的一致性问题。
4 核心间通信技术
多核心CPU的各核心同时执行程序,有时需要在核心之间进行数据共享与同步,因此硬件结构必须支持CPU核心间的通信。高效通信机制是多核心CPU高性能的重要保障,比较主流的片上高效通信机制有两种, 一种 是基于总线共享的Cache结构,另 一种 是基于片上的互连结构。
总线共享Cache结构 是指每个CPU核心拥有共享的二级或三级Cache,用于保存比较常用的数据,并通过核心间的连接总线进行通信。它的优点是结构简单,通信速度高,缺点是基于总线的结构可扩展性较差。
片上互连的结构 是指每个CPU核心具有独立的处理单元和Cache,各个CPU核心通过交叉开关电路或片上网络等方式连接在一起。各个CPU核心间通过消息进行通信。这种结构的优点是可扩展性好,数据带宽有保证,缺点是硬件结构复杂,且软件改动较大。
5 总线设计技术
传统CPU中,Cache不命中或访问存储器事件都会对CPU的执行效率产生负面影响,而总线接口单元(BIU)的工作效率会决定此影响的程度。在多核心CPU中,当多个CPU核心同时要求访问内存,或多个CPU核心内私有Cache同时出现Cache不命中事件时,BIU对这些访问请求的仲裁机制效率,以及对外存储访问的转换机制的效率决定了多核心CPU系统的整体性能。
6 针对多核心的操作系统
对于多核心CPU,优化操作系统的 任务调度 是提升执行效率的关键。任务调度算法有 全局 队列调度和 局部 队列调度之分。前者是指操作系统维护一个全局的任务等待队列,当系统中有一个CPU核心空闲时,操作系统就从全局任务等待队列中选取就绪任务开始在此核心上执行。其优点是CPU核心利用率较高。后者是指操作系统为每个CPU核心维持一个局部的任务等待队列,当系统中有一个CPU核心空闲时,便从该核心的任务等待队列中选取就绪任务来执行。其优点是有利于提高CPU核心局部Cache命中率。大多数的多核心CPU操作系统采用的是基于全局队列的任务调度算法。
多核心CPU的中断处理和单核CPU有很大不同。CPU核心之间需要通过中断方式进行通信和协调,所以,CPU核心的本地中断控制器和仲裁各CPU核心之间中断的全局中断控制器需要封装在芯片内部。
另外,多核心CPU操作系统是一个多任务系统。由于不同任务会竞争共享资源,因此需要系统提供同步与互斥机制。而传统的用于单核心CPU的解决机制并不能满足多核心的情况,需要利用硬件提供的“读-修改-写”的原始操作或其他同步互斥机制来进行保证。
7 低功耗设计技术
每两三年CPU晶体管密度和功耗密度都会翻倍。低功耗和热优化设计已经成为多核心CPU设计的重点。需要同时在操作系统级、算法级、结构级、电路级等多个层次上考虑。每个层次上实现的效果不同,抽象层次越高,功耗和温度降低的效果越明显。
8 可靠性及安全性设计技术
在今天的信息社会,CPU的应用无处不在,对CPU的可靠性和安全性提出了更高要求。一方面多核心CPU复杂性提高,低电压、高主频、高温度对维持芯片安全运行带来挑战。另一方面,来自外界恶意攻击越来越多,手段越来越先进,高可靠、安全性设计技术越来越受到重视。
要弄明白多核心CPU是如何工作,要从应用程序、操作系统和CPU核心一起来分析。Windows操作系统作为任务调度者,按照 进程 (Process)和 线程 (Thread)为应用程序(Program)分配程序执行的硬件资源——CPU核心。一个进程对应一个应用程序,但是一个应用程序可以同时对应多个进程,通过多个进程来完成这个程序的执行。
应用程序未执行的时候是“静态”的,程序一旦被用户启动执行,就被操作系统接管变成“动态”的了。操作系统按照一个一个的 进程 管理着一批被用户启动了的程序。所以一个 进程 可以看作是一个“执行中的程序”,进程中包括了由操作系统分配给这个程序的基本资源。
一个进程又被细分为多个 线程 ,只有 线程 才能通过操作系统获得CPU核心的使用权限来让自己运行。只包含一个线程的进程可以叫做 单线程 程序,如果包含多个线程的进程,就可以叫做 多线程 程序了。
程序的线程要想获得CPU时间,必须进入操作系统的线程队列排队,经过操作系统调度之后,获得某个CPU核心的执行时间。操作系统对CPU核心的分派是非常复杂的过程,谁也无法用简短的文字说清楚具体详细的过程。以下按单核心CPU和4核心CPU两种情况来示意说明,程序进程的一个个线程,是如何分派到CPU核心上进行执行的[7]。
如果CPU是单核心的话,而且没有采取超线程技术,线程队列就只有1个,线程的选择也只有1个。如果采取了超线程技术,单核心就扩展成2个逻辑核心,线程队列就有2个,线程的选择就有2个。
如果站在多核心CPU角度看,每个CPU核心不断从操作系统收到要执行的软件线程,按照程序指令去完成规定任务,它可能要使用存储器、运算器、输入输出等部件,还要与其它CPU核心进行通信和传递数据,完成任务后还要报告。这些过程可看成一个一个的事件,都要通过事件中断处理部件来协调。多核心CPU的硬件调度处理模式大致有三种[8][18]。
1 对称多处理 (Symmetric Multi-Processing,简称 SMP )是目前使用最多的模式。在SMP模式下,一个操作系统同等地管理着各个CPU核心,并为各个核心分配工作负载。目前,大多数的操作系统都支持SMP模式,例如Linux,Windows,Vxworks等。另外,这种模式通常用在同构多核CPU上,因为异构多核CPU的结构不同,实现SMP比较复杂。
2 非对称多处理 (Asymmetric Multi-Processing,简称 AMP )是指多个核心相对独立地运行着不同的任务,每个核心可能运行不同的操作系统或裸机程序,或者不同版本的操作系统,但是有一个 主导 的CPU核心,用来控制其它 从属 的CPU核心以及整个系统。这种模式大多情况是异构多核心CPU。例如MCU + DSP,MCU +FPGA等。当然,同构多核心CPU也可以用。
3 边界多处理 (Bound Multi-processing,简称 BMP )与SMP基本相同,唯一区别是开发者可以定义某个任务仅在某个CPU核心上执行。
以上只是原理性的简单介绍,如果要了解多核心CPU的硬件调度原理和实现细节,恐怕只能打进Intel或AMD公司内部,才能了解更多技术详情。
多核心CPU中的核心是否越多越好,多CPU系统中的CPU芯片是否也越多越好?同样条件下是否具有超线程就比不具有超线程的好?回答是仁者见仁,智者见智。主要是要分清用在哪些场合,不能一概而论。
首先,多核心CPU或者多CPU之间需要同步和调度,这是以时间开销和算力损耗为代价的。如果CPU核心数或者CPU芯片数增加对系统处理能力提升是加分项的话,同步和调度带来的时间开销和算力损耗就是减分项。如果加分大于减分,而且成本增加可接受的话,则方案是可行的,否则就是不值当的方案。系统方案的评判除了要考虑CPU核心数量以外,还要考虑操作系统的差异、调度算法的不同,应用和驱动程序特点等因素,它们共同影响着系统的处理速度。以下是一些文章的讨论观点。
1 CPU核心越多,执行速度不一定越快。这里说的是“不一定”,因为一个线程可能要等待其它线程或进程完成后,才能轮到它继续执行。在它等待别的线程或进程的时候,即便排队队列轮到了它,它也只能放弃运行权利而继续等待,让队列后续线程超过它在CPU上执行。对它这个线程的程序来说是变慢了,但对系统来说,它起码它让开了位置让其它线程继续运行。多核心CPU肯定可以加速批量进程的执行,但对某个进程或者某类型的程序来说,未必是最快的。
2 智能手机要向用户提供优秀的使用体验,不仅仅是靠CPU性能一个方面。除了CPU核心数这个因素以外,还应包括决定通信质量的基带芯片的性能,再加上GPU的性能、游戏和VR应用性能等。系统综合性能好才是真的好。
3 联发科2015年推出10核心、3重架构等手机SoC芯片技术,后来又开发了10核心、4重架构helio X30,通过多重架构的方式来降低功耗。虽然联发科在多核心SoC方面的技术优势是毋庸置疑,但是高通在2015年底推出了仅有四个核心的骁龙820芯片,苹果手机较早使用的SoC芯片也不过是双核心而已。这些都表明,对于智能手机而言,多核心CPU或SoC的意义到底大不大,不可绝对断言,需要从系统角度分析才能得出正确结论。
结语 :多核心CPU和SoC是为了满足整机系统对处理能力和处理速度不断提升的需求,在单核心CPU沿着摩尔定律向前发展,受到了芯片功率极限阻碍时,人们不得不选择的一种突破路线。多核心CPU推动着操作系统的更新和升级,操作系统又决定了多核心CPU效能的发挥。多核心CPU技术的难点是多核心之间的信息传递、数据同步和任务调度等。系统性能优劣不能只考虑CPU核心数量,还要考虑操作系统、调度算法、应用和驱动程序等。多核心CPU技术和FinFET等3D芯片技术可以看作是延续摩尔定律生命的两大关键技术。
为什么微软将服务器放在海底作为互联网的第三次革命,云计算逐渐成为了信息技术发展的战略重点,它集合了众多计算资源,让每一位网民都可以随时获取资源,而这背后真正依赖的并不是高高在上的云朵,是陆地上有无数台服务器构成的数据中心。
近年来面对高速发展的数据中心建设,微软公司另辟蹊径,提出了一个大胆的想法,比起陆地,海底或许才是数据中心最好的归宿。首先是成本问题,数据中心的发展直接导致能源消耗的增加。据统计,全球数据中心每年消耗的电量占全球总电量的2%左右,而其中的能源消耗成本是整个IT行业的30%到50%。
因此,“如何降低服务器的降温成本”成为了互联网公司不断思考的问题,面对这一难题,几大巨头纷纷开始了自己的“花式降温法”。Facebook位于瑞典吕勒奥的数据中心,距离北极圈不到70km,这里常年低温可以将冷空气吸入散热。阿里巴巴位于杭州千岛湖的数据中心,这里年平均气温17℃,可以利用深层湖水的循环流动,帮助服务器降温。而腾讯位于贵州贵安的数据中心,这里有五条山洞,隧道面积超过3万平方米,安全隐蔽且温度较低。
而微软更是脑洞大开,直接将服务器沉到了海底,想要利用海洋的自然冷却能力,打造一个绿色节能的海底数据中心,而除了前面提到的成本问题,距离问题也同样重要。目前全球一半以上的人口生活在距离海岸60千米的范围之内,试想一下,如果将数据中心放置在沿海城市附近的水域之中,那么数据传送的距离就会大大缩短,网络速度也将会大幅度提升。与之相比,想要在人口密集的陆地建立数据中心,就将会面临占地面积,能源成本,法律法规等一系列的挑战,建立在偏远地区又会产生网络延迟的问题。
因此,基于以上两大优势,2014年8月,微软正式启动了Natick项目,以 探索 水下数据中心的可行性。2015年8月,第一台海底数据中心原型机在加州海边运行了101天。
2018年6月第二台装有864台服务器的原型机被放入苏格兰奥克尼岛附近的海底深处,为了验证其在经济、物流和环境可持续性方面是否使用,这台机器将会在海底运转多年。
您好,首先非常感谢您对英特尔产品的关注与支持,
1微软公司于1992 年在中国北京设立了首个代表处,此后,微软在中国相继成立了微软中国研究开发中心、微软全球技术支持中心和微软亚洲研究院等科研、产品开发与技术支持服务机构。如今微软在华的员工总数有900多人,形成以北京为总部、在上海、广州设有分公司的架构,微软中国成为微软公司在美国总部以外功能最为完备的子公司。
2英特尔公司是全球最大的半导体芯片制造商,它成立于1968年,具有30多年半导体产品技术创新和市场领导的历史。公司的第一个产品是半导体存储器。1971年,英特尔推出了全球第一个微处理器。这一举措不仅改变了公司的未来,而且对整个工业产生了深远的影响。微处理器所带来的计算机和互联网革命,改变了这个世界。
3四十多年来,英特尔一直为全球日益发展的计算机工业提供建筑模块,包括微处理器、芯片组、板卡、系统及软件等。这些产品为标准计算机架构的组成部分。业界利用这些产品为最终用户设计制造出先进的计算机。
今天,互联网的日益发展不仅正在改变商业运作的模式,而且也改变着人们的工作、生活、娱乐方式,成为全球经济发展的重要推动力。作为全球信息产业的领导公司之一,英特尔公司致力于在客户机、服务器、网络通讯、互联网解决方案和互联网服务方面为日益兴起的全球互联网经济提供最重要的建筑模块。
希望以上回复能够对您有所帮助。
服务器主板和普通电脑主板有什么区别
经常玩电脑的,对电脑有一定了解的人都知道,对于一台电脑,最重要的无非就是处理器、主板和显卡,这三个配件都是种类繁多。我们用来玩游戏的主机和游戏服务器的主机有着很大区别,同样,作为必不可少的配件之一,主板,同样有着区别,由于主机和服务器的侧重点不同,两者的主板也有不同侧重,正确区分服务器主板和普通PC机主板,拒绝做“小白”!
普通的家用和办公电脑的主板,主要需求是在性能和功能上;而服务器主板则是专门为了满足服务器应用——高稳定性、高性能、高兼容性的环境,而开发的主机板。由于服务器的高运作时间,高运作强度,以及巨大的数据转换量,电源功耗量,I/O吞吐量,因此对服务器主板的要求是相当严格的。
服务器主板和普通电脑主板的区别,主要由以下几点:
1、服务器主板一般都是至少支持两个处理器——芯片组不同(往往是双路以上的服务器,单路服务器有时候就是使用台式机主板)。
2、服务器几乎任何部件都支持ECC,内存、处理器、芯片组(但高阶台式机也开始支持ECC)
3、服务器很多地方都存在冗余,高档服务器上面甚至连CPU、内存都有冗余,中档服务器上,
硬盘、电源的冗余是非常常见的,但低档服务器往往就是台式机的改装品,不过也选用一线大厂电源。
4、由于服务器的网络负载比较大,因此服务器的网卡一般都是使用TCP/IP卸载引擎的网卡,
效率高,速度快,CPU占用小,但目前高档台式机也开始使用高档网卡甚至双网卡。
5、硬盘方面,已经很多而且越来越多的服务器将用SAS /SCSI 代替SATA。
6、 在内存支持方面。由于服务器要适应长时间,大流量的高速数据处理任务,因此其能支持高达十几GB甚至几十GB的内存容量,而且大多支持ECC内存以提高可靠性(ECC内存是一种具有自动纠错功能的内存,由于其优越的性能使造价也相当高)。
7、 存储设备接口方面。中高端服务器主板多采用SCSI接口、SATA接口而非IDE接口,并且支持RAID方式以提高数据处理能力和数据安全性。
8、 在显示设备方面。服务器与工作站有很大不同,服务器对显示设备要求不高,一般多采用整合显卡的芯片组,例如在许多服务器芯片组中都整合有ATI的RAGE XL显示芯片,要求稍高点的就采用普通的AGP显卡。而如果是图形工作站,那一般都是选用高端的3DLabs、ATI等显卡公司的专业显卡。
9、 在网络接口方面。服务器/工作站主板也与台式机主板不同,服务器主板大多配备双网卡,甚至是双千兆网卡以满足局域网与Internet的不同需求。
10、最后是服务器的价格方面。一般台式机主板顶天也不过1、2千,而服务器主板的价格则从1千多元的入门级产品到几万元甚至十几万元的高档产品都有!
以上,就是服务器主板和普通PC机主板的区别,由于服务器需要更大得数据吞吐量,需要更强的数据处理能力,服务器主板比普通主板的功能更为强大。由于PC机的普及,更多的厂商也开始生产研发高端电脑主板,并且应用在普通主机上,相信在不远的将来普通主板具有服务器主板的性能,也想成为可能。
------------------------------------------------------------------------
服务器基础知识初学者必看
标签: 服务器ftp服务器磁盘windowsinternet网络
2011-07-29 09:36 4747人阅读 评论(0) 收藏 举报
分类:
服务器(15) 网络文摘(70)
1 什么是服务器
就像他的名字一样,服务器在网络上为不同用户提供不同内容的信息、资料和文件。可以说服务器就是Internet网络上的资源仓库,正是因为有着种类繁多数量庞大内容丰富的服务器的存在,才使得Internet如此的绚丽多彩。
2 服务器的种类和功能
(1) WWW服务器(WWW Server)
WWW服务器也称为Web服务器(Web Server)或HTTP服务器(HTTP Server),它是Internet上最常见也是使用最频繁的服务器之一,WWW服务器能够为用户提供网页浏览、论坛访问等等服务。比如:我们在使用浏览器访问
http://wwwdiscuzNET的时候,实际上就是在访问Discuz!的WWW服务器,从该WWW服务器获取需要的论坛资料和网页。
(2) FTP服务器(FTP Server)
FTP服务器是专门为用户提供各种文件(File)的服务器,FTP服务器上往往存储大量的文件,例如:软件、MP3、**、程序等等。用户只要使用FTP客户端软件登录到FTP服务器上就可以从FTP服务器下载所需文件和资源到自己的电脑上,同时,
你也可以把自己电话上的文件上传到FTP上供其他用户下载,以实现文件资源的共享。
(3) 邮件服务器(Mail Server)
e-mail是Internet上应用最频繁的服务之一,而Internet上每天数亿百亿计的电子邮件的收发都是通过邮件服务器实现的。邮件服务器就像邮局一样,可以为用户提供电子邮件的接收存储和发送服务。
除了以上介绍的3种主要服务器之外,还有很多其他类型的网络服务器,例如:数据库服务器(DatabaseServer)、代理服务器(Proxy Server)、域名服务器(Domain Name Server)等等……
3 服务器的操作系统
目前服务器中使用的操作系统主要有两类:Windows和Unix。
(1) Windows
Windows是美国微软公司(Microsoft)开发的操作系统,在服务器领域,主要有Windows2000Server/Advanced Server/Data Center与Windows2003 Standard Edition/EnterpriseEdition操作系统,Windows的优点是操作简
单,由于Windows使用图形界面进行操作,因而对各种服务器软件功能配置简便。但它的缺点也不可忽视,例如:Windows操
作系统成本较高;安全性相对较低;能承受的访问量较低等等。
(2) Unix
Unix的历史很久远,其种类和分支错综复杂。就目前来说应用最广泛的Unix系统是Linux,Linux并非由哪家公司发行,Linux由世界各个角落的热爱程序与网络人共同开发、维护。Linux完全免费,与Windows相比,Linux的成本为0。
Linux除了成本上的优点之外,还具备很多非常优秀的特点,例如:性能极高、稳定性很好、安全等等。目前,大多数大中型
企业(包括电信企业和Google、百度、新浪、搜狐等等)的服务器都运行在Unix/Linux系统之上。
4 Apache与IIS
Apache与IIS都属于WWW服务器,是世界上使用最多的两种WWW服务器。
(1) IIS
IIS的全称是:InternetInformation Server,由微软(Microsoft)公司开发,是Windows操作系统的一部分。IIS是允许在Internet上发布信息的Web服务器。IIS通过使用超文本传输协议(HTTP)传输信息。还可配置IIS 以提供文件传输
协议(FTP)服务。FTP服务允许用户从Web节点或到Web节点传送文件。
IIS的特点是配置简单,配置界面很友,功能较强,同时提供对ASP/ASPNet的支持。但IIS的性能和安全性相对较差,并且IIS只能在Windows中使用,无法在UNIX中运行。
(2) Apache
Apache是世界排名第一的WWW服务器, 根据Netcraft(wwwnetcraftcom)所作的调查,世界上百分之六十以上的Web服务器在使用Apache。
Apache 的特性:
1) 几乎可以运行在所有的计算机平台上(包括Windows)
2) 强大的功能配置;
3) 支持通用网关接口(CGI);
4) 支持虚拟主机;
5) 支持HTTP认证;
6) 内部集成了代理服务器;
7) 具有用户会话过程的跟踪能力;
8) 支持FASTCGI;
9) 支持Java SERVLETS;
什么是服务器?
服务器是网络上一种为客户站点提供各种服务的计算机,它在网络
操作系统的控制下,将与其相连的硬盘、磁带、打印机、Modem及昂贵的专用通讯设备提供给网络上的客户站点共享,也能为网络用户提供集中计算、数据库管理等服务。
● 网络服务器的作用:
A. 运行网络操作系统。通过网络操作系统控制和协调网络各工作站的运行,处理和响应各工作站同时发来的各种网络操作请求。
B. 存储和管理网络中的软硬件共享资源,如数据库、文件、应用程序、打印机等资源。
C. 网络管理员在网络服务器上对各工作站的活动进行监视控制及调整。
从结构来说,目前服务器正从RISC服务器向IA服务器发展,在中小型网络中尤其如此。
● 热插拔技术
○ Hot Swap,又称为热交换技术、热插拔技术。允许服务器在不关机状态下更换故障硬盘等热插拔设备。
○ 热切换技术与RAID技术配合起来,可以使服务器在不关机状态下更换故障硬盘,并且自动恢复原盘上的数据,极大地提高了服务器系统的容错能力。
○ 硬盘热插拔有两种方式:
A. 采用热插拔硬盘盒配以普通SCSI硬盘,多用于磁盘阵列中。
B. 采用具有热插拔能力的专用硬盘,是高性能服务器的标准配置。
○ 热插拔技术今后将向热插拔电源、热插拔PCI插卡等方向发展。
● 硬盘接口技术
IDE: (Intergraded drive electronics) 现在PC机使用的主流硬盘接口。
SCSI:(Small Computer System Interface) 小型计算机系统接口。SCSI技术源于小型机,目前已移植到PC服务器及高档PC机上。相对于IDE接口,SCSI接口具备如下的性能优势:
a 独立于硬件设备的智能化接口:减轻了CPU的负担。
b 多个I/O并行操作:因此SCSI设备传输速度快。
c 可联接的外设数量多:可扩展多个外设(如硬盘、磁带机等)。
当同时访问到服务器的网络用户数量较多时,使用SCSI硬盘的系统I/O性能明显强于使用IDE硬盘的系统。
SCSI总线支持数据的快速传输。不同的SCSI设备通常有8位或16位的SCSI传输总线。在多任务操作系统,如Windows NT下,在同一时刻可以启动多个SCSI设备。SCSI适配器通常使用主机的DMA(直接内存存取)通道把数据传送到内存。这意味着不需要主机CPU的帮助,SCSI适配器就可以把数据传送到内存。为了管理数据流,每一个SCSI设备(包括适配卡)都有一个身份号码。通常,把SCSI适配器的身份号码设置为7,其余设备的身份号码编号为0到6。
大部分基于PC的SCSI总线使用单端接的收发器发送和接受信号。但是,随着传送速率的增大和线缆的加长,信号会失真。为了最大限度的增加总线长度并保证信号不失真,可以把差分收发器加到SCSI设备中。差分收发器使用两条线来传送信号。第二条线为信号脉冲的反拷贝。一旦信号到达目的地,电路比较两条线的脉冲,并生成原始信号的正确拷贝。
一种新的差分收发器 - LVD(低压差分收发器),能够增加总线长度并且能够提供更高的可靠性和传输速率。LVD能连接15个设备,最大总线长度可达12米。
目前常用的SCSI系列:
Narrow Wide
Wide
接口
传输速率
接口
传输速率
Fast Fast SCSI
10 MB/S
Fast Wide SCSI
20MB/S
Ultra Ultra SCSI
20MB/S
Ultra Wide SCSI
40MB/S
Ultra2 Ultra2 SCSI
40MB/S
Ultra2 Wide SCSI
80MB/S
/
Ultra 3
160MB/S
SCSI与IDE的区别
○ IDE的工作方式需要CPU的全程参与;这种情况在Windows95/NT的多任务操作系统中,自然就会导致系统反应的大大减慢。而SCSI接口,则完全通过独立的高速的SCSI卡来控制数据的读写操作,CPU就不必浪费时间进行等待,显然可以提高系统的整体性能。
○ SCSI的扩充性比IDE大,一般每个IDE系统可有2个IDE通道,总共连4个IDE设备,而SCSI接口可连接7~15个设备,比IDE要多很多,而且连接的电缆也远长于IDE。
虽然SCSI设备价格高些,但与IDE相比,SCSI的性能更稳定、耐用,可靠性也更好
● RAID技术
○ RAID:(Redundant Array of Inexpensive Disk)廉价冗余磁盘阵列。由于磁盘存取速度跟不上CPU处理速度的发展,从而成为提高服务器I/O能力的一个瓶颈。RAID技术利用磁盘分段、磁盘镜像、数据冗余技术来提高磁盘存取速度,同时提供磁盘数据备份、提高了系统可靠性。
○ 磁盘分段(Disk Striping):数据以"段"为单位依次读写多个磁盘,多磁盘相当于同时操作,存取速度极大地提高。
○ 磁盘镜像(Disk Mirroring):用一个控制器控制两个磁盘,同时读写相同的数据,数据100%备份。
○ 数据冗余技术:数据读写时做校验,校验数据以紧凑格式存于磁盘上,可用于纠错及恢复数据。
○ RAID技术目前常用的有几个系列:
RAID 级别
描述
技术
速度
容错能力
RAID 0
磁盘分段
没有校验数据
磁盘并行I/O,存取速度提高最大
数据无备份
RAID 1
磁盘镜像
没有校验数据
读数据速度有提高
数据100%备份(浪费)
RAID 2
磁盘分段+汉明码数据纠错
/
没有提高
允许单个磁盘错
RAID 3
磁盘分段+奇偶校验
专用校验数据盘
磁盘并行I/O,速度提高较大
允许单个磁盘错,校验盘除外
RAID 4
磁盘分段+奇偶校验
异步专用校验数据盘
磁盘并行I/O,速度提高较大
允许单个磁盘错,校验盘除外
RAID 5
磁盘分段+奇偶校验
校验数据分布存放于多盘
磁盘并行I/O,速度提高较大,比RAID 0稍慢
允许单个磁盘错,无论哪个盘
磁盘系统作好RAID 5后,任一块磁盘出现故障后,系统仍可运行,故障盘上的数据可通过其它盘上的校验数据计算出来(此时速度要慢一些)。如果磁盘系统中有备份盘,则数据自动恢复到备份盘中。如果具备热插拔硬盘,则在开机状态下即可换下故障硬盘,数据将自动恢复到新硬盘上。在这些过程中,系统并没有停止运行。
● SMP技术简介
○ SMP:Symmetric Multiprocessing 即对称多处理。指在一个计算机上汇集了一组处理器(多个CPU)。多处理是指一台计算机中的多个处理器通过共享同一存储区来协调工作。真正意义上的多处理要求系统中的每个CPU能访问同一物理内存。这意味着多CPU必须能使用同一系统总线或系统交换方式。
操作系统对多处理体系结构的支持是与其核心紧密相连的,这将涉及两个用于支持多处理的基本序列算法:对称和非对称处理。非对称处理中,CPU各有各的任务;对称处理中,每个CPU可执行任何任务。SMP系统通过将处理负载分布到各个空闲的CPU上来增强性能。处理分布或执行线程中,各CPU的功能是相同的。它们共享内存及总线结构,系统将处理任务队列对称地分布于多个CPU上,从而极大地提高了系统的数据处理能力。
○ 对称多处理首先在网管方面表现出高性能,这应归因于SMP系统强大的处理能力和SMP操作系统的兴起。支持SMP的网络操作系统:Novel Netware、SCO UNIX、Microsoft Windows NT等。
○ SMP技术特别适合于需要集中使用处理器的服务,如应用服务器、通信服务器。很多应用程序升级到SMP平台后并不需要重写。
○ SMP技术是今后PC服务器的发展方向。
● 机箱技术
○ 立式机箱
○ 基座式
○ 机架安装式
● 内存技术
内存的家族也很庞大,有许多不同的类别。按照存储信息的功能,内存可分为RAM(Random Access Memory,随机存取存储器)和ROM(Read Only Memory,只读存储器)。ROM是非易失性的元件,可靠性很高,存储在ROM里的数据可以永久的保存,而不受电源关闭的影响,所以,ROM一般用来存储不需修改或经常修改的系统程序,像主板上的BIOS程序。根据信息的可修改性难易,ROM也可分为MASK ROM,PROM,Flash Memory等,其中,MASK ROM,PROM属于早期的产品,ROM这一族经过一连串的演化,从使用只能写一次的PROM,利用紫外线清除的EPROM,利用电气方式清除的EEPROM,一直到现在主板上经常使用的一般电压就可清除的Flash Memory。现在计算机的发展速度相当快,主板厂商也需经常升级BIOS,所以用Flash Memory存储BIOS程序就成为首选,RAM既是我们通常所说的内存,也是我们需关注的主要方面,现做一下介绍。
○ RAM的分类
RAM主要用来存放各种现场的输入、输出数据,中间计算结果,以及与外部存储器交换信息和作堆栈用。它的存储单元根据具体需要可以读出,也可以写入或改写。由于RAM由电子器件组成,所以只能用于暂时存放程序和数据,一旦关闭电源或发生断电,其中的数据就会丢失,故属于易失性元件。现在的RAM多为MOS型半导体电路,它分为动态和静态两种。动态RAM(DRAM)是靠MOS电路中的栅极电容来记忆信息的。由于电容上的电荷会泄漏,需要定时给与补充,所以动态RAM需要设置刷新电路(Refresh),如此一来,需要花费额外的时间;而静态RAM(SRAM)是靠双稳态触发器来记忆信息的,不须重复的做刷新的动作即可保存数据,所以存取速度要比DRAM快上许多。但动态RAM比静态RAM集成度高、功耗低,从而成本也低,适于作大容量存储器。所以高速缓冲存储器(Cache)使用SRAM,而主内存通常采用DRAM。我们平常所接触的内存条就是由DRAM芯片构成的。
○ DRAM的种类
FPM DRAM(Fast Page Mode DRAM),即快速页面模式的DRAM。
EDO DRAM(Extended Data Out DRAM),即扩展数据输出DRAM。速度比FPM DRAM快15%~30%。它和FPM DRAM的构架和运作方式相同,只是缩短了两个数据传送周期之间等待的时间,使在本周期的数据还未完成时即可进行下一周期的传送,以加快CPU数据的处理。
BEDO DRAM(Burst EDO DRAM),即突发式EDO DRAM。是一种改良式EDO DRAM。
SDRAM(Synchronous DRAM)即同步DRAM。目前十分流行的一种内存。工作电压一般为33V,其接口多为168线的DIMM类型。它最大的特色就是可以与CPU的外部工作时钟同步,和我们的CPU、主板使用相同的工作时钟,如果CPU的外部工作时钟是100MHZ,则送至内存上的频率也是100MHZ。
○ REGISTERED 内存
○ ECC内存
错误检查与校正内存(ECC)提供了一个强有力的数据纠正系统。ECC内存不仅能检测一位错,而且它能定位错误和在传输到CPU 之前纠正错误,将正确的数据传输给CPU。允许系统进行不间断的正常的工作,ECC内存能检测到多位错(而奇偶校验内存就不能达到这一点)并能在检测到多位错时产生报警信息,但它不能同时更正多位错。
ECC的工作过程是这样的:当数据写到内存中时,ECC将数据的一个附加位加识别码,当数据被回写时,存储的代码和原始的代码相比较,如果代码不一致,数据就被标记为"坏码",然后坏码会被纠正,并传输到CPU中,如果检测到多位错时,系统就会发出报警信息。
● 常见操作系统
○ MicrosoftWindows NT Server 40 中/英文
○ MicrosoftWindows 2000/2003 中/英文
○ SCO OpenServer505
○ SCO UnixWare711
○ Red Hat 62/70
○ TurboLinuxServer 61
○ SUN Solaris 7/8中/英文
○ Windows NT / Windows 2K/2003
· 与windows客户机集成较好
· 提供一定的文档和应用服务器兼容能力
· 简化安装和管理工作,操作系统易于使用,用户界面好
· 提供更多的开发工具,第三方厂商应用支持较多
· 目前在中小用户中的增长势头较快
· 大型环境中目录不易管理
· 与其他操作系统相比,可靠性较差
· 改变配置后,系统需重新启动
○ SCO UNIX
· 在高性能的RISC机器中扩展性较好
· 可轻松改变网络配置
· 安全性、可靠性高
· 提供内置的多用户能力
· 最早,最广泛地支持Internet标准
· 该平台上的应用极为丰富
· 在国内金融等重要行业中用户较多
· 用户界面较差,维护、管理、使用复杂
· 没有可靠的开发工具
○ NetWare
· 单CPU的文件服务器性能优异
· 高性能的目录服务可轻松管理大型环境
· 在国内早期中小用户中使用较多
· 关键服务与SMP无关
· 缺乏第三方厂商支持
· 没有可靠的开发工具
○ LINUX
· 免费的多任务多用户的操作系统
· 性能稳定,占用空间小
· 可运行在Intel、SPARC、Alpha平台
· 没有专门的技术支持部门
· 对一些设备的驱动能力还不是很完善
○ Solaris
· 安装方式多样,自动化程度高
· 处理数据的能力很高
· 可与各种平台实现互操作
· 软件价格昂贵
· 对基于Intel的服务器技术支持较弱
通常不说云服务器,而是云计算,云计算通常是指大量的服务器和海量的存储提供某一特定服务。比如google,就可以认为是提供搜索服务的云计算。你不需要了解google是怎样运算,不需要知道是哪些服务器提供的服务,只需关注搜索后的结果。
云计算,简单的说,就是服务。它主要有三个模式:基础架构即服务(IaaS)、软件即服务(SaaS)和平台即服务(PaaS)。
广泛的说,一切能够访问云计算的设备都可以认为是云终端,可能是一台个人电脑,或者智能手机,智能终端,或者瘦客户机等等设备。大多数主流厂商期望的是在这些设备上使用全功能浏览器,就可以获取所有需要的服务。
目前国内网络里面提到的云终端是一种瘦客户机,主要是ARM芯片WinCE或者Linux系统的瘦客户机,通过远程桌面技术连接到远程的Windows或者Linux服务器上工作。未来可能是Android系统的瘦客户机,当前发展比较迅猛。被连接的服务器也被称为云计算服务器,提供了远程桌面的服务,鉴于国内用户的习惯,基本为微软Windows服务器。该形式可以归属为云计算IaaS模式。
上海翃运信息科技欢迎有兴趣的朋友更多探讨。
0条评论