什么时候会用到GPU服务器呢?
GPU服务器相信很多人都知道是什么了,但是有的人还是搞不清什么时候用到GPU服务器,当我们采样数据量大、仿真、机器学习、推理、、视频编解码及3D渲染等时候,就需要用到GPU服务器,还有一些深度学习等方面。思腾合力就是一家专注于为人工智能和高性能计算领域提供深度学习、GPU高性能计算、虚拟化等产品和解决方案的厂商。2019年人工智能基础架构市场规模达到209亿美元,同比增长587%。其中GPU服务器占据961%的市场份额。IDC预测,到2024年中国GPU服务器市场规模将达到64亿美元,市场前景还是非常大的。
一般来说,选GPU云服务器的话,尽量选大厂的会比较好点。因为大厂一般在产品性能和服务上都做得比较好,而且他们比较重视客户体验这一块。
你关注的火山引擎的GPU云服务器就很不错,性能稳定,用户口碑也很好。
作为业内人士,可以简单给你介绍一下。
GPU云服务器在普通云服务器上附加了GPU加速卡,在提供超强计算能力的同时,也兼备普通云服务器灵活发放,按需使用的特点,适用于AI训练、AI推理、科学计算、视频渲染等场景。
GPU云服务器提供与普通云服务器一样的使用和管理方式,例如结合私有网络、安全组、密钥对、负载均衡等服务实现丰富的业务架构,灵活便捷的购买并管理GPU云服务器。除此之外,火山引擎GPU云服务器还具备以下几个优势:
1、便捷管理:GPU 云服务器采用和云服务器ECS 一致的管理操作方式,无需重复登录,简单易用。清晰的显卡驱动的安装、部署指引,免去高学习成本。
2、安全防护:不同用户之间资源全面隔离,保障您的数据安全。同时,GPU 云服务器享有与云服务器ECS 同等的安全基础,对接云监控服务,完善的网络监控服务保障您的网络安全。
3、费用低廉:无需预先配备硬件资源,免除硬件更新带来的额外费用,降低基础设施建设成本。目前,GPU 云服务器已全面支持包年包月计费和按量计费等多种计费方式,您可以根据需要选择计费方式。
4、性能优越:GPU 云服务器具有高并行、高吞吐、低时延等特点,在科学计算中的性能表现显著优于传统架构,同时在图像处理等场景也有明显优势。
并且除普通GPU云服务器外,火山引擎还为您提供高性能计算GPU集群,在原有GPU型规格的基础上,加入RDMA网络,提供8个GPU卡、vCPU高达112核的计算规格,可以大幅提升网络性能,提高大规模集群加速比,可用于高性能计算、人工智能、机器学习等业务场景。
关键在费用方面,火山引擎可以灵活变更计费项规格,按需调整资源计费方式。
所以综合来说,火山引擎的GPU云服务器不论是产品性能还是售后服务、价格等方面,都是比较优秀的,值得购买和使用。
1GPU:计算机图显核心
11 GPU:计算机图形显示核心
GPU基本概念:图形处理器(graphics processing unit,缩写GPU),又称显示核心、视觉处理器、显示芯片,是一种专门在个人电脑、工作站、游戏机和一些移动设备(如平板电脑、智能手机等)上做图像和图形相关运算工作的微处理器。
GPU是显卡的处理器:显卡全称显示适配卡,又称显示适配器,用于协助CPU进行图像处理,作用是将CPU送来的图像信号经过处理再输送到显示器上,由主板连接设备、监视器连接设备、处理器和内存组成,GPU即是显卡处理器。
12 GPU擅长大规模并发计算
GPU工作原理:GPU的工作通俗的来说就是完成3D图形的生成,将图形映射到相应的像素点上,对每个像素进行计算确定最终颜色并完成输出,一般分为顶点处理、光栅化计算、纹理贴图、像素处理、输出五个步骤。GPU采用流式并行计算模式,可对每个数据行独立的并行计算。
GPU与CPU区别:CPU基于低延时设计,由运算器(ALU)和控制器(CU),以及若干个寄存器和高速缓冲存储器组成,功能模块较多,擅长逻辑控制,串行运算。GPU基于大吞吐量设计,拥有更多的ALU用于数据处理,适合对密集数据进行并行处理,擅长大规模并发计算,因此GPU也被应用于AI训练等需要大规模并发计算场景。
13 GPU可分为独立GPU和集成GPU
独立GPU:独立GPU一般封装在独立的显卡电路板上,使用专用的显示存储器,独立显卡性能由GPU性能与显存带宽共同决定。一般来讲,独立GPU的性能更高,但因此系统功耗、发热量较大。
集成GPU:集成GPU常和CPU共用一个Die,共享系统内存。集成GPU的制作由CPU厂家完成,因此兼容性较强,并且功耗低、发热量小。但如果显卡运行需要占用大量内存,整个系统运行会受限,此外系统内存的频率通常比独立显卡的显存低很多,因此一般集成GPU的性能比独立GPU更低。
14 GPU广泛运用在图显和并行计算场景
GPU拥有单一的强大并行计算能力,所以用途往往是需要大规模并行计算的场景。早期GPU多被用于2D和3D图形的计算和处理,因为图形数据的处理往往涉及到大量的大型矩阵运算,计算量大但易于并行化。近年由于大数据、人工智能发展,GPU也常常被用于需要大量重复计算的数据挖掘领域,如机器学习,深度学习等。
GPU使用场景:GPU被广泛地运用于PC、服务器、移动等领域。其中服务器GPU可做专业图形处理、计算加速、深度学习等应用,以独立GPU为主;移动端GPU主要采用集成GPU;PC根据使用用途不同,既可以搭载独立GPU,也可以使用集成GPU。
15 全球GPU巨头:NVIDIA、AMD
NVIDIA(英伟达):创立于1993年,1999年发明了GPU,最初专注PC图形,后来拓展到密集计算领域,Nvidia利用GPU创建了科学计算、人工智能、数据科学、自动驾驶汽车、机器人技术、AR和VR的平台。 Nvidia是目前全球最大的独立GPU供应商,2020年营收1668亿美元,2021Q2 Nvidia全球独立GPU市场份额达到83%。
AMD(超威半导体):成立于1969年,目前业内稀缺的可以提供高性能CPU、高性能独立显卡GPU、主板芯片组三大组件的半导体公司。2020年AMD营收976亿美元,其中计算和图形(包括CPU、GPU、APU等)业务营收643亿美元,2021Q2 AMD全球独立GPU市场份额达到17%。
2GPU两大应用场景:图显、计算
21 2020全球GPU市场规模接近千亿美元
2020年全球GPU市场规模达到9991亿美元。3D图像显示、人工智能深度学习的需求支撑GPU市场持续增长,根据Verified Market Research数据,2020年全球GPU市场规模达到9991亿美元,预计2028年达到15816亿美元,CAGR为59%。
测算2020年中国大陆独立GPU市场规模约235亿美元。中国是全球GPU市场重要组成部分,2020年Nvidia、AMD在中国大陆收入占比分别为233%、239%,我们假设中国大陆独立GPU市场占全球235%,测算2020年中国大陆独立GPU市场规模约为235亿美元。
22 PC GPU:2020年全球出货394亿片
PC(个人电脑)是GPU重要应用场景,根据Jon Peddie Research(JPR)数据,2020年全球GPU出货394亿片,同比增长179%。
23 PC GPU:Nvidia和AMD占据独立GPU市场
Intel领导集成GPU市场。Intel(英特尔)是全球最大的CPU制造商,2021Q2占据全球775%的x86 CPU市场,集成GPU集成在CPU中,Intel凭借CPU市场地位,占据全球PC GPU大部分市场。根据JPR数据,2021Q2 Intel占据全球683%的PC GPU市场份额,Nvidia和AMD市场份额分别为152%、165%。
Nvidia和AMD占据独立GPU市场。在独立GPU领域,Nvidia具备明显的份额领先,2021Q2市占率达到83%。2006年AMD收购ATI,2010年放弃ATI品牌后推出AMD Radeon(镭龙)独立显卡系列,2021Q2 AMD独立PC GPU市场份额17%。
24 AI服务器与加速芯片
AI服务器:通常搭载GPU、FPGA、ASIC等加速芯片,利用CPU与加速芯片的组合可以满足高吞吐量互联的需求,为自然语言处理、计算机视觉、机器学习等AI应用场景提供强大的算力支持,支撑AI算法训练和推理过程。
AI加速芯片:由于CPU并不适合大规模并行计算,因此需要加速芯片执行AI算法,目前AI加速芯片主要包括图形处理器(graphics processing unit,GPU)、现场可编程门阵列(field-programmable gate array,FPGA)、专用集成电路(application specific integrated circuits,ASIC)、神经拟态芯片等。
25 GPU是AI服务器首选加速方案
服务器是AI核心基础设施。根据IDC数据,2020年中国AI基础设施市场规模为393亿美元,同比增长268%,并将在2024年达到780亿美元,其中2020年服务器市场规模占AI基础设施的87%以上,承担着最为重要的角色。
互联网行业是AI服务器最大采购行业。根据IDC数据,2020年上半年,互联网占整体加速计算服务器市场近60%的份额,同比增持超过100%;政府行业和服务业分别依次位居第二位和第三位。
GPU服务器是AI加速方案首选。IDC预计2021年中国GPU服务器占比919%左右的市场份额,是数据中心AI加速方案首选。根据IDC数据,2019年中国GPU服务器市场规模达到20亿美元,预计2024年将达到64亿美元。
26 AI服务器通常配置多个GPU芯片
GPU加速服务器能够提供优秀的浮点计算能力,从容应对高实时、高并发的海量计算场景,例如深度学习、科学计算、3D动画渲染、CAE等应用场景。
3NVIDIA:全球GPU巨头
31 全球GPU巨头
Nvidia成立于1993年,1999年上市,市值近10年增长超过83倍,近6年增长超过49倍。截至2021年11月5日,Nvidia总市值7438亿美元,总市值美股排名第七,是目前全球市值最大的半导体公司。(报告来源:未来智库)
32 三大因素推动地位提升
技术革新、场景拓展、外延并购,Nvidia引领全球GPU发展。
GPU架构:Nvidia坚持每2-3年推出一代新的GPU架构,持续保持技术领先,新的Ampere已经采用7nm工艺;应用场景:从最初图形处理到通用计算,再到AI深度学习和自动驾驶,Nvidia不断推动GPU应用场景的突破;外延并购:2000-2008年Nvidia密集收购额多家公司,涵盖显卡、图形处理、半导体等多个领域,2020年宣布计划收购ARM。
33 近年业绩高速增长
Nvidia产品主要分为两大类:图形处理、计算&网络。下游市场包括游戏、专业可视化、数据中心、汽车四大类。
2020年Nvidia营收1668亿美元(yoy+527%),净利润433亿美元(yoy+549%),其中图形处理业务营收983亿美元,计算&网络业务营收684亿美元。除去2019年游戏市场需求波动造成业绩下滑外,Nvidia近5年营收、利润均保持较快增长。
得益于基于Ampere架构新GPU产品带动游戏业务高增,以及数据中心对算力需求旺盛,2021上半年Nvidia营收、净利润快速增长。
34 游戏是最大市场,数据中心市场增速较快
Nvidia下游市场分为四类:游戏、专业可视化、数据中心、汽车,各市场重点产品如下:
游戏:GeForce RTX/GTX系列GPU(PCs)、GeForce NOW(云游戏)、SHIELD(游戏主机);专业可视化:Quadro/RTX GPU(企业工作站);数据中心:基于GPU的计算平台和系统,包括DGX(AI服务器)、HGX(超算)、EGX(边缘计算)、AGX(自动设备);汽车:NVIDIA DRIVE计算平台,包括AGX Xavier(SoC芯片)、DRIVE AV(自动驾驶)、DRIVE IX(驾驶舱软件)、Constellation(仿真软件)。
35 计算业务驱动高成长
计算业务是Nvidia成长的主要驱动力:数据中心已成规模,智能汽车将进入收获期。
在数据中心市场,Nvidia拥有芯片、硬件、硬件的全栈布局。得益于全球AI应用场景的快速增加,对算力的需求飙升。是Nvidia成长最快的市场,2020年营收达到约6696亿美元,近4年CAGR达到685%,远高于游戏市场的176%。2020年Nvidia数据中心市场营收占比已经超过40%,预计未来仍将继续提升。
在智能汽车市场, Nvidia形成了全栈式自动驾驶解决方案。AGX Xavier芯片于2018年开始出货,下一代自动驾驶芯片Orin计划用于2022年量产,算力将达到254TOPS,目前已经获得蔚来、理想、沃尔沃、奔驰等多个整车厂定点项目。我们认为2022年高阶自动驾驶汽车或将集中落地,Nvidia自动驾驶将进入收获期。
36 中国大陆收入贡献提升
Nvidia中国大陆收入快速增长。2020年Nvidia来自中国大陆收入3886亿美元,同比增长423%,近4年CAGR达到314%,同期Nvidia整体营收CAGR为246%。
Nvidia中国大陆收入占比呈上升趋势。2020年Nvidia中国大陆收入占比达到233%,相比于2016年的189%提升44pct,2021上半年Nvidia中国大陆收入占比256%,上升趋势明显。
我们预计中国大陆占比仍将提升。图显业务层面,人均收入提升将带动PC需求增加;计算业务层面,目前中国大陆在AI算法、应用层面具有领先优势,自动驾驶场景也将率先得到释放。
4景嘉微:国产GPU领军
41 国内唯一商用GPU公司
景嘉微成立于2006年,公司主营业务分为图形显控、小型专用化雷达、GPU芯片三类。其中图显、雷达产品主要面向军用市场,GPU芯片产品包括JM5400、JM7200,其中JM5400主要应用于公司图显模块中,JM7200成功拓展了民用和信创市场。2021年9月,公司第三代GPU芯片JM9成功流片,目前正在进行性能测试。
42 两个系列、三款GPU量产应用
景嘉微已完成两个系列、三款GPU芯片量产应用。第一代GPU产品JM5400于2014年流片成功,主要支撑军用装备,已在国产军用飞机上实现了对ATI M9、M54、M72等芯片的替代;第二代产品JM7200于2018年8月流片成功,性能与 Nvidia的GT640显卡相近。在JM7200基础上,公司又推出
作者 | 赵广立
近年来摩尔定律“失速”,使得中央处理器(CPU)的性能增长边际成本急剧上升。有研究数据表明,现在CPU的性能年化增长率(面积归一化之后)仅有3%左右。然而,人们对计算的需求依然爆发性增长。
在此背景下,包括人工智能(AI)芯片在内的专用计算芯片陆续登上 历史 舞台,绽放光芒。眼下,以数据为中心的专用处理器“DPU”正成为专用计算芯片的“新贵”。美国芯片巨头英伟达公司甚至将其定位为数据中心继CPU和图形处理器(GPU)之后的“第三颗主力芯片”,掀起了行业热潮。
和CPU、GPU“三足鼎立”,DPU真有如此大的潜力吗?它的应用场景有哪些?我国能抓住DPU发展机遇吗?近日,由中国科学院计算技术研究所(以下简称中科院计算所)主编,中科驭数(北京) 科技 有限公司、中国计算机学会集成电路设计专业组、计算机体系结构国家重点实验室联合编写的行业首部《专用数据处理器(DPU)技术白皮书》(以下简称《DPU技术白皮书》)发布。结合上述问题,《中国科学报》联系采访了主要编写人员一探究竟。
“DPU最直接的作用是作为CPU的卸载(offload)引擎,其效果是给CPU‘减负’。”《DPU技术白皮书》主编、中科院计算所研究员鄢贵海告诉《中国科学报》,作一形象比喻,DPU提供了数据中心一把“杀鸡”的工具,节省的是CPU这把“牛刀”,以释放CPU算力,留给更需要它的业务负载。
接管CPU的网络协议处理任务,就是一个很好的例子。鄢贵海说,比如在数据中心仅线速处理10G的网络,大概就需要一个8核高端CPU一半的的算力,而如果是40G、100G甚至更高速的网络,性能开销更大。
云计算巨头亚马逊云服务(AWS)形象地称之为“数据中心税”——还未运行业务程序,接入网络数据就要占去许多计算资源。
“DPU诞生的使命就是承载网络虚拟化、硬件资源池化等基础设施层服务,以释放CPU的算力到上层应用。”《DPU技术白皮书》编委会成员、中科驭数高级副总裁张宇解释说,将“CPU处理效率低下、GPU处理不了”的负载卸载到专用的DPU,就能实现对“数据中心税”的抵消,从而有助于提升整个计算系统的效率、降低整体系统的总体拥有成本。
张宇介绍称,DPU主要处理网络数据和输入输出(IO)数据,并提供带宽压缩、安全加密、网络功能虚拟化等功能。“这些可以说是离我们普通用户每天感知到的各种应用最远的功能了。而这些基础功能是实现日常应用更高效、更安全、更实时的保障。”
业界对DPU中的“D”有三种说法,因此DPU就有三个中文名。
一种是“Data”,DPU被称为“数据处理器”;一种是“Datacenter”,DPU译作“数据中心处理器”;一种是“Data-centric”,相应的,DPU可叫作“以数据为中心的处理器”。
“以上三种关于DPU的说法,从不同角度反映DPU的特征,都有一定的可取之处,我们认为可以作为不同的三个维度来理解DPU的内涵。”李晓维说。
“随着‘软件硬件化’成为常态,异构计算的潜能将因各种DPU的普及而彻底发挥出来。”《DPU技术白皮书》编委会成员、中科驭数联合创始人兼CTO卢文岩认为,新一代的DPU不仅可以作为运算的加速引擎,还具备“控制平面”(即追求数据处理功能的覆盖面)的功能,能更高效地完成网络虚拟化、IO虚拟化、存储虚拟化等任务,彻底将CPU的算力释放给应用程序。
“可以说,DPU的出现将让各行各业的业务层数字化应用更全面、更流畅、更绿色。”卢文岩说。
从市场规模角度来看,根据Fungible公司和英伟达公司的预测,用于数据中心的DPU量级将达到和数据中心服务器等量的级别。
“服务器每年新增大约千万量级,一台服务器可能没有GPU,但一定会有一颗或者多颗DPU,好比每台服务器都必须配网卡一样。”鄢贵海说,服务器每年新增大约1500万台,每颗DPU以1万元计算,这将是千亿量级的市场规模。
在这个千亿量级市场中,国际传统芯片巨头如英伟达、英特尔、Marwell、博通等厂商,都在积极布局DPU产品研发。
这些芯片巨头的布局并不意外,他们或有智能网卡研发基础(如博通)继续延伸技术触角,或通过并购专用加速芯片公司(如英伟达、英特尔)补充其在DPU领域的技术能力。相比它们,更值得一提的是,亚马逊旗下的AWS和阿里云两大云计算巨头,早已注意到数据中心开销问题,并已有了良好实践。
据《DPU技术白皮书》显示,2013年,AWS研发了Nitro产品,将为虚拟机提供远程资源、加密解密、故障跟踪、安全策略等服务程序的资源开销,全部放到专用加速器上执行,“轻量化管理程序+定制化硬件”的上场一举节省30%CPU资源。几乎在同期,阿里云也着手研发“神龙架构”(X-Dragon系统),以硬件化的MOC卡统一支持网络、IO、存储和外设的虚拟化,如今“神龙架构”已经更迭到了第4代。
“可见,DPU其实在行业内已经孕育已久,从早期的网络协议处理卸载,到后续的网络、存储、虚拟化卸载,其带来的作用非常显著,只不过在此之前DPU‘有实无名’,现在是时候迈上一个新的台阶了。”鄢贵海表示。
可喜的是,国内一些围绕DPU技术的创业公司也逐渐崭露头角。除了参与编写《DPU技术白皮书》的中科驭数之外,还有云豹智能、星云智联、芯启源、云脉芯联等新近成立的 科技 创业公司,展现出良好势头。
以中科驭数为例,这家创始团队来自中科院计算所的初创企业,在DPU理论基础、数据中心架构方面有着深刻理解,工程实现经验也因一些来自亚马逊、赛灵思、华为等核心骨干的加入,得到了很好的积累。2019年,中科驭数完成第一代DPU芯片的流片,预计将于2022年推出第二代DPU芯片“K2”。
“我们认为DPU的潜力确实是巨大的。”在鄢贵海看来,从技术发展的角度来看,DPU的出现有一定的必然性——上层应用对于算力的需求在过去5年急剧增长,使得DPU的应用场景很多,它将广泛分布在5G、云计算、大数据、数据中心和边缘计算等领域。
而从工业和信息化部今年发布的《新型数据中心发展三年行动计划(2021—2023年)》中,鄢贵海更是看到了新型算力芯片难得的 历史 发展机遇。
该计划明确提出要加快提升算力算效水平,“推动CPU、GPU等异构算力提升,逐步提高自主研发算力的部署比例”“加强专用服务器等核心技术研发”“树立基于5G和工业互联网等重点应用场景的边缘数据中心应用标杆”等要求和措施。
“虽然国内厂商在芯片产品化的环节相比国外一线厂商还有差距,但是在DPU架构的理解上是有独到的见解的,而且我国目前在数据中心这个领域,无论是市场规模、增速还是用户数量,相较于国外都有巨大的优势。”鄢贵海认为,国内厂商有望充分利用这一“应用势能”,加快发展步伐,在DPU这个赛道与国外厂商“逐鹿中原”。
不过,挑战与机遇并存。
“目前要解决DPU标准化应用,还存在一定挑战。”鄢贵海解释道,由于数据中心本身的复杂性,各大厂商一方面采用商用现货组件(即COTS)来构建系统,追求低成本,一方面又设法分层服务化,打造面向不用类型客户的标准化产品,但除此之外的所有技术实现几乎都是“八仙过海,各显神通”——如AWS有Nitro,阿里云有MOC。
加光影MOD。MC我的世界这个游戏对画质要求很低且游戏类型偏向占用CPU,因此你可以提高画质来增加GPU占用率。
《我的世界》(Minecraft)是由Mojang Studios开发,在中国由网易代理的沙盒式建造游戏,游戏于2017年8月8日在中国大陆独家运营。游戏创始人为马库斯·佩尔松,也称为notch,其灵感源于《无尽矿工》、《矮人要塞》和《地下城守护者》。
玩家可以在游戏中的三维空间里创造和破坏各种各样的方块,甚至在多人服务器与单人世界中体验不同的游戏模式,在高度的自由中,玩家们也自己创作出了大大小小的玩法,打造精美的建筑物,创造物和艺术品。且游戏平台已囊括了移动设备和游戏主机。
玩法介绍:
玩家们可以自由选择游戏模式 [生存、创造、冒险、极限 (仅Java版) 和旁观模式(仅Java版) ]。在各种模式中体验不一样的有趣玩法,在生存模式中享受打怪、冒险等多种乐趣,在创造模式下享受当创世神的乐趣。
0条评论