腾讯服务器为什么在海里,第1张

因为把服务器放到海里能实现自然降温,冷却服务器,不会让服务器过热,产生爆炸等危险。

要知道,腾讯支持着全国各种业务、软件的使用,所需要用到的服务器可想而知有多少,为了使这么多服务器可以尽量节约成本的情况下冷却,放在海里是最好的选择。

2014年微软开始着手将服务器放置于水下的计划,同年开始在海里做投放实验,他们将300台电脑的服务器,放置进一个重约十七吨的密封舱内,该密封舱是全钢制的。而且密封舱内同时还装载着100多个传感器。岸上的工作人员随时可以通过这些传感器感知到水压和温度,便于及时发现并处理特殊情况。

一切就绪后微软的团队将这个密封舱投入加州海岸的近海区。第一次试验结束后,为证明海底数据中心是可行的。2019年微软又进行了第二次海底数据试验,这次的实验规模更大,装载的电脑服务器更多,一共有864台电脑服务器,相比较第一次的钢制密封罐。

这次试用的密封设备更像一艘小型潜艇,它的长度超过十米。而这次的实验周期为期五年。同样将服务器放在水里的还有阿里巴巴,阿里将自家服务器藏在了千岛湖里面,去过旅游的游客应该有听导游介绍过吧。服务器在运行过程中会散发大量热气,此时必须做好散热,不然可能会有烧坏的风险。

在我们的印象中,数据中心应该是一排排的机柜整整齐齐地码放在一个很大的场地中。

但在服务器背后的过道里,可以看到服务器闪烁的蓝色和绿色LED指示灯将整个过道都照亮了,里面有数不清的风扇将热空气从服务器机架送到冷却设备中。

即使数据中心不断增加空调散热系统,也很难缓解数据中心内部存在的局部热岛问题,冷空气与热空气直接混合,冷量浪费很大,机柜上部的设备得不到需求的冷量。

于是冷通道遏制系统流行起来,将数据中心冷通道密封处理后,95%左右的冷风可以直接送到冷通道内而进入服务器机柜,所有机柜排出的热风被空调机组吸走。

光从这些点可能我们很难想象一个数据中心庞大的散热系统。将一辆普通的自行车放到Google数据中心的各种颜色的水管中,简直可以震撼到我们。每根管道都被涂上了各种各样的颜色,这样可以方便的区分出每个管道的用途。比如粉色管道可能是从冷水机抽来的冷水,而绿色管道可能是送往室外冷却塔的热水。

由此可见,传统的数据中心需要很大面积的占地空间,需要耗费巨量的电费同时维持机架上的服务器运行、空调降温系统的运行。所以像Google、微软、阿里、腾讯等科技巨头在不断的尝试:因地制宜的采用外界自然资源来帮助数据中心省电、节能、减碳。微软水下数据中心进程2015年,微软Natick水下数据中心项目团队在太平洋海底部署第一个数据中心,并在海底停留了105天。这个阶段主要是了解在全球范围内部署海底数据中心的利弊,以确定由离岸可再生能源提供动力的海底数据中心的可行性。

海底数据中心的优势大量的沿海海床可以免费使用,而不必付产地使用费,不用建设庞大的基础设施。可以利用海洋的潮汐运动、和海面风能产生的廉价电力为数据中心供电。数据中心在海底可以用海水来进行服务器的冷却,并且可以避开绝大部分的自然灾害。世界50%的人口生活在海岸线附近,并且全球互联网的主干光缆都位于海底。海底数据中心可以减少数据包延迟。

2018年Natick项目在英国苏格兰奥克尼群岛附近的3566米深的海底建立了一个数据中心,这艘长12米的密封舱,里面有12个机架,864台服务器。为了减少氧化,密封舱内吸走了水份和氧气,取而代之的是氮气。

今年7月份,这台水下数据中心打捞了起来,864台服务器只有8台发生了故障。水下数据中心采用的是流动的海水自然冷却散热,可靠性却是其他同类产品的8倍。

微软水下数据中心意义重大对于在商言商的企业来说:利用风能/潮汐发电的电费便宜、水下数据中心不用产地使用费、不用降温/散热系统、又减少了维护成本,省下来的庞大开支就是利润。

一个传统典型的数据中心产地费用占15%,电力能耗占据所有成本支出的20%。其中能源消耗大约只有47%的部分进入了服务器,41%的部分散热消耗掉了。据统计,全球的数据中心每年消耗的电量占全球总电量的2%左右,可以想象微软海底数据中心对于节能减碳的意义。以上个人浅见,欢迎批评指正。认同我的看法,请点个赞再走,感谢!喜欢我的,请关注我,再次感谢!

DABAN RP主题是一个优秀的主题,极致后台体验,无插件,集成会员系统
网站模板库 » 腾讯服务器为什么在海里

0条评论

发表评论

提供最优质的资源集合

立即查看 了解详情