导读:
在上一专题“解码数据的脉动”中,我们从AIGC时代趋势以及朝亚的数据中心解决方案等多方面对数据中心行业进行了深入的剖析。技术翩跹的背后,产业也随之不断做出调整。随着AI算法质量的提升与大模型鲁棒性的不断增强,人类跑步进入算力时代。接下来,我们会在“IDC观察室”专题中,进一步阐述新态势下,数字经济的动力引擎——数据中心的方方面面,以飨读者。
高密化,数字经济底座的下一个锚点
伴随着AI、5G、云计算等技术蓬勃发展,数据作为新型生产要素,正在加速扩张。据 IDC 预测:到2025年全球数据总量将达到175ZB。数据中心作为数据存储和数据处理的现代化工厂,承担着“算力载体”和“数据中枢”的重要角色,对于数字经济增长有着重要助推作用,也因此被誉为数字化时代的“幕后英雄”。
如果潜心观察数据中心近年来的趋势便会觉察,如今,“高密”二字愈发频繁地与“数据中心”组合在一起。随着高算力需求的飙升,高密度数据中心逐渐成为热门算力供需的解决方案。与传统数据中心相比,高密数据中心可以更好地利用有限的物理空间和资源、提高数据中心的能源效率、减少对环境影响。
如今,高密化已经逐渐成为数据中心行业大势所趋,工信部印发的《新型数据中心发展三年行动计划(2021-2023年)》中提到,加快提升算力算效水平,引导新型数据中心集约化、高密化、智能化建设[1]。除了政策的支持,市场表现也说明了这一点:据 CDCC 调研,国内全行业数据中心中 8kW 功率密度以上的机柜占比由 21 年的 11%提升至 22 年的 25%,高功率机柜占比提升明显。
高密化已然成为数据中心行业的下一个锚点[ML1] 。然而值得注意的是,虽然高密数据中心为企业扩展基础设施提供了极大的便利,可以应对当下人工智能、数据科学等复杂算力需求,这两者并不存在孰优孰劣的关系:高密数据中心与传统数据中心相辅相成,互为补充,能够为在工作负载类型、预算和业务需求等方面存在不同需求的客户提供灵活的选择。
走近高密度数据中心背后的功耗之需与转型之痛
近年来,各行各业都在加快数字化转型,以数据智能增强业务韧性成为了企业发展的必由之路。生成式AI的发展,更是数据量和计算量的爆发式增长的催化剂。在此背景下,数据中心所承载的计算量越来越大,所需的计算效率越来越高。因此,在数据中心资源尤其是一线城市资源日趋紧张的情况下,只有通过提高机房单位面积的算力、存储以及传输能力,才能最大程度地发挥数据中心的价值,满足大数据场景下的计算与存储需求。
有人说,人类如今已经进入了“算力黄金时代”,算力需求急剧拉升,硬件功耗也随之一路“狂飙”。随着人工智能的应用快速普及,AI芯片正在朝高算力、高集成的方向演进,随着制程越来越先进,其功耗也越来越大。以可以为人工智能训练推理提供广泛应用的GPU为例。据《2021-2022年度中国数据中心基础设施产品市场总报告》预测,到2025年,数据中心的x86 CPU 芯片TDP将提升至350W左右,ARM CPU芯片的TDP将提升至600W左右,而用于人工智能计算的 NPU/GPU 芯片将会提升到750W左右。由此可见,数据中心会面临硬件功耗持续上升的挑战。
此外,随着科学、工程和商业领域对于大规模数据和复杂计算需求的不断增长,高性能计算(HPC)正成为推动科技变革的关键力量。HPC是一种功能强大但在密度、热量和带宽方面要求很高的解决方案。通过聚合结构,HPC可以使用多台计算机和存储设备,以极高速度处理大量数据帮助人们探索科学、工程及商业领域中的一些世界级的重大难题。据Hyperion Research 数据显示,2022 年全球 HPC 市场规模预计将达到 440 亿美元。这对数据中心又带来了 “多台高性能计算机同时运行 “的热量和功率密度的双重挑战。
值得注意的是,高密度数据中心不仅仅意味着性能的提升、占地面积的减少,也对电力、冷却、运维和安全等技术提出了较高的要求。由于数据中心是名副其实的“吃电大户“,如今,我国在大力发展绿色低碳的数据中心产业,各地也纷纷明确、细化能效优化指标。去年,上海发文指出:到2025年,集聚区新建大型数据中心综合PUE降至1.25左右。上个月,北京发布新标并指出:对于已建成并稳定运行一个自然年以上以及改扩建的数据中心,其PUE值应符合1.3限定值的要求;新建的数据中心,其PUE值应符合1.2准入值的要求。PUE作为评价数据中心能源效率的重要指标,在衡量数据中心能耗上有重要意义。由此可见,在高密化的发展的同时,数据中心亦需要在尽力解决芯片在大量计算、推理中产生的过热问题,节能减耗。
迎接机遇与挑战并存的未来
算力前景无穷,更为数据中心行业带来了无限的希望与可能。据《智能世界2030》报告,2030年人类将迎来YB数据时代——全球数据每年新增1YB。对比2020年,通用算力将增长10倍,人工智能算力增长500倍,算力需求十年百倍增长将成为常态。
在过去十年中,亚马逊、Facebook、谷歌和Microsoft等公司的超大规模数据中心也在相对可控的高密化道路上愈行愈远,足以见得高密趋势蕴含无限未来已成为行业通识。在此背景下,精通高性能超大型数据中心的基础设施提供商朝亚也在中国做出了前瞻性的布局:在朝亚推出的全新一代Ingenuity高密度数据中心解决方案中,能够为每个机架提供高达40KW的功率,能够有力支持大模型训练和推理等类型的数据运算,足以见得其对高密数据中心的洞察与信心。
由于算力需求的扩张,数字基础设施性能的跃升所带来的能耗上涨给数据中心的散热也带来巨大挑战。传统风冷散热方式无法精准提高制冷效率。对此,业内人士普遍认为,液冷将是数据中心在AI大趋势中“双碳”背景下的重要解决方案。相比于传统的风冷,液体的比热容高出上千倍,效率大大提升。有数据显示,液冷系统约比风冷系统节省电量30%—50%,能够有效帮助数据中心节能降碳。对此,朝亚数据中心的基础设施设计可同时使用风冷和液体冷,为不同功率密度机柜提供散热解决方案。
在碳达峰碳中和的背景下,推进节能减耗是数据中心行业发展的重中之重。数据中心作为数字经济的坚实“底座”,绿色低碳发展至关重要。在AI技术日新月异的今天,未来的数据中心密度或将持续增长。对厂商来说,时代更迭中,唯一不变的就是变化。唯有顺应时代潮流,勇于迎接高密度新态势带来的重重挑战,才能拥抱更多的机会与可能。
中国香港上环干诺道中90号大新行SPACES13楼1302室
+852 3653 5268