即时新闻

对话清涟科技董事长王辉:看AI热点,探究液冷发展

来源:新快报     2023年12月29日        版次:A05    作者:

     ■清涟科技董事长王辉。

  近日,美国麻省理工学院布罗德研究所和哈佛大学科学家借助人工智能(AI)的力量,通过筛选数百万种化合物,发现了一类全新的抗生素,能杀死两种不同类型的耐药细菌。这说明,AI的应用已深耕到更加复杂的科研领域,早已不是简单的客户体验。

  AI发展的瓶颈在算力,而算力的发展瓶颈在能耗。能够满足数据中心散热和降能双需求的液冷技术,成了开启数据中心新时代的密钥。

  为此,记者与清涟科技董事长王辉进行了深入探讨。王辉深耕互联网、大数据技术领域,在服务器液冷与能源环保交叉领域获得多项发明与专利,如“一种带有液冷系统的可扩展服务器集装箱”等。清涟科技自主研发的液冷机柜产品广泛应用于数据中心、算力中心、区块链基础设施等领域,王辉也在刚刚举行的第二十一届“中国互联网经济论坛”上荣获2023年度最佳创新人物奖。

  记者:“AI筛选发现全新抗生素”在业内掀起了不小的波动,您如何看当前的AI应用?

  王辉:从OpenAI推出对话式通用人工智能大模型ChatGPT开始,新一轮全球AI热潮便持续发酵,不断冲击热搜。多个人工智能大模型也被迅速推出并快速迭代,抢占了第一名宝座的是百度文心一言,随后华为盘古、360智脑、商汤日日新等诸多AI大模型如雨后春笋般相继问世,被称为“千模大战”。

  从各类热点新闻来看,AI的发展并未止步于大模型之战,而是迅速步入了应用领域,给人类社会带来诸多便利。然而人工智能快速发展的背后离不开海量数据及庞大算力的支撑。

  记者:人工智能的发展需要大量数据及算力,这对行业发展有何影响?

  王辉:从ChatGPT的爆红到“千模大战”,从C端场景的体验到B端业务的落地,人工智能的发展速度远胜移动互联网时代。AI模型所需算力每100天就要翻一倍,远超摩尔定律的18~24个月。

  AI发展进入了新时代。大模型所需要的参数和训练数据量与深度学习时期相比,有了数量级的提升。根据《“十四五”信息通信行业发展规划》,到2025年,全国数据中心算力将达到2020年的3.3倍。算力需求不断扩大也带动服务器市场规模持续攀升,数据中心的投资和建设规模在持续扩张。

  另一方面,海量数据催生了巨大的数据处理和存储需求,作为信息系统运行的重要物理载体,数据中心已成为不可或缺的关键基础设施。数据中心作为基于新一代信息技术演化生成的基础设施,是算力基础设施的典型代表。

  记者:数据中心的发展越来越重要,未来将面临哪些机遇和挑战?

  王辉:大模型的发展同样面临着巨大的挑战。大模型研发依赖算法算力和数据的综合支撑。随着算力规模的爆炸式增长,数据中心散热问题成为制约其发展的瓶颈。据赛迪顾问统计,2019年中国数据中心能耗中约有43%是用于IT设备的散热,几乎与45%的IT设备自身的能耗持平。

  我国出台了多项政策,要求加快推进算力中心的绿色转型和可持续发展。对此,储能系统、充电桩设施、数据服务器等工业热管理领域对散热性能提出小型轻量化、更高效、更节能的升级要求。

  数据中心“快发展”与“高耗能”之间的矛盾不断升级,降低数据中心散热功耗、控制数据中心运营成本迫在眉睫。

  记者:目前数据中心主流散热方式有哪些?数据中心更加倾向哪种方式?

  王辉:目前有两种散热方式,即传统的风冷散热技术和液冷散热技术。

  风冷技术是数据中心当前最为成熟、应用最为广泛的冷却方案之一。不过,风冷技术存在低密度和相对较低的散热能力的缺陷,这一不足对于高性能计算应用的影响尤为明显。此外,风冷技术存在容易过度冷却、环境匹配性较弱、占用空间大等问题,已无法满足数据中心的散热需求。在政策和需求的双重驱动下,高效低碳的液冷技术就成了破局的关键,它不仅改变了散热方式,更有可能变革数据中心的生态,因此推动液冷变革势在必行。

  相较于风冷,液冷具有低能耗、高散热、低噪声、低TCO等优势。液体的冷却能力是空气的1000~3000倍。在冷却效率方面,液冷比风冷至少提高15%~20%。液冷技术可实现高密度、低噪音、低传热温差以及普遍自然冷却等优点,是一种可以适用于需要大幅度提高计算能力、能源效率和部署密度等场景的优秀散热解决方案。

  记者:液冷技术的未来发展空间有多大?

  王辉:尽管液冷产业还有一定的成长空间,但液冷已经成为数据中心的确定性趋势。2023年6月,中国移动、中国电信、中国联通三大运营商联合发布《电信运营商液冷技术白皮书》称,将于2025年实现50%以上项目应用液冷技术,共同推进形成标准统一、生态完善、成本最优、规模应用的高质量发展格局。

  未来,中国数据中心液冷市场将大有可为。

  ■新快报记者 陈学东