人工智能

我们为AI 提供强劲动力——从电网到核心

人工智能(AI)应用的快速发展大大增加了数据中心的能源需求。这带来了一个核心挑战:在践行环保责任的同时扩展人工智能技术。本文将概述应对这一挑战的解决方案。

Internet of Things
Edge AI
Energy
Data centers
文章

人工智能在现代技术中的作用具有变革意义,其发展在根本上依赖于半导体技术的支持。半导体是人工智能的核心,能够驱动、收集、处理并管理系统运行所需的大量数据。从基础运算到让AI“从数据中学习”的复杂机器学习任务,都离不开半导体。

自 2010 年以来,全球每年产生的数据量逐年增长,最初的规模仅为 2 ZB。到 2025 年,这一数字预计将激增至175 ZB——短短15年增长了145倍。

数据是人工智能的命脉,其重要性不言而喻。事实上,人工智能,尤其是机器学习的模型训练严重依赖大量数据,这些数据可以涵盖多种格式,包括文本文档、图像和温度和湿度等传感器读取的数据。通过分析这些数据,AI系统可以识别模式和关联,然后利用这些数据进行预测、决策与内容生成。用于训练AI系统的数据类型与开发人工智能的具体任务密切相关。例如,文本生成 AI 系统(如大型语言模型)需要大量文本数据才能有效运行,而围绕道路交通的预测分析可能依赖传感器采集的数据来做出准确的预测。最终,数据的质量和数量直接影响AI系统的准确性、可靠性和性能。

数据中心作为人工智能的算力基石发挥着关键作用。他们必须全天候地处理海量的数据流。我们看到,人工智能,尤其是生成性人工智能,将加速数据增长,而这种不断增长的数据需求需要无缝连接、更高的带宽、广域覆盖和强大的计算能力。

人工智能 (AI) 应用的快速发展大大增加了数据中心的电力需求。训练和运行AI模型之所以需要消耗能源,是因为机器学习算法的复杂计算需要算力支撑。自 2012 年以来,训练现代AI模型所需的计算能力大约每 3.4 个月翻一番。算力需求的指数级增长直接反映在更高的电力需求上,并增加了网络的总体负载。计算越复杂,耗电量越大。这不仅涉及处理器本身消耗的用电量,还包括配套的基础设施,包括制冷系统和供电网络。

数据中心
数据中心
数据中心

在2025 年 4 月发布的最新《能源和AI报告》中,“Lift-Off ”轨迹模型预测显示,到 2035 年,全球数据中心及其必要基础设施的电力需求将超过 1700 TWh。与 2022 年的约 460 TWh(约占全球电力需求的 2%)相比,这一数字在 13 年内增长了 370%。

简而言之,没有电力支撑,就没有AI。

在人工智能热潮的背后, 是一个计算密集、耗能巨大的过程,它带来了惊人的碳足迹。在拓展AI能力的同时,我们需要意识到其数据中心巨大的能源消耗,这些能源往往来自不可再生资源。此外,AI数据中心需要大量的冷却机制来防止过热,这通常会导致大量的水资源消耗。用于冷却这些大型数据中心的耗水量堪比小型城镇,这给当地的水资源带来了额外的压力。

数据中心
数据中心
数据中心

鉴于这些情况,我们必须注重提高能源效率。例如,这意味着开发更高效的AI算法或通过实施创新、节能的电源管理解决方案来优化数据中心基础设施,从而显著减少电力输送过程中产生的损耗。唯有克服这些挑战,才能在实现环境可持续性的同时,确保AI技术规模化发展的经济可行性。

数据中心
数据中心
数据中心

针对这一新挑战,有很多可行的解决方案。关键在于:解决方案必须覆盖从进入数据中心的电网到核心 AI 处理器(从电网到核心)的能源转换。

英飞凌的创新功率半导体产品组合覆盖从电网到核心的全栈式解决方案,并利用硅(Si)、碳化硅(SiC)与氮化镓(GaN)的优势实现最高的效率、功率密度和稳健性。典型的应用场景包括:架顶式交换机、电源装置、电池备用装置、DC-DC 电路和计算(如 48 V 中间总线转换器、电源模块和分立解决方案)和保护装置。此外,借助我们创新的功率系统可靠性建模解决方案,数据中心可以最大限度地提高电源稳定性和正常运行时间,通过动态系统参数记录实时监控电源健康状况。

数据中心
数据中心
数据中心

在全球范围内,使用各种类型的先进功率半导体可以节省约 48 TWh 的电力。英飞凌分析显示,这相当于减少了超过2200万吨的二氧化碳排放。

展望未来,我们需要应对许多技术挑战,同时不断提高能效和性能。我们需要为AI数据中心提供环保、稳定可靠的能源。这关乎如何在承担环保责任的前提下,推动人工智能技术实现可持续增长。毕竟,没有电力支撑,就没有AI。这一现实鞭策我们不断推进技术进步,确保在AI不断发展的同时,我们为其提供的高效、可靠的供电解决方案也与之同步演进。