人工智能能源需求不断增长,电网压力巨大

人工智能系统非常耗能。每次查询模型时,整个系统都会被激活。因此从计算角度来看,这是非常低效的。这些系统,尤其是从头开始生成内容的大型语言模型(LLM),需要大量的计算工作。据研究,人工智能系统消耗的能量比运行特定任务软件的机器高出约33倍。

人工智能技术的快速扩张,给全球电网带来了巨大压力。

人工智能系统非常耗能。每次查询模型时,整个系统都会被激活。因此从计算角度来看,这是非常低效的。这些系统,尤其是从头开始生成内容的大型语言模型(LLM),需要大量的计算工作。据研究,人工智能系统消耗的能量比运行特定任务软件的机器高出约33倍。

人工智能能源需求不断增长,电网压力巨大

隐形能源成本

虽然用于与AI模型交互的个人电脑和智能手机不是主要的能源消耗者,但真正的负担落在全球庞大的数据中心身上。这些中心通常不为公众所知,但处理着大量数据和计算任务。2022年,全球数据中心消耗了460太瓦时(TWh)的电力。国际能源署(IEA)预计,到2026年,这一数字将翻一番,达到1000TWh,相当于日本的总用电量。

数据中心对于存储和处理大量数据至关重要,不仅支持人工智能,还支持加密货币和其他数字服务。一些地区感受到的压力更为严重。在都柏林,新数据中心建设的暂停反映了这些设施的大量能源消耗,这些设施目前消耗了爱尔兰近20%的电力。与此同时,爱尔兰家庭正在减少能源使用量。

需求上升和基础设施紧张

在英国,国家电网预测,未来十年数据中心的电力需求将增长六倍,这主要得益于人工智能的发展。然而,电气化运输和供暖所需的总能源预计会更高。美国的公用事业也面临着数据中心需求增加的压力,与此同时,受政府政策刺激,国内制造业也出现复苏。

由于当地能源基础设施承受巨大压力,这种同时出现的需求激增正促使一些州重新考虑对数据中心开发商的税收优惠。

总之,随着人工智能(AI)技术的快速发展,其能源需求也显著增加,对电网造成了巨大的压力。以下几点概述了这一现象及其影响:

1. 计算需求增加:

AI模型尤其是深度学习模型,通常需要大量计算资源来进行训练和推理。例如,大型语言模型如GPT-4需要数百个甚至上千个GPU或TPU,并持续运行数周或数月才能完成训练。 这些计算任务不仅需要高性能的硬件支持,还需要大量的电力来驱动这些硬件。

2. 数据中心的能源消耗:

AI训练和推理工作大多在数据中心进行。这些数据中心通常包含成千上万台服务器,需要大量电力来运行和冷却。 数据中心的电力需求已经占全球电力消耗的1-2%,而AI相关的工作正在显著增加这一比例。

3. 可再生能源的挑战:

尽管许多技术企业致力于使用可再生能源来为其数据中心供电,但不稳定的可再生能源(如风能和太阳能)在面对高峰需求时可能难以提供足够的电力。 因此,电网需要具备足够的弹性和备用电源,以应对AI工作负载的高峰期。

4. 电网压力:

AI的能源需求会导致电网负荷增加,特别是在计算任务密集的时期。例如,当多个大型AI模型同时训练时,可能会对电网造成显著的瞬时负荷。 电网需要进行升级和扩展,以满足日益增长的需求,包括改进基础设施和智能电网技术,以更有效地管理和分配能源。

5. 碳足迹与环保:

大量的电力消耗不仅增加了电网压力,也对环境产生了影响。除非使用清洁能源,否则AI相关的电力需求会导致大量的碳排放。 因此,如何平衡AI发展的能源需求与环保目标成为一个重要的议题。

总之,随着人工智能技术的发展,其对电力的需求也在不断增长,这对现有的电网系统提出了巨大的挑战。为了应对这一情况,需要在技术、政策和管理层面采取一系列措施,以确保电网能够稳定、高效地支持人工智能的发展,同时尽量减少对环境的负面影响。

THE END
免责声明:本站所使用的字体和图片文字等素材部分来源于互联网共享平台。如使用任何字体和图片文字有冒犯其版权所有方的,皆为无意。如您是字体厂商、图片文字厂商等版权方,且不允许本站使用您的字体和图片文字等素材,请联系我们,本站核实后将立即删除!任何版权方从未通知联系本站管理者停止使用,并索要赔偿或上诉法院的,均视为新型网络碰瓷及敲诈勒索,将不予任何的法律和经济赔偿!敬请谅解!