AI技术的蓬勃发展对大型科技公司产生了深远影响,导致其能源消耗和碳排放激增。大型语言模型如ChatGPT的成功,推动了能源需求的激增。据非营利研究机构电力研究研究所的数据,AI查询所需的电量约为传统Google查询的10倍,每ChatGPT请求为2.9瓦时。新兴的AI能力,如音频和视频生成,可能会增加能源需求。 AI的能源需求正在改变能源公司的计算。他们现在正在探索以前不可行的选项,例如重启1979年三哩岛核电站灾难后一直停机的核电站。数据中心的持续增长已有几十年,但在大型语言模型时代,这种增长的规模尤其惊人。AI需要比预AI时期的数据中心增长速度更多的计算和数据存储资源。 **AI与电网** AI导致电网——在许多地方已经接近其容量极限或容易出现稳定性挑战——承受了前所未有的压力。电网增长与计算增长之间存在显著滞后。数据中心建设需要1到2年时间,而增加电网新电力则需要超过4年。 电力研究研究所最近的一份报告指出,美国有15个州占据了80%的数据中心。例如,维吉尼亚州,被称为数据中心走廊,其电力消耗中超过25%被数据中心消耗。世界其他地区也出现了数据中心集群增长的趋势。例如,爱尔兰已成为数据中心国家。 AI对电网和气候产生了重大影响。 除了需要增加更多电力来维持这种增长外,几乎所有国家都在追求脱碳目标。这意味着它们正在努力将更多的可再生能源融入电网。风能和太阳能等可再生能源是间歇性的:风不一定吹,太阳不一定照耀。缺乏廉价、绿色且可扩展的能源存储意味着电网面临更大的问题,即如何匹配供应与需求。 数据中心增长的其他挑战包括增加水冷效率以提高效率,这会加剧有限的淡水资源的压力。因此,一些社区正在反对新的数据中心投资。 **更好的技术** 行业正在采取几种方式来应对这一能源危机。首先,计算硬件在每瓦特消耗的能源执行的操作方面在过去几年中已经显著变得更加节能。数据中心的功率使用效率,即计算功率与冷却和其他基础设施功率的比率,平均为1.5,甚至在高级设施中达到令人印象深刻的1.2。新数据中心采用更高效的冷却方法,如水冷和利用可用的外部凉爽空气。 不幸的是,仅靠效率并不能解决可持续性问题。实际上,Jevons悖论指出,效率可能会导致长期能源消耗增加。此外,硬件效率提升已经大幅放缓,因为芯片技术扩展遇到了限制。 为了继续提高效率,研究人员正在设计专门的硬件,如加速器、新的集成技术,如3D芯片,以及新的芯片冷却技术。 同样,研究人员正在越来越多地研究和开发数据中心冷却技术。电力研究研究所的报告支持新的冷却方法,如辅助空气液体冷却和浸没冷却。虽然液体冷却已经进入数据中心,但只有少数新数据中心实施了仍在开发的浸没冷却。 在液体中运行计算机服务器——而不是在空气中——可能是更有效冷却它们的一种方式。Craig Fritz,美国国家实验室 **灵活的未来** 一种新的AI数据中心建设方式是灵活计算,其核心思想是在电力更便宜、更可用且更绿色时计算更多,而在电力更昂贵、稀缺且污染时计算更少。 数据中心运营商可以将其设施转换为电网上的灵活负载。学术界和行业已经提供了数据中心需求响应的早期示例,其中数据中心根据电网需求调节其功率。例如,它们可以安排某些计算任务在非高峰时段进行。 为了实现更大规模和更大范围的电力消耗创新,需要在硬件、软件和电网-数据中心协调方面进行创新。特别是对于AI,有大量空间来开发新的策略来调整数据中心的计算负载和因此的能源消耗。例如,数据中心可以调整准确性以减少训练AI模型的工作量。 实现这一愿景需要更好的建模和预测。数据中心可以尝试更好地理解和预测其负载和条件。预测电网负载和增长也非常重要。 电力研究研究所的负荷预测倡议涉及帮助电网规划和运营的活动。全面监控和智能分析——可能依赖于AI——对于准确预测至关重要,无论是对于数据中心还是电网。 **在边缘** 美国正处于AI爆炸性增长的关键时刻。将数百兆瓦的电力需求融入已经紧张的电网是非常困难的。也许是时候重新考虑行业如何建设数据中心了。 一种可能性是可持续地建立更多边缘数据中心——更小、分布更广的设施——将计算带到当地社区。边缘数据中心也可以可靠地为密集的都市地区增加计算能力,而不会进一步加剧电网的压力。虽然这些较小的中心目前占美国数据中心的10%,但分析师预计小型边缘数据中心市场在未来五年内将增长超过20%。 除了将数据中心转换为可控制的负载外,在边缘数据中心空间进行创新可能使AI的能源需求变得更加可持续。
Tag: