人工智能在逐渐演变成完整的工业生态系统的同时, 也正在逐渐增加消耗前所未有的电力。无论是生成式模型、大型语言模型(LLM),还是多模态智能体,它们在数据中心的运行都依赖于一个共同支柱:电力容量。在人工智能飞速发展的背后,能源消耗问题也日益凸显,成为业内关注的焦点。甚至有人提出,“AI的尽头是算力,而算力的尽头是电力”。
随着模型规模不断扩大、实时推理需求持续上升,AI行业面临着新的问题不“我们是否有足够的电力来驱动它们”?
AI电力需求的指数式增长
根据国际能源署(IEA)的预测,到2030年,全球数据中心的用电量预计将翻倍,达到每年约945太瓦时(TWh)。其中,为AI优化的高性能数据中心的电力消耗可能是当前的四倍,相当于在全球电网中增加一个中等发达国家的全年电力需求。就功耗而言,传统数据中心的规模可能在10-25兆瓦(MW)左右。超大规模、专注于人工智能的数据中心的容量可达100兆瓦或更高,每年的用电量相当于10万户家庭的用电量。以人工智能为中心的数据中心的规模正在不断扩大,以容纳越来越大的模型和日益增长的人工智能服务需求。
2020年,GPT-3训练耗电约300兆瓦,而