AI,太耗电了

发布时间:2024-06-15 14:54   内容来源:证券之星      阅读量:6078   

如果您希望可以时常见面,欢迎标星收藏哦~

如今,用于人工智能工作负载的最强大的新型数据中心 GPU 的功耗可高达 700 瓦。以 61% 的年利用率计算,每个 GPU 每年的耗电量约为 3,740,520 Wh 或 3.74 MWh,这加剧了人们对电力供应和环境影响的担忧,尤其是当我们将视线拉远,看看仅去年一年售出的 GPU 总数量时。

Nvidia 去年售出了 376 万个数据中心 GPU,占市场份额的 98%。再加上英特尔、AMD 和其他厂商剩余的 2%,到 2023 年,交付给数据服务器的 GPU 将超过 383.6 万个。

将这一数字乘以去年数据中心 GPU 的总交付量,一年的用电量将达到 14,348.63 千兆瓦时。这意味着去年售出的数据中心 GPU 的耗电量相当于 130 万个家庭一年的用电量。如果我们从州的层面来看,加利福尼亚州能源委员会的报告显示,2022 年该州的发电量为 203,257 千兆瓦时,这意味着数据中心 GPU 的耗电量约占该州年发电量的 7%。

不过,您应该记住,这些只是数据中心的 GPU。这里的数据不包括 CPU、冷却系统和数据中心正常运行所需的其他设备。例如,大多数 RTX 4090 建议使用至少 850 瓦的电源,有些甚至需要 1000 瓦甚至 1200 瓦。如果按照最低标准计算,去年建造的服务器和数据中心每年需要超过 25 千兆瓦时的电力。这些数字甚至不包括 2022 年及以前的数据中心,也不考虑今年即将上线的更多数据中心。

据行业分析师估计,到 2028 年,数据中心 GPU 市场将以每年 34.6% 的速度增长,这意味着在未来几年中,我们可能会看到更多的数据中心 GPU 涌现出来。此外,Nvidia 的下一代 AI GPU 预计将比目前 700 瓦的 H100 耗电更多。即使数据中心计算机在未来几年内保持其耗电量,数据中心的电力需求也会随着市场的增长而成正比增长。

数据中心的空前崛起引发了人们对电力基础设施的担忧。事实上,美国政府已经在与科技公司就人工智能的电力需求进行谈判,特别是这些新的数据中心可能会给电网带来过大的压力。Meta 创始人马克-扎克伯格甚至表示,有限的电力将制约人工智能的发展,尤其是 Enerdata 公司指出,在过去十年中,全球发电量每年仅增长 2.5%。

尽管如此,科技公司对这一问题并非视而不见。微软作为一家传统的软件公司,甚至正在寻求为其数据中心投资小型模块化核反应堆。这一点尤为重要,因为它与 OpenAI 合作建造价值 1000 亿美元的人工智能超级计算机,这肯定需要大量电力。

在数据驱动的社会中,人工智能的崛起意味着我们需要大量电力来满足计算需求。此外,我们还不能忘记其他即将出现的技术,它们也需要大量电力,比如电动汽车。除非我们找到一种方法,开发出既能提供更多电力,同时又能消耗更少电力的芯片,否则我们很可能不得不增加更多的电力生产设施,并升级配套基础设施,以便在需要的地方提供电力。

点这里加关注,锁定更多原创内容

今天是《半导体行业观察》为您分享的第3797期内容,欢迎关注。

『半导体第一垂直媒体』

实时 专业 原创 深度

公众号ID:icbank

喜欢我们的内容就点“在看”分享给小伙伴哦

声明:本网转发此文,旨在为读者提供更多资讯信息,所渉内容不构成投资、建议消费。文章内容如有疑问,请与有关方核实,文章观点非本网站观点,仅供读者参考。

热门图文