萍聚社区-德国热线-德国实用信息网

 找回密码
 注册

微信登录

微信扫一扫,快速登录

查看: 103|回复: 0

AI的尽头是....

[复制链接]
发表于 2024-3-26 15:39 | 显示全部楼层 |阅读模式
作者:四十学艺
20世纪70年代以来,人工智能被称为世界三大尖端技术之一(空间技术、能源技术、人工智能)。也被认为是21世纪三大尖端技术(基因工程、纳米科学、人工智能)之一。在2024年的今天,相信每个人都受到人工智能的影响甚至是冲击。我身边的很多人都已经在用chat-gpt写文章,甚至做设计。作为半个科技工作者,我当然也不例外。当然我不会依赖,我目前的学习方式还是传统的看书查阅。其实都不重要,也许有一天人工智能会改变世界,甚至像很多人想象的那样,人工智能控制人类。但我一点的不担心,因为人工智能的尽头是电力。没电了什么都没有。



这个是一个个人人工智能平台的配置:

CPU: Intel 8th Gen Core i7/9th Gen Core i7/Core i9
GPU: Nvidia RTX 2060/2070/2080
RAM: 8GB/16GB/32GB/64GB
Storage: 1TB HDD or 512GB/1TB/2TB SSD
Display: 17.3-inch (1080p/4K)
Size: 16.1 x 15.9 x 1.1~1.7 inches
Weight: 8.5 pounds

假如你配了4个GPU,每个是250 瓦,1个CPU是150瓦,那么(4×250+150)×1.1=1265瓦,为保万一,再加10%,则为1265×1.1=1391瓦。4个GPU相当于开一匹半的空调。人工智能需要训练,两周下来,电费可是一笔不小的开支。当然这只是个人模型。



目前的主流AI芯片是英伟达的H100,其每颗功率700瓦,1小时的耗电量是0.7度,1年按照61%的使用时间计算,全年耗电量就是3740度。

但这只是一块H100芯片的年耗电量,预计今年年底仅英伟达H100这一款GPU芯片,就会部署350万块。所以如果不考虑其他型号芯片,仅按照每年61%的使用时间计算H100的耗电量,全年耗电量也将高达130亿度。

据统计OpenAI训练GPT-3的耗电量达到1.287吉瓦时,相当于120个美国家庭一年的用电总量。更令人担忧的是,这还仅仅是训练过程中的初期电力消耗。谷歌AI的年耗电量更是高达2.3太瓦时,相当于亚特兰大所有家庭一年的用电量。

据《纽约客》杂志报道,OpenAI的ChatGPT每天可能需要消耗超过50万千瓦时的电力,来响应用户的约2亿个请求。

这意味着,以每个美国家庭每天平均用电29千瓦时计算,ChatGPT用电量是其1.7万多倍。

事实上,比如前段时间的博世互联2024大会上,马斯克在接受博世CEO和董事长的远程采访时直言:

“目前算力增长已经面临瓶颈,很明显,接下来变压器会陷入短缺,紧接着就是电力,等到2025年,我们将没有足够的电力来运行所有的芯片。”

再比如英伟达的CEO黄仁勋,曾公开提出:“如果只考虑算力,我们需要烧掉14个地球的能源”。

这让我想起了,当年的挖矿机。

因此,我觉得也不用太担心人工智能统治人类,实在出现了这种情况,把电停了。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?注册 微信登录

x
Die von den Nutzern eingestellten Information und Meinungen sind nicht eigene Informationen und Meinungen der DOLC GmbH.
您需要登录后才可以回帖 登录 | 注册 微信登录

本版积分规则

手机版|Archiver|AGB|Impressum|Datenschutzerklärung|萍聚社区-德国热线-德国实用信息网 |网站地图

GMT+2, 2024-4-29 07:45 , Processed in 0.050370 second(s), 15 queries , MemCached On.

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表