找回密码
 注册

微信登录

微信扫一扫,快速登录

萍聚头条

查看: 298|回复: 0

OpenAI 宣布首个欧洲 AI 数据中心项目 Stargate Norway:明年内部署十万 GPU

[复制链接]
发表于 2025-8-1 22:05 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?注册 微信登录

×
作者:微信文章
点击上方蓝色字体关注我👆

最近,OpenAI在北极圈搞了件“大事”:

宣布要在挪威北部的纳尔维克市建一个巨型数据中心,计划到2026年底部署10万块英伟达显卡。

消息一出,国内科技圈的讨论热度几乎赶上了挪威的水电站发电量。

有人觉得这是“AI算力军备竞赛”的新里程碑,也有人质疑:

“10万块显卡堆在一起,真的能解决AI的算力焦虑吗?”

今天咱们就来唠唠这个话题,看看这个“北极圈大仓库”背后到底藏着啥门道。

一、为什么是挪威?显卡也需要“避暑山庄”

先说个冷知识:

全球数据中心的耗电量占全球总用电量的1%左右,比整个日本还多。

而OpenAI这次选的挪威纳尔维克,既不是硅谷,也不是北上广,偏偏是北极圈内一个常年平均气温只有5℃的工业小城。

这选址背后,藏着一笔精打细算的经济账。

1. 电费比国内便宜一半,水电还能“续命”

  
挪威的电力结构中,水电占比超过90%。

当地水电站多到什么程度?

如果把挪威的水电资源装进一个游泳池,大概能淹没半个欧洲的工业用电需求。

相比之下,国内数据中心的电价普遍在0.3-0.6元/度,而挪威的工业电价常年维持在0.2元/度左右。

算下来,10万块显卡一年省下的电费,足够给整个纳尔维克市居民发3年的供暖补贴。

2. 自然冷却省下一笔,北极圈是显卡的“空调房”

  
数据中心最大的开销除了电费,就是给服务器降温。

OpenAI这次用上了闭环液冷技术,简单来说就是用绝缘液体直接泡着显卡散热,效率比传统空调高3倍以上。

再加上北极圈的天然低温,相当于给服务器住进了“避暑山庄”。

官方说废热还能给当地工厂供暖,听起来像是科技版“废物利用”,但实际效果可能得等冬天到了再看。

3. 欧洲数据主权的“最后一道防线”

  
欧盟最近几年天天喊着“数据主权”,要求AI训练的数据必须留在欧洲本土。

OpenAI这个项目选址挪威,虽然不是欧盟国家,但属于欧洲经济区(EEA):

既满足了“数据不过海”的监管要求,又能避开德国、法国等地严格的能耗审批。

这种“绕道打劫”的选址策略,有点像跨境电商绕开关税找保税仓。

二、10万块显卡到底有多大算力?拿游戏本“换算”一下

显卡数量多,不等于算力无限。

咱们不妨用游戏本做个类比:

一块英伟达H100显卡的价格大概相当于10台顶配MacBook Pro,算力大概是每秒10^18次浮点运算。

OpenAI计划部署的10万块显卡,理论算力相当于100万台顶配游戏本同时开动。

但实际用起来,这数字得打个大折扣。

1. 显卡堆得多,但“排队等活儿”也耗时间

  
显卡算力再强,也得靠软件调用。

就像菜市场摊主再多,顾客结账时还是得排长队。

目前主流AI训练框架(比如PyTorch)对超大规模集群的调度效率只有70%左右。

也就是说,10万块显卡的实际算力可能只有理论值的七成,剩下的三成全耗在“谁先谁后”的协调上。

2. 数据传输速度拖后腿,显卡再快也得“等文件”

  
显卡算得快,但数据从硬盘读到显存的速度跟不上,就像给火箭装自行车链条。

OpenAI这次用的液冷技术虽然能降体温,但解决不了数据传输的瓶颈。

举个例子:训练GPT-4级别的模型,10万块显卡可能需要同时从存储系统读取10TB的数据。

如果存储系统的带宽不够,显卡们只能集体“摸鱼”。

3. 软件适配才是大难题,不是所有AI模型都能“吃满”算力

  
显卡堆得多,但很多AI模型压根用不上这么多算力。

比如现在大热的AI绘画工具,单块显卡就能跑得动。

反倒是大模型训练(比如GPT-5)需要超大规模并行计算,但这类应用目前只占AI场景的5%不到。

换句话说,OpenAI这10万块显卡大部分时间可能在“兼职”跑小模型,算力利用率可能只有40%-50%。

三、环保承诺听着好听,但细节经不起细抠

OpenAI这次把环保口号喊得震天响:

“100%可再生能源”

“废热给工厂供暖”

“闭环液冷零排放”。

但仔细看看技术细节,你会发现这些承诺更像是“科技童话”,现实操作难度不小。

1. 液冷技术维护成本高,漏液风险比传统机房大10倍

  
闭环液冷听起来很酷,但实际运维难度比传统风冷高得多。

绝缘液体需要定期更换,管道密封要求近乎苛刻。

国内某头部云厂商曾测试过液冷机房,结果一年内漏液事故高达12次,维修成本是风冷机房的3倍。

OpenAI这次用的DLC(介电液)技术,每台服务器的维护成本可能比普通机房贵50%以上。

2. 废热供暖是理想,但挪威冬天太“鸡肋”

  
纳尔维克的冬季平均气温-5℃,确实需要供暖。

但数据中心的废热温度只有40-50℃,直接供暖的话得加装热泵提温,这又要多耗10%的电力。

更尴尬的是,挪威工业区集中供暖系统早就在水电站附近布局完毕,OpenAI这个“废热供暖”可能连小区供暖都覆盖不了,最后大概率沦为宣传PPT上的绿色指标。

3. 可再生能源不等于“零碳排放”

  
挪威水电占比高没错,但数据中心建设本身就会消耗大量钢铁水泥。

据估算,Stargate Norway项目的建设阶段将产生约50万吨碳排放,相当于3万辆燃油车一年的排放量。

OpenAI承诺的“100%可再生能源”只覆盖运营阶段,而基建阶段的碳排放至今没提解决方案:

这就像买电动车却用柴油发电机充电,环保效果大打折扣。

四、算力军备竞赛背后的“现实困境”

OpenAI这次砸钱建数据中心,表面上是为GPT-5做准备,但背后藏着三个不得不面对的现实问题:

算力成本飙升、AI模型效率停滞、数据隐私风险加剧。

1. 显卡价格暴涨,算力成本快赶上“天价药”

  
英伟达H100显卡的价格在过去一年涨了3倍,一块卡的价格能换两台iPhone 15 Pro Max。

OpenAI这10万块显卡的硬件成本就高达300-400亿美元,相当于马斯克的“孟菲斯超级集群”(10万块H100)的10倍规模。

但问题是,AI模型的训练效果并没有随着算力投入同步提升。

GPT-4比GPT-3.5多用了10倍算力,但实际性能提升只有15%-20%,这种边际效益递减的趋势,让算力军备竞赛越来越像“烧钱买心理安慰”。

2. 模型效率瓶颈难破,算力堆再多也没用

  
目前主流大模型的参数利用率只有30%-40%。

什么意思呢?

就像你雇了100个程序员写代码,结果60个人在摸鱼,30个人在改bug,真正写新功能的只有10个人。

OpenAI这次用的10万块显卡,可能有6万块在跑冗余计算,3万块在处理数据搬运,真正用来训练有效模型的可能不到1万块。

这种资源浪费,本质上是AI框架和算法的效率短板。

3. 数据隐私风险加剧,欧洲用户未必买账

  
挪威虽然不是欧盟,但属于欧洲经济区,同样受GDPR(通用数据保护条例)约束。

OpenAI这个数据中心一旦泄露用户数据,最高可能面临全球营收4%的罚款,2024年OpenAI营收约30亿美元,罚款超1亿美元。

更麻烦的是,欧洲用户对数据隐私的敏感度远超美国。

挪威本地开发者虽然用ChatGPT的人数翻了四倍,但真要他们把企业数据上传到OpenAI服务器,可能还得打个问号。

五、算力竞赛的终点,或许不在北极圈

Stargate Norway项目落地后,国内液冷概念股,比如高澜股份、英维克早盘集体高开,资本市场对算力基建的热情可见一斑。

但冷静想想,10万块显卡堆出来的数据中心,更像是一个“巨无霸充电宝”:

能解决短期算力饥渴,但治不了AI发展的“贫血症”。

真正的AI突破,可能藏在算法优化、芯片架构创新或者数据效率提升上。

比如最近谷歌开源的Mixture-of-Experts(MoE)技术,用1%的参数量就能达到GPT-3级别的效果;

再比如苹果M4芯片的NPU(神经网络处理器)效率,已经能用10瓦功耗跑动300亿参数模型。

这些“轻量级创新”,或许比堆显卡更能解决AI发展的根本矛盾。

至于OpenAI的北极圈计划,与其说它在建一个“算力圣地”,不如说是在给全球AI玩家打个样:

算力基建需要钱,但更需要克制。

毕竟,再大的数据中心,也装不下人类对AI的无限想象。

(全文完)
Die von den Nutzern eingestellten Information und Meinungen sind nicht eigene Informationen und Meinungen der DOLC GmbH.
您需要登录后才可以回帖 登录 | 注册 微信登录

本版积分规则

Archiver|手机版|AGB|Impressum|Datenschutzerklärung|萍聚社区-德国热线-德国实用信息网

GMT+2, 2025-10-8 09:30 , Processed in 0.084611 second(s), 26 queries .

Powered by Discuz! X3.5 Licensed

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表