找回密码
 注册

Sign in with Twitter

It's what's happening?

微信登录

微信扫一扫,快速登录

萍聚头条

查看: 123|回复: 0

训练AI大模型过于耗电怎么办?研究人员模仿人脑神经网络,显著提升人工智能性能

[复制链接]
发表于 2025-11-10 11:56 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?注册 微信登录

×
作者:微信文章
w1.jpg

萨里大学研究人员开发出一种新方法,通过模仿人脑的神经网络来提升人工智能(AI)的性能。

据发表在《神经计算》期刊上的一项研究显示,模仿人脑神经连接方式,可显著提升用于生成式人工智能及其他现代AI模型(如ChatGPT)所依赖的人工神经网络的性能。

该方法名为“拓扑稀疏映射”(Topographical Sparse Mapping),其原理是仅将每个神经元连接至邻近或功能相关的神经元,这与人脑高效组织信息的方式类似。

萨里大学高级讲师罗曼·鲍尔博士表示:“我们的研究表明,智能系统可以构建得更加高效,在不牺牲性能的前提下大幅降低能耗。”

研究人员指出,该模型摒弃了大量不必要的连接,从而以更可持续的方式提升性能,同时保持准确率不变。

鲍尔博士补充道:“如今许多主流大型AI模型的训练过程耗电量超过100万千瓦时。以AI当前的发展速度来看,这种能耗水平根本不可持续。”

研究团队还进一步开发了“增强型拓扑稀疏映射”(Enhanced Topographical Sparse Mapping),在训练过程中引入了一种受生物学启发的“剪枝”机制。这一机制模拟了人脑在学习过程中逐步优化神经连接的方式。

此外,研究团队正在探索该方法在其他领域的应用潜力,例如用于构建更逼真的神经形态计算机——这是一种受人脑结构与功能启发的新型计算范式。
Die von den Nutzern eingestellten Information und Meinungen sind nicht eigene Informationen und Meinungen der DOLC GmbH.
您需要登录后才可以回帖 登录 | 注册 微信登录

本版积分规则

Archiver|手机版|AGB|Impressum|Datenschutzerklärung|萍聚社区-德国热线-德国实用信息网

GMT+1, 2025-11-15 23:57 , Processed in 0.131410 second(s), 30 queries .

Powered by Discuz! X3.5 Licensed

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表