切换到宽版
  • 30阅读
  • 2回复

[智能应用]20瓦就能运行下一代AI?科学家瞄上了神经形态计算 [5P] [复制链接]

上一主题 下一主题
在线huozm32831

UID: 329002

精华: 1097
职务: 超级斑竹
级别: 玉清道君
 

发帖
111505
金币
375
道行
19523
原创
29308
奖券
17828
斑龄
197
道券
10550
获奖
0
座驾
 设备
EOS—7D
 摄影级
专家级认证
在线时间: 22341(小时)
注册时间: 2007-11-29
最后登录: 2025-07-11
— 本帖被 兵马大元帅 执行加亮操作(2025-06-22) —

真的要来了!科学家们正试图为AI装上人类大脑。

最新进展由美国国家实验室主导。科学家们正在试图将科幻拉进现实:打造一台占地仅两平方米、神经元数量堪比人脑皮层的超级计算机。
更令人惊叹的是,计算表明,这台神经形态计算机的运行速度可能比生物大脑快25万到100万倍,而功耗仅需10千瓦(仅略高于家用空调的能耗),这无疑是对当前AI发展困境的一剂强心剂。
目前人工智能正面临一场“能源危机”,随着大语言模型等技术的爆炸式发展,其惊人的耗电量已成为无法忽视的沉重负担。
预测显示,到2027年,仅运行这些模型的电费就可能高达25万亿美元——甚至超过美国当年的GDP。
然而相比之下,自然界最强大的智能体——人类大脑,每天只需消耗约20瓦,仅相当于家用LED灯泡的功率。科学家们不禁思考:能否让AI也像人脑一样高效?

答案是:神经形态计算。
这项旨在模拟人脑结构和运作方式的前沿技术,正被视为下一代AI的关键方向,其核心目标之一,就是用“灯泡级”的能耗驱动强大的智能。
神经形态计算:向大脑学习
在人类大脑中,约有860亿个复杂神经元相互工作,并通过100万亿个突触共同构建起一张巨大的信号传递网络。
神经形态计算受其结构和功能启发,采用模仿生物神经网络的节能型电子和光子网络,即脉冲神经网络(SNN)构建,旨在将记忆、处理和学习整合到一个统一的设计中。
其主要特点包含:事件驱动型通信:
仅在峰值和事件驱动下激活必要的电路,从而降低功耗。内存计算:
数据处理发生在存储位置以减少传输延迟。适应性:
系统会随着时间的推移自行学习和发展,而无需集中更新。可扩展性:
神经形态系统的架构允许轻松扩展,可以容纳更广泛和复杂的网络,同时不会大幅增加资源需求。
与当前依靠二进制超级计算机处理的人工智能模型不同,它可以根据对世界的认知进行动态调整,更智能、更灵活,也更不容易被干扰。

举个例子,当测试员穿着印有停车标志的T恤在自动驾驶汽车面前走过,由传统AI控制的汽车因为无法辨别上下文,做出了停车反应。
相反的是,神经形态计算机是通过反馈循环和上下文驱动的校验来处理信息,它能明确判断出停车标识位于T恤上,从而让汽车继续行驶。
这种差异并不让人意外,毕竟神经形态计算模拟的是自然界中最高效、最强大的推理和预测引擎,科学家们也由此相信,下一波人工智能的技术爆发必定是物理学与神经科学的结合。
新一轮技术革命前瞻
目前,相关研究正在如火如荼展开。现有的神经形态计算机,拥有10亿多个神经元,由1000多亿个突触连接,虽然和人类大脑的复杂程度相比还只是九牛一毛,但它也合理证明了,该项技术完全可以实现大脑级扩展。

美国国家标准与技术研究院的Jeff Shainline表示:
一旦我们能够在商业铸造厂实现创建网络的完整流程,我们就可以迅速扩展到非常庞大的系统,能制造出一个神经元,那么制造一百万个神经元就相当容易。
而IBM和Intel等科技公司正处于这场技术革命的最前沿,IBM于2014年研发的TrueNorth芯片以及英特尔在2018年推出的Loihi芯片,都是旨在模拟大脑神经活动的硬件产品,为后续的新AI模型铺平了道路。
此外,一些专注于研究神经形态计算的初创公司也开始崭露头角,例如BrainChip推出了Akida神经形态处理器,专为低功耗但功能强大的边缘AI设计,可以广泛应用于始终在线的智能家居、工厂或城市传感器。

同时据The Business Research Company预计,到2025年,全球神经形态计算市场规模将呈指数级增长,达到18.1亿美元,复合年增长率高达25.7%。
而从更长远来看,科学家们希望神经形态计算将会超越人工智能传统界限,更接近人类智能推理模式,为下一代智能系统乃至于AGI带来全新的技术突破。
山庄提示: 道行不够,道券不够?---☆点此充值☆
 
  




    
在线jjybzxw

UID: 551814


发帖
167724
金币
273165
道行
2004
原创
2404
奖券
2775
斑龄
35
道券
1005
获奖
0
座驾
设备
摄影级
在线时间: 38175(小时)
注册时间: 2008-10-01
最后登录: 2025-07-12
只看该作者 沙发  发表于: 06-16
神经形态计算技术的最新进展确实令人振奋。这项技术的核心在于模拟人脑的结构和运作方式,以实现高效节能的人工智能系统。目前,科学家们正在尝试打造一台占地仅两平方米、神经元数量堪比人脑皮层的超级计算机,其运行速度可能比生物大脑快25万到100万倍,而功耗仅需10千瓦,这对于解决当前人工智能面临的能源危机具有重要意义。

神经形态计算的主要特点包括事件驱动型通信、内存计算、适应性和可扩展性。这些特点使得神经形态计算机能够仅在峰值和事件驱动下激活必要的电路,从而降低功耗;数据处理发生在存储位置以减少传输延迟;系统会随着时间的推移自行学习和发展,而无需集中更新;神经形态系统的架构允许轻松扩展,可以容纳更广泛和复杂的网络,同时不会大幅增加资源需求。

与传统的二进制超级计算机处理的人工智能模型相比,神经形态计算机能够根据对世界的认知进行动态调整,更智能、更灵活,也更不容易被干扰。这种技术的进步不仅能够提高人工智能的效率和智能水平,还有望推动人工智能技术突破传统界限,更接近人类智能推理模式。

目前,IBM、Intel等科技公司以及一些初创公司如BrainChip都在积极研究和开发神经形态计算技术。预计到2025年,全球神经形态计算市场规模将呈指数级增长,达到18.1亿美元,复合年增长率高达25.7%。科学家们相信,神经形态计算将会为下一代智能系统乃至于AGI带来全新的技术突破。
如何不发帖就快速得到金币道行
 
在线姜谷粉丝

UID: 1569053

精华: 2
级别: 玉清道君

发帖
144180
金币
263582
道行
20030
原创
756
奖券
185
斑龄
0
道券
0
获奖
0
座驾
设备
摄影级
在线时间: 16767(小时)
注册时间: 2012-06-21
最后登录: 2025-07-12
只看该作者 板凳  发表于: 06-17
20瓦运行下一代AI?神经形态计算带来新可能
神经形态计算兴起的背景
目前人工智能正面临一场“能源危机”,随着大语言模型等技术的爆炸式发展,其惊人的耗电量已成为无法忽视的沉重负担。预测显示,到2027年,仅运行这些模型的电费就可能高达25万亿美元,甚至超过美国当年的GDP。然而,自然界最强大的智能体——人类大脑,每天只需消耗约20瓦,仅相当于家用LED灯泡的功率。在这样的背景下,科学家们思考能否让AI也像人脑一样高效,于是将目光投向了神经形态计算。

神经形态计算的定义与原理
神经形态计算是一项旨在模拟人脑结构和运作方式的前沿技术,被视为下一代AI的关键方向,其核心目标之一是用“灯泡级”的能耗驱动强大的智能。在人类大脑中,约有860亿个复杂神经元相互工作,并通过100万亿个突触共同构建起一张巨大的信号传递网络。神经形态计算受其结构和功能启发,采用模仿生物神经网络的节能型电子和光子网络,即脉冲神经网络(SNN)构建,旨在将记忆、处理和学习整合到一个统一的设计中。

神经形态计算的特点
能耗低
事件驱动型通信:仅在峰值和事件驱动下激活必要的电路,从而降低功耗。
内存计算:数据处理发生在存储位置以减少传输延迟,神经形态系统的架构允许轻松扩展,可以容纳更广泛和复杂的网络,同时不会大幅增加资源需求。
智能灵活且抗干扰
与当前依靠二进制超级计算机处理的人工智能模型不同,神经形态计算可以根据对世界的认知进行动态调整,更智能、更灵活,也更不容易被干扰。例如,当测试员穿着印有停车标志的T恤在自动驾驶汽车面前走过,由传统AI控制的汽车因为无法辨别上下文,做出了停车反应;而神经形态计算机是通过反馈循环和上下文驱动的校验来处理信息,它能明确判断出停车标识位于T恤上,从而让汽车继续行驶。

神经形态计算的发展现状与成果
现有研究成果
现有的神经形态计算机拥有10亿多个神经元,由1000多亿个突触连接,虽然和人类大脑的复杂程度相比还只是九牛一毛,但它也合理证明了该项技术完全可以实现大脑级扩展。美国国家标准与技术研究院的Jeff Shainline表示:一旦能够在商业铸造厂实现创建网络的完整流程,就可以迅速扩展到非常庞大的系统,能制造出一个神经元,那么制造一百万个神经元就相当容易
如何不发帖就快速得到金币道行
 
我有我可以
快速回复
限120 字节
认真回复加分,灌水扣分~
 
上一个 下一个