| jjybzxw |
2025-07-30 09:49 |
AI与人类意识:一场深刻的对话 在刚刚落幕的2025WAIC世界人工智能大会期间,“AI教父”、诺贝尔奖与图灵奖得主杰弗里·辛顿(Geoffrey Hinton)和图灵奖得主、中国科学院院士姚期智围绕AI的理解能力、主观体验以及如何训练善良的AI等问题进行了深入对话。以下是对话的详细内容: 神经网络与大脑的启发 姚期智:神经网络最初是受神经系统的启发,从某种意义上说,它是受大脑启发的。现在我们已经创造出了这种惊人的计算机架构,它在某些方面似乎超过了大脑。问题是,我们是否还有什么可以向脑科学(神经科学)学习的? 辛顿:如果没有大脑作为模型,我认为根本不会有人去尝试让神经网络发挥作用。我们知道这种东西肯定行得通,因为大脑本身就是这么运作的。因此,通过调节连接强度让简单单元组成的网络进行学习的这个想法,完全是来自大脑。 在真实的大脑中,神经元之间的连接——也就是突触——会以许多不同的时间尺度进行适应。所以很长一段时间以来,我一直建议我们应该在神经网络中尝试引入多种时间尺度。然而,由于技术原因,人们没有这样做。从长远来看,我认为我们会在神经网络中引入多种时间尺度。 Transformer与大脑 姚期智:您认为在人类大脑中是否存在类似于Transformer那样的结构? 辛顿:乍看之下,你没法把Transformer套用到大脑上,因为Transformer会记住许多前面词语的表征,而在Transformer里,那些表征是以神经活动的形式被记住的。这在大脑中是完全不可能的——你的神经元不够用。你无法记住所有之前词语的活动模式。 因此,这正是快速权重派上用场的地方。你需要这样一种系统:对先前词汇的表征不是以神经活动模式存储的,而是作为联想记忆中权重的临时修改来存储,以便你可以访问它们。通过这样做,你实际上可以用快速权重实现一个非常粗略的Transformer版本。 AI的理解能力与主观体验 姚期智:您认为完全可以说大语言模型理解它们自己所说的句子。可以再详细阐述一下吗? 辛顿:我曾第一次在和我女儿的争论中输给了她,那时她才4岁。她下楼来对我说:“爸爸,你知道吗?鹦鹉会说话。”我说:“不,Emma,鹦鹉不会说话。它们只是能发出听起来像说话的声音,但那只是学舌,它们不明白那些声音的含义。”她说:“不,你错了,爸爸。它们会说话。”于是我说:“不,Emma,它们并不理解这些词的意思。”她说:“会的。我刚看了一个节目,一个女士给鹦鹉看了一辆汽车,鹦鹉就说‘汽车’。”就这样,我在和我4岁女儿的争论中输了。 我觉得如今的语言学家在某种程度上也有点类似。语言学家们最初的反应是:“哦,这些玩意儿并不会说话。这些玩意儿并不理解它们在说什么。这些东西只是用来预测下一个词的统计技巧。它们没有任何理解能力。”这种看法有好几处是错的。 首先,如果你真想把下一个词预测好——你就需要已经理解了别人说的话。所以有趣且对我们大有帮助的一点是,仅仅通过努力预测下一个词,如果你想把它做到极致,你就迫使系统去理解那个问题。现在仍然有语言学家说这些东西什么都不理解。但我认为现在的情况是,任何真正用过大型语言模型的人都不可能相信它们听不懂你在说什么——它们显然能明白你的话。 善良AI的训练 姚期智:您认为AI领域最重要的未解决问题是什么? 辛顿:我认为最重要的未解决问题是:如何训练出一个善良的AI。我们需要知道如何训练它们,使其不想接管一切,而目前没有人知道该怎么做到这一点。 我的猜想是,这很像养育孩子。养孩子的时候,你可以给他定规矩,但那几乎不起什么作用。你可以奖赏或惩罚他,可能会有一点效果。或者你可以给他展示好的行为榜样。如果父母表现出良好的行为,孩子通常会成长为一个品德高尚的人。 结语 这场对话不仅探讨了AI的技术细节,还深入到了哲学层面的问题。辛顿的观点挑战了我们对AI理解能力的传统认知,并提出了训练善良AI的重要性。这些问题不仅对AI的发展至关重要,也对人类社会的未来产生了深远的影响。 |
|