| jjybzxw |
2025-07-27 18:17 |
人工智能(AI)时代,人类会“养虎为患”吗?
在2025世界人工智能大会主论坛现场,2024年诺贝尔奖和2018年图灵奖获得者、加拿大多伦多大学计算机科学名誉教授杰弗里·辛顿表达了对AI技术发展的担忧。他认为,当前人类与AI的关系,恰似饲养一只可爱的小虎崽——在它还小的时候,你觉得可以控制它,但等它长大以后,很可能轻易超越人类,导致失控。
辛顿的担忧
辛顿的担忧并非空穴来风。他指出,AI的能力正在快速增长,未来它们很可能变得比人类更智能。有人可能会认为,万一AI不听话,我们可以把它关掉,但这并不现实。如果AI足够聪明,它会通过操纵人类、获得控制权等方式来避免被关闭。辛顿甚至用了一个生动的比喻:“如果你想知道当自己不再是顶级智慧生物时,生活是什么样子,就去问问一只鸡。”
数字智能与生物智能
在辛顿看来,人类或许与大语言模型相似,都会产生“幻觉”,但大语言模型远优于依赖类比信号的人类大脑。同时,人类难以永久留存知识,大脑死亡即意味着知识消逝;知识传递的效率也不高,只能通过语言等方式,无法完全复制。而AI可通过共享参数快速传递知识,例如借助蒸馏技术等。
发展与安全的平衡
如何在发展和安全之间寻求平衡?上海人工智能实验室主任、首席科学家周伯文认为,在技术层面上,现在AI发展的明确特点就是通用性、可复制和开源,“这些特点非常有用,但同时也会带来很多风险问题,所以,在研究方面,AI的进展和安全同等重要。”
周伯文的观点是:不能只强调发展、不谈安全,也不能只谈安全、不讲发展。去年的世界人工智能大会现场,他就曾提出“45度平衡律”的概念,意思是让AI大体沿着45度安全与性能平衡发展。在这个框架下,过去很多工作是“Make AI safe”,而要真正实现的“45度”,就要找到新的技术研究路径,做更多“Make safe AI”的工作,“因为前者是后发的,缺乏敏捷性和韧性,而长期的AI安全要实现内生的安全。”
全球合作的重要性
辛顿呼吁全球建立由各国人工智能安全研究所与国内研究网络组成的国际社群,培养不会从人类手中夺 权的“好AI”。他认为,虽然不同国家的利益存在分歧,但各国在AI安全方面是有可能合作的。从长远看,这可能是人类面临的最重要的议题。
香港科技大学校董会主席沈向洋在主论坛的炉边对话环节中,也将“如何在AI上加强协作和互信”的问题抛给了RelativitySpace执行董事长兼CEO、谷歌前CEO埃里克·施密特。施密特表示:“这是人类共同面临的问题,任何国家都要坐下来一起谈判。中美也可以通过对话加强互信,共同迎接AI带来的机遇与挑战,特别是在防止AI负面影响方面开展协作。”
结论
总之,在AI时代,人类确实面临着“养虎为患”的风险。但通过全球合作、技术研究和政策制定,我们可以在发展和安全之间找到平衡,让AI真正成为推动人类文明进步的强大动力。
|
|