每日经济新闻

    直击WAIC 2025 | “AI教父”辛顿警告:未来超级智能将很容易操纵人类

    每日经济新闻 2025-07-27 16:53

    7月26日,“2025世界人工智能大会”在上海开幕,深度学习三巨头之一、诺贝尔奖及图灵奖得主杰弗里·辛顿发表演讲。辛顿警告,未来超级智能或易操纵人类,需避免“养虎为患”。辛顿呼吁全球建立由各国人工智能安全研究所与国内研究网络组成的国际社群,培养不会从人类手中夺权的“好AI”。

    每经记者|朱成祥    每经编辑|董兴生    

    他是深度学习三巨头之一,他被尊为“AI教父”,他是诺贝尔奖、图灵奖得主,他是杰弗里·辛顿。尽管因为身体原因无法久坐,他仍不远万里来访中国。

    7月26日,“2025世界人工智能大会暨人工智能全球治理高级别会议”(WAIC 2025)在上海拉开帷幕。辛顿,正是此次WAIC的重量级嘉宾,这也是他首次踏足中国。

    在大语言模型快速发展的当下,辛顿发出了他的警告:未来超级智能将很容易操纵人类,人类要避免“养虎为患”。

    有限生命之间的知识转移

    在7月26日的主旨演讲中,辛顿首先阐述了大模型的理论起源。辛顿认为,在过去60多年里,AI(人工智能)发展存在两种不同的范式和路径。一种是逻辑性范式,认为智能的本质在于推理;另一种是以生物为基础的范式,认为智能的基础是学习,理解是前提,之后才能转化。

    图片来源:主办方供图

    1985年,辛顿做了一个小型模型,尝试结合这两种理论,以此理解人们对词语的理解方式。辛顿认为,当下的大语言模型,就是其当年小型模型的“后代”。

    关于大模型领域普遍遭受诟病的幻觉问题,辛顿提出了他的看法:“我认为,人类理解语言的方式与大语言模型几乎一致,人类甚至可能和大语言模型一样产生幻觉,因为我们也会创造出一些虚构的表达。”

    关于人脑与大模型,辛顿认为,人脑是一个模拟模型,是低功耗的,但这种模拟模型进行知识转移却是低效的,一个人很难将自己脑子里的知识展示给另一个人。

    大模型是如何完成知识迁移的?是蒸馏。辛顿表示,DeepSeek的做法是将大神经网络的知识转移到小神经网络中,即“蒸馏”,类似教师与学生的关系——教师将词语在上下文中的关联教给学生,学生通过调整权重学会表达。

    不过,人类之间沟通的效率很低。辛顿称,一句话通常只有100比特的信息,即使完成理解,每秒最多传递100比特。相比之下,数字智能间的知识转移效率极高。

    一言以蔽之:生物计算功耗低,但知识分享难。

    生物计算与数字智能之间的差距,也令辛顿感到担忧。其表示:“我们创造的AI智能体已能帮我们完成任务,它们能拷贝自身、评估子目标,还会为了生存和完成目标而寻求更多控制权。有人认为,可以在AI变得过强时关掉它们,但这并不现实。它们可能会像成年人操纵3岁孩子一样操纵人类,劝说控制机器的人不要关闭它们。这就像把老虎当宠物,幼虎很可爱,但长大后可能伤人,而养老虎当宠物通常不是好主意。”

    那么,人类又将如何与AI相处?辛顿称:“AI已无法消除,它能大幅提升几乎所有行业的效率,即便有国家想消除,其他国家也不会认同。”

    因此,辛顿呼吁全球建立由各国人工智能安全研究所与国内研究网络组成的国际社群,培养不会从人类手中夺权的“好AI”。

    大佬对话:开放推动进步,也带来安全隐患

    参加此次世界人工智能大会的,不仅有辛顿这样的“AI教父”,也有前谷歌CEO埃里克·施密特这样的企业界大咖。

    在大会开幕式上,前微软执行副总裁沈向洋与施密特展开了一场关于人工智能发展的多维对话。

    图片来源:主办方供图

    与辛顿类似,施密特也强调人的尊严何以存续,迫切需要全球的沟通、合作,共同维护人对技术的控制权。

    施密特表示:“我对接下来的两年充满期待,随着智能体革命的到来,每个企业的工作流都将发生巨大变化。但是,当AI开始自我学习并做出决策时,我们需要确保这些过程不会失控。”

    其补充表示:“这是人类共同面临的问题,任何国家都要坐下来一起谈判、合作。我相信,中美可以通过对话加强互信,共同迎接AI带来的机遇与挑战,特别是在防止AI负面影响方面进行协作。”

    版权声明

    1本文为《每日经济新闻》原创作品。

    2 未经《每日经济新闻》授权,不得以任何方式加以使用,包括但不限于转载、摘编、复制或建立镜像等,违者必究。

    上一篇

    锐新科技:股东上海虢实、上海虢盛计划减持公司股份合计不超过约495万股

    下一篇

    燕麦科技:拟向激励对象授予400万股限制性股票



    分享成功
    每日经济新闻客户端
    一款点开就不想离开的财经APP 免费下载体验