每日经济新闻

    中国科学院院士张钹:人工智能现在还难以处理突发事件 融入人类知识是提高其安全性的重要措施

    2019-12-14 15:09

    12月12日,中国科学院院士、计算机科学与技术专家张钹在2019智能协同云技术与产业发展高峰论坛上提到,人工智能的应用场景需要满足具有丰富的数据或(和)知识、确定性信息、完全信息、静态(按照确定规律演化、可预测)、单领域与单任务5个条件,不能满足其中任何一个,人工智能就会遇到困难。

    记者了解到,会上发布了航天智云平台2.0版本及相关产业应用。张钹以平台为由头说开去,他提到,航天智云平台基本上是根据数据、算力、知识、算法4方面资源来构建的。从目前构建平台角度来看,大家对数据和算力都足够重视,但是大多数人还不够重视知识和算法。

    要想建立一个智能化平台,如何达到智能化?张钹指出,其实很重要的就是利用知识和算法两个资源。人工智能模型和算法是核心,我们必须要从当前人工智能所具备的能力出发来处理这个问题。

    现在人工智能模型和算法究竟能够解决什么样类型的问题?面临着什么样的挑战?

    图片来源:每经记者 张蕊 摄

    张钹表示,首先人工智能目前的算法只能应用在符合以下5个条件的场景,即:具有丰富的数据或(和)知识、确定性信息、完全信息、静态(按照确定规律演化、可预测)、单领域与单任务。

    “从这点来看,我们过去取得的成果都是符合这5个条件。”他举例说,AlphaGo应该说是非常复杂的问题,但是AlphaGo完全符合这5个条件,它有丰富的数据,它的信息是确定的,而且它是完全信息博弈,所以它是按照规定的规律在演化,它下去的过程是完全可预测的,单任务单领域。

    “如果我们应用场景不符合这5个条件中的任何一个,人工智能就会遇到困难。”张钹说,举一个最简单的例子,自动驾驶。自动驾驶为什么到现在为止,还不能在交通比较复杂的情况下运用呢?问题就是因为自动驾驶基本上不符合这5个条件。

    他进一步分析,“具有丰富的数据”是可以符合的,但它不是确定性信息,也不是完全信息,它是动态的,而且它也不是单纯的单任务,它有道路、有车辆、有行人,涉及的领域很广。

    “所以在这种情况下,实际上人工智能很难应用,甚至很难通过大数据学习来解决问题,因为它会出来突发事件。人工智能现在还难以处理突发事件,突发事件也不可以通过大数据的学习来学到。”他说。

    张钹强调,如果人工智能的算法不安全,其他的安全其实谈不上,所以一个智能化的系统首先要考虑人工智能的算法是否安全。

    他指出,现在基于深度学习的大数据的算法和模型有“四个不”:不安全(容易受到攻击与欺骗)、不可解释(所以不可信)、不可靠(不可避免产生重大的错误)、不易推广。如果这“四个不”不解决,这个平台肯定是不安全的。

    在张钹看来,正是由于人工智能目前这种不确定性,因此不可以用到关键的地方、人命关天的地方,比如医疗、自动驾驶,“不能随便用”。

    此外,他还提到,现在的人工智能缺乏自我知识与常识。平台越网络化、信息化和智能化,越是脆弱,越容易受到攻击。

    他认为,要应对这个问题,人机协同是关键。“人类的参与,特别是人类知识的融入是提高安全性的重要措施,建立通用知识库十分重要。”

    上一篇

    北大自杀女生事件后,朋友圈刷屏的“浪迹情感”被封!PUA究竟有多可怕?

    下一篇

    朝中社:朝鲜13日在西海卫星发射场再次进行重大试验 进一步夯实战略核战争遏制力



    分享成功
    每日经济新闻客户端
    一款点开就不想离开的财经APP 免费下载体验