每日经济新闻

    全是“自己人”!OpenAI紧急成立“安全委员会”,距离“超级对齐”团队解散不到半月,90天后将迎首次安全“大考”

    每日经济新闻 2024-05-29 20:15

    ◎ 美国IT研究与顾问咨询公司Gartner高级研究总监高峰在接受《每日经济新闻》记者采访时指出,OpenAI安全委员会成员全部是“自己人”并没有什么问题,“一般来说,企业不太倾向于引入外部人士,因为里面会涉及很多的商业机密信息。”

    每经记者 蔡鼎    每经编辑 兰素英    

    美西时间周二(5月28日),OpenAI称董事会成立了一个负责把控AI开发方向的“安全委员会”,负责监督与公司项目和运营相关的“关键”安全和安保决策,而这距离其内部负责评估长期AI安全问题的“超级对齐(Superalignment)”小组正式解散不到半个月的时间。

    据悉,该委员会的首要任务将是在未来90天内评估并进一步发展OpenAI的流程和保障措施。90天结束时,该委员会将与全体董事会分享他们的建议。在全体董事会审查之后,OpenAI将以符合安全和保障的方式,公开分享有关采纳建议的更新。

    《每日经济新闻》记者注意到,其实这并不是OpenAI首次组建专门致力于AI安全的团队——去年12月OpenAI就成立过一个“安全顾问小组”,该小组向领导层提出建议,并且董事会被授予否决权。不过从本月17日“超级对齐”团队解散到本周二成立新的“安全委员会”,足以证明AI安全的问题在OpenAI内部仍未得到解决。

    全新安全委员会,全是“自己人”

    除了CEO Altman外,OpenAI新成立的安全委员会的其他成员还包括OpenAI董事会成员Bret Taylor、Adam D’Angelo和Nicole Seligman,以及首席科学家Jakub Pachocki、OpenAI早期筹备团队的Aleksander Madry、安全系统负责人Lilian Weng、安保负责人Matt Knight和“人工智能对齐”(AI Alignment)负责人John Schulman。从成员构成可以看出,没有一个外部人员。

    图片来源:OpenAI

    为了避免新成立的安全委员会因成员构成而被认为是“橡皮图章”,OpenAI承诺将聘请第三方“安全、安保和技术”专家来支持委员会的工作,包括网络安全专家Rob Joyce和美国前司法部官员John Carlin。但除此之外,OpenAI并未更详细地说明外部专家组的规模和组成,也没有透露专家组对委员会的具体影响和权力限制。

    有专家指出,OpenAI成立此类企业监督委员会,类似于谷歌的高级技术外部咨询委员会,其实在实际监督方面几乎没有什么作为。

    美国IT研究与顾问咨询公司Gartner高级研究总监高峰在接受《每日经济新闻》记者采访时指出,OpenAI安全委员会成员全部是“自己人”并没有什么问题,“因为OpenAI的安全委员会是服务于内部,是对OpenAI产品的安全和发展方向进行评估。一般来说,企业不太倾向于引入外部人士,因为里面会涉及很多的商业机密信息。所以如果没有监管或者政府的强制要求,企业通常只会对自己的产品或股东负责。其实像谷歌和微软,他们也有相应的一些安全部门,主要就是确保产品的安全,并且不对社会带来一些负面的影响。”

    安全优先级下降引担忧,多名高管离职

    近期,OpenAI在安全方面的问题成为外界的关注点之一。几个月来,OpenAI流失了不少非常重视AI安全的员工,在这部分人中,有一些对OpenAI在AI安全方面的优先级下降表示担忧。

    OpenAI的联合创始人兼前首席科学家Ilya Sutskever也于今年5月离职,据报道部分是因为Altman急于推出AI驱动的产品而牺牲了安全性能。OpenAI前首席安全研究员Jan Leike也紧随其后宣布离开,他在X平台上发布的一系列帖子中表示,他认为OpenAI“未走在解决AI安全和安保问题的正确轨道上”。

    Ilya Sutskever和Jan Leike这两位关键领导人离职后,OpenAI专注于研究AI生存危险的“超级对齐”团队正式宣告解散。

    对于Jan Leike发表的言论,上周离职的AI政策研究员Gretchen Krueger也表示认同,她也呼吁OpenAI提高问责制和透明度,并“更加谨慎地使用自己的技术”。另外,曾在OpenAI担任团队治理工作的Daniel Kokotajlo也于4月辞职,原因是他对OpenAI能在AI开发中继续保持负责任的态度失去了信心。

    其实,这并不是OpenAI首次成立或组建专门的安全顾问团队。

    去年12月18日,OpenAI就称正在扩展内部安全流程,以抵御有害人工智能的威胁。一个新的“安全顾问小组”将位于技术团队之上,向领导层提出建议,并且董事会也被授予了否决权。

    在当时的博客文章中,OpenAI讨论了其最新的“准备框架”,即OpenAI跟踪、评估、预测和防范日益强大的模型带来灾难性风险的流程。对于灾难性风险的定义,OpenAI的解释是这样的:“任何可能导致数千亿美元经济损失或导致许多人严重伤害或死亡的风险——包括但不限于生存风险。”

    AI监管呼声日益高涨

    在人工智能大模型的快速发展之下,全球新一轮科技革命和产业变革正在酝酿,但也衍生了一些担忧,数据安全、终端安全以及个人的数字主权面临更大的挑战。

    以生成式AI为例,普华永道在去年10月发布的一篇文章中称,在疏于监管的情况下,这项技术可能会生成违法或不当的内容,可能涉及侮辱、诽谤、色情、暴力等不合法或违规的元素;另一方面,生成式AI可能会基于已有的受版权保护的内容进行学习,这可能导致知识产权侵权。

    被誉为“AI教父”的Geoffrey Hinton近日在接受BBC Newsnight节目采访直言,AI很快将超越人类智能,并担心人类在AI发展方面的安全性不够重视。他还指出,这不仅仅是他个人的观点,实际上这是该领域领导者的共识。

    出于对AI各方面的担忧,4月下旬,美国国土安全部就针对研发AI的“安全与保障”成立顾问委员会,集结了22名科技业高层成员,包括OpenAI、微软、Alphabet、亚马逊网络服务(AWS)等企业高层,以及英伟达CEO黄仁勋和AMD CEO苏姿丰。

    美国国土安全部部长马约卡斯(Alejandro Mayorkas)表示,该委员会将协助确保AI科技的安全开展,以及设法应对这类科技对能源、公用业务、交通、国防、信息技术、食品和农业,甚至是金融服务等关键服务所构成的威胁。

    不仅仅是美国政府部门,包括美国商业软件联盟(BSA)这样的行业组织,也在推动对AI的监管。同样在4月,BSA也发布了文件呼吁在隐私立法中制定相关规则。

    对于不断增强的监管呼声,高峰对《每日经济新闻》记者分析称,“任何技术的发展都是有风险的,而AI比之前的任何技术对于整个社会的影响都要大,这也是为什么各方对AI监管呼声较高的原因。另外,一直以来大家可能受到了一些科幻电影的影响,觉得将来AI可能会超过人类的智慧,可能控制人类。”

    “但是,现在的AI离人类的智慧还是有很大差距,短期AI是没有办法超过人类的。但当AI不再仅仅是个工具,而是成为主导的时候,就可能需要人工阻止了,我觉得这可能是比较重要的一个评判标准。”高峰对记者补充道。

    版权声明

    1本文为《每日经济新闻》原创作品。

    2 未经《每日经济新闻》授权,不得以任何方式加以使用,包括但不限于转载、摘编、复制或建立镜像等,违者必究。

    上一篇

    亚星化学:业绩说明会定于6月7日举行

    下一篇

    思进智能:接受南方基金调研



    分享成功
    每日经济新闻客户端
    一款点开就不想离开的财经APP 免费下载体验