◎美国人工智能协会前主席托马斯•迪特里希指出,每项AI技术在应用前都应该进行风险评估,但该受监管的是技术带来的危害而不是技术本身。
每经记者 李孟林 每经编辑 高涵
当地时间3月31日(周五),意大利个人数据保护局宣布,即日起暂时禁止使用聊天机器人ChatGPT,并表示已对开发该产品的OpenAI公司展开调查。
OpenAI的生成式人工智能(AI)产品风靡全球的同时,其引发的争议和担忧也在不断发酵。
本周,马斯克、图灵奖得主等一众大佬签署公开信、联名呼吁暂停大型AI研究,欧洲执法机构和消费者保护组织也先后拉响对ChatGPT潜在危害的警报。
美国人工智能协会前主席托马斯•迪特里希(Thomas Dietterich)对《每日经济新闻》记者表示,不法分子确实有可能利用生成式AI进行新形式的犯罪,但监管的对象应该是技术的危害而不是技术本身。
迪特里希进一步指出,虽然公开信警告的AI风险多数言过其实,但是虚假信息的暴增是一个亟待处理的严峻问题。他建议开发一整套认证内容来源的技术。
图片来源:视觉中国
意大利个人数据保护局暂停ChatGPT主要出于用户隐私数据保护和未成年人保护的考虑。
该机构称,ChatGPT没有就收集和处理用户信息进行告知,“没有任何法律依据表明,为了‘训练’平台背后的算法而大规模收集和存储个人数据是合理的”。此外,ChatGPT还出现过数据泄露的情况,导致用户对话数据和付款服务信息被其他人看到的情况出现。
该机构还表示,虽然根据OpenAI发布的条款,ChatGPT针对的是13岁以上的用户,但并没有年龄核实系统来验证用户年龄,导致儿童接受到“完全不适合他们发育和自我意识阶段的回答”。
OpenAI必须在20天内通过其在欧洲的代表,向意大利个人数据保护局通报公司执行保护局要求而采取的措施,否则将被处以最高2000万欧元或公司全球年营业额4%的罚款。
OpenAI尚未回复媒体的置评请求。
一向走在数字监管前沿的欧盟对ChatGPT亦十分警惕。本周,欧盟执法机构欧洲刑警组织(Europol)警告称,ChatGPT可能被滥用于网络钓鱼、虚假信息和网络犯罪,加剧了对法律、道德等各种问题的担忧。此外,欧洲消费者联盟3月30日呼吁欧盟和成员国的监管机构对ChatGPT展开调查。
“犯罪分子肯定会尝试利用这项技术,我相信会有新型的金融诈骗和网络攻击出现。但另一方面,这项技术也有可能增强人类监测诈骗和网络攻击的能力,”机器学习领域的奠基人之一、美国人工智能协会前主席托马斯•迪特里希向《每日经济新闻》记者分析了生成式AI技术的潜在风险。
迪特里希指出,每项AI技术在应用前都应该进行风险评估,但该受监管的是技术带来的危害而不是技术本身。“金融诈骗、侵犯隐私、窃取知识产权本来就已经是犯罪了,法律要做的是在威胁发生变化时进行更新,” 迪特里希表示。
3月29日,图灵奖得主约书亚·本希奥,特斯拉CEO马斯克、苹果联合创始人史蒂夫·沃兹尼亚克等1000多名来自学界、商界和政策界的人士发表联名信,要求暂停研发强于GPT-4的AI系统至少6个月,以便更好地评估风险和建立监管框架。
这封分量十足的公开信将OpenAI推到了风口浪尖,对AI的担忧也成为了热门话题。迪特里希向《每日经济新闻》记者表示,信中所陈列的AI危害,如自动化导致所有工作岗位消失、人类被更聪明的AI取代、失去对文明的控制,都言过其实了,而且暂停新AI系统的研发也不能解决这些问题。
不过,迪特里希认为,生成式AI导致虚假内容泛滥的风险确实是真实而紧迫的。
“生成式AI让信息洪流进一步增长,而且现有的手段难以充分过滤假信息,这一点是绝对正确的,” 迪特里希表示。他认为,可以仿照互联网的超文本传输安全协议(https),建立起一整套的认证基础设施,用来鉴定图像和信息是否来自可靠的来源,现有的密码学技术应该能够做到这一点。
“我强烈支持限制AI生成的信息(包括电子邮件、广告和社交媒体内容)的法律法规,也支持研发实用的认证机制,” 迪特里希告诉每经记者。
虽然迪特里希认为公开信所警告的AI风险过于“惊悚”,但OpenAI在发布最新的GPT-4模型时信息不透明,违背了AI研究领域长期以来的开源精神,这一点确实值得担忧。
“OpenAI在发布最新的GPT-4时向外界透露的信息很少,我对此表示不满。我希望他们能公开GPT-4的架构、训练数据和规模。他们(OpenAI)不公开似乎更多是出于保护商业优势的考虑,而不是技术上存在风险。幸运的是,其他公司也在开发类似的竞品,其中有些项目就是开源的,” 迪特里希补充道。
封面图片来源:视觉中国
1本文为《每日经济新闻》原创作品。
2 未经《每日经济新闻》授权,不得以任何方式加以使用,包括但不限于转载、摘编、复制或建立镜像等,违者必究。