每经编辑 黄胜 每经实习编辑 宋欣悦
8月4日,据外媒报道,OpenAI已掌握一项技术,能够精准识别出论文或研究报告是否由ChatGPT撰写,甚至能追溯其使用的具体时间点。尽管社会各界对学生可能借助人工智能工具进行学术不端行为的忧虑日益加剧,但截至目前,OpenAI尚未公开披露这一检测手段的具体信息。
据知情人士披露和《华尔街日报》看到的内部文件内容,该项目在OpenAI内部陷入了长达两年的激烈争论,而且早在一年之前就已做好了发布准备。其中一位知情人士表示,“发布这项技术只是按一个按钮的问题。”
图片来源:视觉中国-VCG31N2008743681
然而,在实际决策过程中,OpenAI的员工陷入了两难境地,他们既想要坚守公司最初承诺的透明度原则,又希望平衡吸引和维持用户群体的需求。一项针对忠实ChatGPT用户的调查显示,有近三分之一的用户表示,一旦反作弊技术推出,他们可能会选择停止使用ChatGPT。
有网友表示,这种防止作弊的技术不过是一场“猫鼠游戏”,非但不能从根本上解决问题,反而可能催生更为复杂的作弊手段。并且,目前市面上已经有很多与GPT-4o相媲美的产品,“作弊者”同样可以转向使用其它大模型。
还有网友表达了对防作弊技术可能带来的副作用的担忧,认为其嵌入可能会削弱ChatGPT的整体响应质量和用户体验。
OpenAI一位发言人表示,公司担心该工具可能会对非英语母语人士等群体产生格外重大的影响。她解释道,“我们正在开发的文本水印方法在技术层面极具前景,但也存在着重大风险,目前我们正在研究替代方案并权衡这些风险。在我们看来,考虑到问题的复杂性以及对OpenAI之外更广泛生态系统的潜在冲击,我们有必要采取更为审慎的处理方法。”
支持该工具发布的员工,包括那些帮助开发该工具的员工都曾在内部表示,与这项技术所能带来的好处相比,上述观点显得苍白无力。
OpenAI首席执行官萨姆·阿尔特曼(Sam Altman)和首席技术官米拉·穆拉蒂(Mira Murati)也参与了有关反作弊工具的讨论。一些知情人士表示,阿尔特曼对该项目表示肯定,但并未实际推动其发布。
ChatGPT由一套人工智能系统提供支持,该系统可以预测句子中接下来应该出现的单词或单词片段。OpenAI正在讨论的这款反作弊工具会略微改变token选取方式,通过这种变化来创建一种文本水印。
这些水印肉眼是无法察觉的,但可以通过OpenAI的检测技术识别出来。检测器会给出一个分数,用以衡量整个文档或者部分文档内容由ChatGPT生成的可能性。
根据内部文件,在ChatGPT创建了足够多的新文本之后,水印机制的准确性高达99.9%。
斯坦福大学研究员约翰·西克斯顿(John Thickstun)所在的团队,也在开发类似的AI文本水印方法,他表示:“明天太阳原地爆炸的概率,都比学生们不用AI写文章的几率大。”
但也有一位知情的OpenAI员工表示,他们担心这些水印可以通过简单的技术清除,比如由谷歌将文本翻译成另一种语言,之后再翻译回来;或者让ChatGPT在文本中添加表情符号,再将其手动删除。
公司内部普遍认为,这款检测器究竟该交给谁使用也是个大问题。如果使用的人太少,那它就缺乏现实意义;而如果广泛对外开放访问权限,恶意人士可能会破解其中采用的水印技术。
OpenAI员工还讨论过将检测器直接提供给教育工作者或者外部企业,以帮助学校识别由AI撰写的论文和抄袭作品。
谷歌也曾开发过一款水印工具,可以检测由其Gemini AI生成的文本。这款工具名为SynthID,目前处于内测阶段,尚未全面向公众开放。
OpenAI还有一款工具,可以用来确定图像内容是否由DALL-3(OpenAI旗下的文生图模型)生成,而且该工具已在今年春季开放了测试。知情员工表示,OpenAI其实优先考虑的是音频和视觉水印,而非文本水印。毕竟考虑到美国已经迎来又一个选举年,前者的危害明显更大。
生成式AI可以根据一个提示,在几秒钟内免费创建整篇论文或研究论文。教师和教授们纷纷表示,他们迫切需要官方帮助来打击这种滥用AI技术的行为。
纽约市高中英语与新闻学教师亚历克斯·古特曼(Alexa Gutterman)表示,“这已经成了大问题,跟我共事的每一位老师都在讨论这种趋势。”
民主与技术中心(一家关注技术政策非营利组织)最近的一项调查发现,59%的初中和高中教师明确发现有学生在使用AI帮助完成作业,这一比例较上学年增长了17个百分点。
2023年1月,OpenAI发布了一种算法,旨在检测由包括其自家模型在内的多种AI模型编写的文本,但成功率只有6%。七个月之后,OpenAI决定将其撤回。
还有其他由外部企业和研究人员开发的类似AI输出文本检测工具,不少教师表示他们已经试用过这些工具,但有时候不仅无法检测到由先进大语言模型生成的文本、还经常会产生误报。
也有部分教师鼓励学生使用AI来帮助研究或者为当前思路提供反馈。但问题在于,如果学生纯靠ChatGPT这样的应用程序完成作业,那他们自己甚至都不知道学了些什么。
去年,犹他大学政治学教授乔什·麦克雷恩(Josh McCrain)给学生们布置了一项写作作业,其中也掺杂了某些难以辨认的短文本片段,要求学生在作业中引用蝙蝠侠的内容。而如果他们把作业直接粘贴进AI对话框,这部分说明也会被纳入其中。
果然,有少数学生在提交的作业中莫名其妙地引用了蝙蝠侠这一元素。为此,麦克雷恩正在不断调整作业的内容,尽可能在作业中加上AI相对不熟悉的时事素材上,同时劝告学生们不要完全依赖AI来完成作业。“我一直反复向学生强调:这是你们自己的学习旅程,偷懒是不可取的。”
知情人士指出,关于水印工具的讨论早在OpenAI于2022年11月推出ChatGPT之前就开始了,而且长期成为冲突和对立的根源。这款工具由计算机科学教授斯科特·阿伦森(Scott Aaronson)开发而成,他在得克萨斯大学两年休假期间一直在OpenAI从事安全工作。
2023年初,OpenAI公司联合创始人之一约翰·舒尔曼(John Schulman)在一份共享Google文档中概述了该工具的优势和缺点。OpenAI高管则决定在采取进一步行动之前,先征求更多人的意见。
在接下来的一年半时间里,OpenAI的管理层反复讨论这项技术,并希望通过数据分析来决定到底要不要对外发布。
一份内部文件显示,OpenAI于2023年4月委托开展的一项调查指出,有四分之一的用户支持AI检测工具的推出。
同月,OpenAI针对ChatGPT用户开展了一项调查,结果显示,高达69%的受访者担忧由于作弊检测技术的误判,使用AI的人可能会无端遭受“滥用AI”的指责。此外,近30%的受访者强烈表示,如果ChatGPT决定实施水印机制,他们将选择转向那些不采用水印机制的竞争对手平台,或者至少会减少对ChatGPT的使用频率。
OpenAI公司内部还一直存在担忧,即反作弊工具可能会损害ChatGPT的写作质量。但知情人士表示,OpenAI今年早些时候进行了一项测试,发现水印并不会影响ChatGPT的性能。
根据内部文件,参与测试的员工总结道:“既然我们确认了水印不会降低输出质量,恐怕就很难继续反对文本水印机制的落地了。”
今年6月初,OpenAI的高层团队与研究人员再次开会,就该项目进行了深入讨论。小组内部达成了共识,认为水印技术确实展现出了良好的效果,但同时,去年ChatGPT用户调查的结果依然具有重要的参考价值。据知情人士透露,有观点提出,公司应该探索那些尚未得到验证、但有望在用户群体中引发较少争议的新方法。
内部文件揭示,与会者普遍认为OpenAI应在今年秋季之前拟定一项策略,旨在引导公众对AI透明度的正面认知,并考虑推动相关立法进程以支持这一方向。
6月会议纪要的核心指出:“若未能及时行动,我们的声誉将会受损,公众可能会因此质疑OpenAI的责任感。”
每日经济新闻综合自公开消息
1本文为《每日经济新闻》原创作品。
2 未经《每日经济新闻》授权,不得以任何方式加以使用,包括但不限于转载、摘编、复制或建立镜像等,违者必究。