◎ 伦敦大学学院名誉教授、计算机科学家彼得·本特利博士对每经记者表示,对于公司来说,与其对AI“上头”试图去打造热门(产品),更明智的做法是专注于自己的业务需求,只在确信会获得竞争优势的情况下使用AI。
每经记者 郑雨航 每经编辑 兰素英
最近一年多来,随着算法、计算等方面的突破,生成式AI技术取得了令人惊叹的进展,大大提高人类的创造力和效率,诞生了诸如ChatGPT、MidJourney和Pika等知名的生成式AI平台和产品,为各种创作和应用提供无限的可能。
2023年年末,OpenAI联合创始人兼首席执行官Sam Altman在X平台上发文征求网友们2024年对OpenAI的愿望与期待,从网友的反馈来看,AGI(通用人工智能)、GPT-5、性能更强的 GPTs、更好的推理能力、开源等的呼声最高。而在转发的清单中,Altman还对AGI作了“请再耐心一点”的批注,让人2024年的AI发展充满了想象。
图片来源:X
不可否认,生成式AI技术的发展为各行各业插上了想象的翅膀,但也带来了一些风险和监管上的挑战。在新的一年,AI将经历什么样的发展?AI监管又将走向何方?就此,《每日经济新闻》记者采访了伦敦大学学院(UCL)名誉教授、计算机科学家彼得·本特利博士(Dr. Peter J Bentley)。
图源:受访者供图
2013年,谷歌、微软、Meta、Anthropic等科技大厂、初创企业纷纷“跑步入场”生成式AI。在国内,AI公司已涉及多个产业,以深交所上市的70家人工智能相关产业链公司为例,已经覆盖芯片制造、云计算、数据服务、自然语言处理、文本数据分析、计算机视觉及智能安防、交通、金融、物联网等终端应用。
英伟达CEO黄仁勋更是宣称“AI 的 iPhone 时刻已经到来”。乘着AI的东风一路狂飙,英伟达也成为了全球第一家市值突破万亿美元的芯片公司。
从ChatGPT的文字交互,到MidJourney的图片生成,再到Pika的视频创作,生成式AI展示出强大的魅力,创造着无限的可能性。马斯克近日回应一位X用户的帖子时甚至表示,全部由AI制作的电影有望在2024年出现。
NBD:在2023年AI概念热闹非凡的背景下,如何看待生成式AI的发展现状和前景?2024年哪些行业和领域将获益?
Bentley:生成式AI在2023年发展迅猛,2024年这一势头还将持续。
生成式AI有助于实现更容易的特效处理,这意味着艺术、设计、视频、音频、电影和娱乐应用程序将获得立竿见影的好处。
而对于市场营销和销售领域而言,生成式AI技术使资料的创建更加容易。在科学和工程领域,生成式AI可以生成有用的摘要,帮助科研人员整理发现更多有价值信息。
值得注意的是,生成式AI工具已经被集成到文字处理器和软件开发人员的工具中,而在2024年,这些工具将变得更有效、更有用。
NBD:您觉得企业在AI产品开发上更应关注哪些方面?
Bentley:ChatGPT的横空出世就像一把闪亮的新锤子被发明出来的时候,其他的东西看起来都像钉子,人们试图用这把新锤子敲打一切,但这并不是一个好主意。
我认为,在新的一年,如果准备入局AI,最好先考虑一下公司目前真正面临的难题是什么,然后再考虑去选择解决方案。因为AI虽然或许有助于解决许多问题,但同时它本身也可能会产生新的问题,例如产出不当、成本高昂、做一些在业务上不必要的事情,以及引发法律问题等。
坦诚来讲,AI技术在2023年发展得太快了,以至于到现在我们其实也并不知道怎么样运用它才是最好的、最有效的。与其对AI“上头”试图去打造热门(产品),让公司“看起来”时髦,更明智的做法是专注于自己的业务需求,只在确信会获得竞争优势的情况下使用AI。
尽管全球媒体大肆曝光和宣传,但据我观察,除了生成式AI的极少数应用能在解决特定问题时派得上用场,在大多数现实问题上都没有现有的方法管用。
AI在提升创造力和生产效率的同时,有关其造成的数据泄露、版权纠纷等风险的讨论也一直伴随左右。
2023年年末,据路透社报道,包括泰勒·布兰奇和史戴西·希夫在内的11名美国著名作家在纽约曼哈顿联邦法院起诉了OpenAI和微软,指控其滥用他们的作品来训练ChatGPT。
随着负面案例的不断曝出,关于AI监管的讨论也在全球范围内升温。《每日经济新闻》记者注意到,在今年11月,英国全球第一届人工智能安全峰会在英国召开,与会各国讨论了当下全球AI治理的问题,28个国家和欧盟一致认为,人工智能对人类构成了潜在的灾难性风险。与会各国在会后达成《布莱切利宣言》,该《宣言》也成为了“全球第一份关于有必要监管AI发展的声明”。
NBD:在2024年,AI领域的技术突破和创新预计会在哪里?
Bentley:AI领域的技术发展如此之快,导致下一个突破和创新将变得越来越难以预测。我认为,在2024年,基于文本和语言的大语言模型(LLM)将变得更加多模态,可在越来越多类型的数据上进行训练。
未来的LLM将具备更多的功能,并且可将文本、图像、音频、视频,以及更专业的数据(如财务、商业或运动数据)结合起来。这也有助于AI机器人的开发,人类在未来用AI工具如ChatGPT来控制机器人是完全可行的路径。还有迹象表明,这些模型也有助于在科学领域取得新的发现。
NBD:您如何看待AI在伦理、安全和社会责任方面的问题?全球对AI的监管明年是否会加强?加强监管是否意味着技术发展将受到限制?
Bentley:世界各地的许多AI产品都存在一个问题,即使用从互联网上获取的大量数据训练,这些数据可能包含有偏差或不正确的信息。我们也注意到了作家起诉OpenAI和微软的新闻,这些作品本就属于作家、设计师或艺术家,或许未经许可就被使用了。
AI的不当使用目前也是个问题。一些居心叵测的人正在操纵图像、视频和音频,运用深度伪造(DeepFake)技术来愚弄民众,一些政客甚至利用AI操纵观点和舆论,拉投票。2024年,我们需要阻止这种情况继续蔓延,否则会造成有害的、错误的信息的高度传播。
未来的监管应帮助我们在避开这些问题的情况下定制AI工具。通常来说,加强监管并不意味着技术会受限,反而会促进AI的发展。此外,还需要注意的是,训练AI时应该要避免偏见,我们必须非常小心,应该像在学校教我们的孩子一样小心。
免责声明:文中采访内容仅代表受访者个人观点,不代表每日经济新闻立场。本文内容与数据仅供参考,不构成投资建议,使用前核实。据此操作,风险自担。
封面图片来源:视觉中国-VCG41N1188747468
1本文为《每日经济新闻》原创作品。
2 未经《每日经济新闻》授权,不得以任何方式加以使用,包括但不限于转载、摘编、复制或建立镜像等,违者必究。