每日经济新闻

    ChatGPT让所有人疯狂,科技巨头“慌了”,谷歌创始人亲自下场改代码,深度、准确性或成反攻“必杀技”

    每日经济新闻 2023-02-04 15:31

    ◎ “深度”和“准确性”是科技巨头在AI领域的下一个方向。

    每经记者 文巧    每经编辑 兰素英    

    让所有打工人担忧自己饭碗不保的ChatGPT,也让坐在硅谷头部的科技巨头们开始慌了。

    当地时间2月3日,据报道,谷歌向人工智能初创公司Anthropic AI投资了约3亿美元,后者正在测试ChatGPT的竞品Claude。有趣的是,Anthropic正是由前OpenAI研究副总裁自立门户的公司。

    另据2月2日报道,谷歌联合创始人谢尔盖·布林宣布强势回归——他提交了多年来的第一个代码请求。这被媒体解读为,随着ChatGPT将硅谷的AI之战升温,谷歌在错失良机之后选择迎战。

    据悉,布林的代码请求与谷歌的对话编程语言模型LaMDA 有关,谷歌最新曝光的Apprentice Bard就基于这个技术。在2月3日的财报会议上,AI也成为Alphabet的CEO皮查伊“复读”最多的词语,并表示正加强推进AI战略。

    《每日经济新闻》注意到,ChatGPT已经影响到科技巨头们的战略布局方向。微软因与OpenAI结盟,目前似乎处于最好的位置;大受威胁的谷歌拉响红色警报,准备迅速推出Apprentice Bard,与ChatGPT竞品合作;除此之外,在2月1日Meta的财报会议上,扎克伯格也将生成式AI提升为今年关注的最大主题之一。

    马萨诸塞大学洛厄尔分校计算机科学教授Jie Wang在接受每经记者采访时认为,科技巨头肯定会有一定优势,因为他们拥有人力、技术和财力资源。不过,没有一个模型可以在所有方面都擅长,所有公司在市场上有足够的空间。“这将是一场新的比赛,尤其是在深度和正确性方面。”

    前OpenAI研究团队负责人Jeff Clune预测,有30%的机会在2030年借助AGI(通用AI)实现50%的人类工作自动化。他告诉记者,“每个行业和人类社会的各个方面都应该考虑这项技术的影响。有一件事是肯定的:AI驱动的大规模变革正在影响我们经济和人类文化的几乎每个方面。”

    图片来源:每日经济新闻 刘国梅摄

    反攻

    据《金融时报》报道,2022 年底,谷歌向Anthropic AI投资了约 3 亿美元,不过当时并未报道这一消息。作为这笔钱的回报,谷歌获得了该公司 10% 的股份,并且Anthropic需要从谷歌购买云计算资源。

    有趣的是,Anthropic正是由前OpenAI研究副总裁Dario Amodei自立门户的公司,该公司正在对ChatGPT的竞品Claude进行测试。

    2021年,11名OpenAI的前员工愤而出走,创办了Anthropic。彼时,微软对OpenAI进行了首次投资,他们担心OpenAI会因此走上更商业化的道路,偏离公司的初心——对高级AI安全的关注。这群人里,包括了GPT-3核心成员、首席工程师Tom Brown,以及ChatGPT前身InstructGPT的参与者Amanda Askell、Paul Christiano。

    谷歌和Anthropic有点类似于微软和OpenAI之间的合作关系——此前微软向OpenAI投资了数十亿美元,还提供了对其庞大的云平台的访问权。

    而布林亲自写代码则被认为是谷歌渴望打赢这场聊天机器人之战的体现。1月24日,谢尔盖·布林出人意料地提交了一份“CL”(“changelist”的缩写),以获取训练 LaMDA的数据。这是对配置文件的两行更改,以便将其用户名添加到代码中。

    这虽然只是一个微小的技术变化,但凸显出谷歌对来自OpenAI的威胁之高度重视。毕竟,自2019年来,布林和另一位联合创始人拉里·佩奇基本离开一线,而将生杀大权交给了皮查伊。

    在皮查伊1月份宣布谷歌公司历史上最大规模的裁员时,他说,这样做是为了将公司的重心重新放在AI上。早在去年12月,谷歌就如临大敌,皮查伊召集公司创始人审查公司的AI战略,宣布了“红色代码”警告。

    实际上,谷歌是最先提出深度学习模型核心算法的企业,近日被曝光的Apprentice Bard在2022年已在内测,不过,OpenAI最终捷足先登了。谷歌CEO曾公开表示,不发布是因为害怕给公司声誉带来风险。

    “谷歌提供了广泛使用的良好语言模型,但如果没有像其他公司那样继续创新,任何公司都无法在其发明的技术上保持领先地位。这会是一场比赛,”Jie Wang说道。

    毫无疑问,AI已经被摆上了硅谷巨头的议程之首,谷歌并不是唯一个拉响警报的公司。据外媒此前报道,Facebook母公司Meta将向OpenAI支付数百万美元,为Facebook和Instagram生成创作者内容。

    在2月1日的Meta财报电话会议上,Meta出现了战略转向的迹象。当天,扎克伯格提及最多的关键词是AI,并且将生成式AI作为公司今年的最关注的话题之一,“成为生成式AI领导者”已经被扎克伯格提上了日程。

    “AI可能意味着很多不同的东西,而不仅仅是语言模型,”Jie Wang表示,“我认为Meta将继续在应用AI领域发挥重要作用,并在其核心业务中找到用武之地。这个领域的其他行业领导者也将会出现,我们确实处在一个激动人心的时代,就像电子计算机商业化生产的旧时代一样。”

    差异化战略

    在OpenAI带来的这场AI风暴之下,硅谷巨头们想要一决高下的筹码是什么?

    对于谷歌来说,Apprentice Bard是皮查伊此前与公司创始人商讨的落地成果之一。Apprentice Bard将以对话方式满足用户的搜索需求,值得一提的是,它能检索到最新的信息,这是ChatGPT并不具备的能力,因为后者的信息搜集仅截至2021年。不过,其上线仍需时日,ChatGPT的威胁或许还会持续一段时间。

    但OpenAI这边倒是没有停下紧逼的脚步,该公司已经迅速布局商业化路线。2月1日, OpenAI宣布,将试点一项名为“ChatGPT Plus”的付费订阅版本,每月收取20美元。即使是在高峰时段,订阅ChatGPT Plus服务的用户也可以获得该聊天机器人更快速的回应,而且可以提前体验新功能和改进。

    Meta将如何应对这场挑战还不得而知,不过扎克伯格在电话会议上明确表示,“我们将能够在未来几个月内分享更多细节”。

    “像谷歌和Meta这样的大公司肯定会有一定优势,因为他们拥有人力、技术和财力资源。另一方面,当公司规模扩大时,它存在的官僚主义也会加剧。希望谷歌和Meta能继续投资制作好的语言模型,”Jie Wang说道,“不过,没有一个模型可以在所有方面都擅长。因此,这些公司在市场上有足够的空间。这将是一场新的比赛,尤其是在深度和正确性方面。”

    相较之下,微软和亚马逊选择的应对策略是与OpenAI结盟,试图借其东风。

    1月27日,亚马逊内部的Slack消息显示,ChatGPT已经被亚马逊用于许多不同的工作职能中,包括回答面试问题、编写软件代码和创建培训文档等。

    而微软则更有先见之明,1月24日,微软表示将对OpenAI进行为期数年、价值数以十亿计美元的投资,微软希望在其产品中扩大采用人工智能技术,并将人工智能软件纳入其产品系列,包括其设计应用Microsoft Designer、Bing搜索引擎等,该公司还将资助OpenAI在微软Azure云平台上运行其各种产品所需的计算能力。

    “我能理解为什么微软和亚马逊会和OpenAI合作,因为做语言模型不是他们的重点,而谷歌和Meta一直在积极制作语言模型,”Jie Wang表示,“除了像T5和ChatGPT这样的通用语言模型,我认为在某些领域,开发模型会更有用。”

    图片来源:视觉中国-VCG41N1204852431

    保持理性

    2022年书写了AI的新篇章,OpenAI发布的DALL-E 2,以及 MidJourney、Stable Diffusion等图像生成模型,刷新了大众对AI的认知,生成式AI成为最热议的话题之一。

    媒体评论称,这种新的生成式AI背后的想法,是它可以重塑一切,完成信息编写、内容创建、客户服务聊天机器人、研究、法律文件等方面的大部分繁重工作,而ChatGPT的迅速普及有可能颠覆包括教育、金融、新闻媒体、法律等许多行业。

    以亚马逊为例,一边是大规模的裁员,一边是AI员工悄悄上线:ChatGPT已经被亚马逊用于许多不同的工作职能中,包括回答面试问题、编写软件代码和创建培训文档等。

    另据报道,有史以来第一次由 AI 律师进行的出庭辩护原本定于2月22日在美国加州举行。初创公司DoNotPay提供的AI律师为对超速交通罚单有异议的当事人提供即时生成的辩护词,该系统依赖于ChatGPT和DaVinci等AI文本生成程序。不过,由于美国各州律师协会的抗议甚至起诉威胁,加之律师证的障碍,DoNotPay放弃了本次出庭辩护。

    才宣布裁员的BuzzFeed也将与OpenAI合作,利用ChatGPT同款API协助创作个性化内容,该公司CEO表示,今年由 AI 创造的内容将从研发阶段转变为核心业务的一部分。

    在接受每经记者采访时,前OpenAI研究团队负责人、英属哥伦比亚大学计算机科学系副教授Jeff Clune预测,借助AGI(通用AI),我们有30%的机会到2030年实现50%的人类工作自动化。

    不过,Clune告诉记者,如果没有人(通常是人类专家)审查,任何人都不应该完全信任ChatGPT的输出。“真正的风险是,人们在不是某个主题的专家时通常会信任它的输出,因为在局外人看来那似乎非常有说服力、正确和权威,但只有专家可以认识到它犯了很多错误。目前,所有大型语言模型都倾向于过度自信、编造事实、有偏见和犯错误,尽管它们经常生成令人印象深刻的文本。”

    Jie Wang认为,“与所有语言模型一样,ChatGPT只是一个新工具。如果使用得当,任何处理文本的应用程序都可以从这些工具中受益。”

    “有些行业会像过去一样,例如雇用人员使用简单设备进行数字计算的公司和制造这些设备的公司在电子计算机出现时无法生存。我希望看到的是,未来公司能(借助这个技术)提供某些领域的数据并证明其正确性,”他补充说。

    但Jie Wang同时表示,“没有模型是完美的,无论它有多大。ChatGPT没有能力判断它生成的文本是否真实或是否符合人类专家的预期标准,需要确保其训练数据所表达的事实都是正确的,这是一项艰巨的任务,只能由训练有素的领域专家来完成。”

    此外,他认为,相关的神经网络技术也需要更新和改进。“例如,我们想要一个语言模型,它可以执行推理,根据文本描述做数学问题,并在它生成的文本中产生强大的内部逻辑。”

    在Clune看来,“每个行业和人类社会的各个方面都应该考虑这项技术的影响。即使我的预测是错误的,但有一件事是肯定的:AI驱动的大规模变革正在影响我们经济和人类文化的几乎每个方面。”

    封面图片来源:每日经济新闻 刘国梅 摄

    免责声明:本文内容和数据仅供参考,不作投资建议。据此操作,风险自负。

    版权声明

    1本文为《每日经济新闻》原创作品。

    2 未经《每日经济新闻》授权,不得以任何方式加以使用,包括但不限于转载、摘编、复制或建立镜像等,违者必究。

    3版权合作电话:021-60900099。

    上一篇

    青海德令哈连续发生三次地震 经过摸排生产生活秩序一切正常

    下一篇

    以色列军队与巴勒斯坦人在约旦河西岸发生交火



    分享成功
    每日经济新闻客户端
    一款点开就不想离开的财经APP 免费下载体验