每经AI快讯,6月16日,软件及技术咨询公司Thoughtworks举办了媒体解析会,Thoughtworks中国区CTO徐昊表示,在大语言模型的使用上,当下可以分为两种方式:一种方式基于传统的机器学习,源自迁移学习(Transfer Learning)逻辑;另一种方式基于大语言模型本身的阅读理解和推理能力。
徐昊解释称,针对前者,既然存在一个预先训练的模型(pre-trained model),采用更接近某个特定领域的数据进行迁移学习,就可以将预先训练的能力迁移到不同领域;而后者不需要复杂的数据收集、昂贵的GPU和长时间训练,通过几次对话修正就可以将大语言模型迁移到目标领域。(界面)