每经AI快讯,北京时间3月7日,谷歌和柏林工业大学的团队重磅推出了史上最大的视觉语言模型——PaLM-E,参数量高达5620亿(GPT-3的参数量为1750亿)。作为一种多模态具身视觉语言模型(VLM),PaLM-E不仅可以理解图像,还能理解、生成语言,可以执行各种复杂的机器人指令而无需重新训练。谷歌研究人员计划探索PaLM-E在现实世界场景中的更多应用,例如家庭自动化或工业机器人。他们希望PaLM-E能够激发更多关于多模态推理和具身AI的研究。(澎湃)
上一篇
冯仑因2857.38万被列为被执行人,回应称“系合同诈骗”
下一篇
顺威股份:目前公司经营范围暂无变化
每日经济新闻客户端
National Business Daily Mobile Version
母亲节营销文案“翻车”,OPPO再道歉!高级副总裁段要辉被处罚:职级直降两级,冻结调薪36个月,本年度绩效不高于C
巴西对中国公民免签已开始,搜索量爆了,旅行社却说:影响真不大!飞行员和航司称“直飞飞不到”
创新管线不确定性放大市场担忧 信立泰心衰创新药组间差异未达预期,股价“一字”跌停