每经AI快讯,据智象未来微信公众号8月25日消息,为了攻克效果“失控”与效率低下等问题,智象未来团队将视觉自回归(VAR)架构引入图像编辑,提出了全新的指令引导编辑框架VAREdit。
在EMU-Edit和PIE-Bench这两个业界公认的基准测试数据集上,VAREdit在传统的CLIP的评价指标和更能体现编辑精准性的GPT指标均取得了显著优势。其中,VAREdit-8.4B在GPT-Balance指标上较ICEdit和UltraEdit分别提升41.5%和30.8%;轻量版VAREdit-2.2B可在0.7秒内完成512×512图像高保真编辑。目前,VAREdit已在GitHub和Hugging Face平台全面开源。
1本文为《每日经济新闻》原创作品。
2 未经《每日经济新闻》授权,不得以任何方式加以使用,包括但不限于转载、摘编、复制或建立镜像等,违者必究。