Florence-VL:基于生成式视觉编码器的多模态大语言模型

马里兰大学与微软研究院合作推出了一种新型多模态大语言模型Florence-VL,该模型利用生成式视觉编码器Florence-2,显著提升了对图像中细节信息的理解能力。 这项研究由马里兰大学博士生陈玖海领衔,Bin Xiao担任通讯作者,并由马里兰大学助理教授Tianyi Zhou以及微软研究院研究员Jianwei Yang, Haiping Wu, Jianfeng Gao共同完成。

资源链接:

  • 论文:https://www.huida178.com/link/345d307ea2410ecb7f4d00b23ed9a399
  • 开源代码:https://www.huida178.com/link/4e5916dda041e42d18d9cf266d56b62b
  • 项目主页:https://www.huida178.com/link/c9c346f0d25cac2d93439db2c736bc8b
  • 在线Demo:https://www.huida178.com/link/f3c013d50e1737ca632a8f17e5815afc
  • 模型下载:https://www.huida178.com/link/8c76acf2b5b98f72bec5c3e3b258f122

Florence-VL的核心在于采用Florence-2作为视觉编码器。不同于传统的CLIP等模型仅提供单一全局图像表示,Florence-2通过生成式预训练,能够根据不同的任务提示生成多样化的视觉特征,从而更全面地理解图像细节,包括局部信息和像素级信息。 Florence-VL巧妙地利用多个任务提示(例如图像描述、OCR和物体定位),并融合不同深度层的特征,实现了更强大的视觉理解能力。

核心技术:深度-广度融合策略 (DBFusion)

Florence-VL的创新之处在于其深度-广度融合策略,它有效地结合了多任务提示和多层级特征,以获得更丰富的视觉表征:

  • 广度: 通过不同的任务提示(例如图像描述、OCR和物体定位),生成针对不同任务的视觉特征。
  • 深度: 利用Florence-2不同深度层捕获从低级到高级的视觉特征,实现对细节和整体信息的兼顾。
  • 融合: 采用通道拼接策略,将不同任务和不同深度层的特征高效整合,避免增加模型计算负担,同时保留特征的多样性。

实验结果与对比

研究团队通过一系列实验,在多个多模态基准任务上评估了Florence-VL的性能,包括通用视觉问答、OCR、知识理解等。结果显示,Florence-VL在多个任务上超越了基于CLIP等传统视觉编码器的模型,尤其在文本提取任务上表现突出。消融实验也证明了Florence-2作为视觉编码器的优越性。

总结与展望

Florence-VL凭借其创新的生成式视觉编码器和深度-广度融合策略,在多模态大语言模型领域取得了显著进展。未来研究方向包括探索更先进的自适应融合策略,以根据不同任务动态调整特征融合的策略。

(脚注:[1] https://www.huida178.com/link/3f26de5213216fe4c8a797b1ad68d771)

以上就是Florence-VL来了!使用生成式视觉编码器,重新定义多模态大语言模型视觉信息的详细内容,更多请关注慧达安全导航其它相关文章!

点赞(0)

评论列表 共有 0 条评论

暂无评论
立即
投稿
发表
评论
返回
顶部