当前位置: 首页 > article >正文

【论文笔记】VCoder: Versatile Vision Encoders for Multimodal Large Language Models

🍎个人主页:小嗷犬的个人主页
🍊个人网站:小嗷犬的技术小站
🥭个人信条:为天地立心,为生民立命,为往圣继绝学,为万世开太平。


基本信息

标题: VCoder: Versatile Vision Encoders for Multimodal Large Language Models
作者: Jitesh Jain, Jianwei Yang, Humphrey Shi
发表: CVPR 2024
arXiv: https://arxiv.org/abs/2312.14233
GitHub: https://github.com/SHI-Labs/VCoder

基本信息

摘要

人类拥有非凡的视觉感知能力,即看到并理解所见,这帮助他们理解视觉世界并推理。

多模态大型语言模型(MLLM)最近在视觉-语言任务上取得了令人印象深刻的成果,这些任务包括视觉问答、图像标题生成、视觉推理和图像生成。

然而,当被要求识别或计数(感知)给定图像中的实体时,现有的MLLM系统却失败了。

为了开发一个准确的多模态MLLM感知和推理系统,我们提出使用Versatile enCoderVCoder)作为多模态MLLM的感知之眼。

  1. 我们将分割或深度图等感知模态输入到VCoder中,从而提高MLLM的感知能力。
  2. 我们利用COCO图像和现成视觉感知模型的输出,创建我们的COCO分割文本(COST)数据集,用于训练和评估MLLM在物体感知任务上的表现。
  3. 我们引入了评估MLLM在COST数据集上物体感知能力的指标。
  4. 我们提供了广泛的实验证据,证明了VCoder在物体级感知技能上优于现有的多模态MLLM,包括GPT-4V。

我们将数据集、代码和模型开源,以促进研究。

主要贡献

  • 我们提出使用额外的(感知)控制输入,并将其提供给通用编码器(VCoder),以提升物体感知性能。
  • 我们引入了COCO分割文本(COST)数据集,用于训练和评估多模态LLM系统在物体识别、计数和顺序预测等基本物体级感知任务上的表现。
  • 此外,为了量化MLLMs的物体感知能力,我们提出了计算计数得分(CS)、幻觉得分(HS)和深度得分(DS)。我们的实验表明,在COST数据集上进行验证时,VCoder适配的LLaVA1.5在所有指标上均优于基线MLLMs。

工作

COST 数据集

COST 数据集

我们将COCO中的图像、GPT-4中的问题和OneFormer的分割输出整合到问答格式中,用于训练和评估MLLLMs在物体识别任务上的表现。

我们还通过整合DINOv2 DPT的深度图输出,将COST扩展到物体顺序感知任务。

通过类似地整合其他模态(例如,关键点图),COST可以扩展到更多物体级任务。

VCoder

VCoder

  • <seg>: OneFormer 的分割图通过一个SegCoder(CLIP-ViT-L-336px)和一个两层MLP。
  • <depth>: DINOv2 DPT 深度图通过一个DepthCoder(CLIP-ViT-L-336px)和一个两层MLP。
  • <image>: 原图通过一个DepthCoder(CLIP-ViT-L-336px)和一个两层MLP。
  • <query>: 文本分词后嵌入。
  • LLM: Vicuna-1.5

Evaluation Metrics for Object Identification

尽管存在各种指标来衡量视觉-语言模型中的物体幻觉,但现有的指标在计算幻觉得分时都没有考虑明确的物体数量。

我们认为,MLLM返回的物体数量是评估物体识别性能时不应忽视的关键组成部分。

因此,我们提出使用两个指标来评估MLLM中的物体识别性能:计数得分( C S \mathbf{CS} CS)和幻觉得分( H S \mathbf{HS} HS)。

Evaluation Metrics for Object Identification

给定一个真实句子( G G G)和一个MLLM预测的响应( P P P),我们首先从两个文本样本中提取对象词(名词)及其对应的计数,并以字典形式表示,其中键为对象名词,值为对应对象的计数:

G dict = { O B J 1 G : C N T 1 G ; ⋯   ; O B J N G : C N T N G } P dict = { O B J 1 P : C N T 1 P ; ⋯   ; O B J M P : C N T M P } \begin{align*} G_{\text{dict}} &= \{\mathbf{OBJ}^G_1 : \mathbf{CNT}^G_1; \cdots; \mathbf{OBJ}^G_N : \mathbf{CNT}^G_N\} \\ P_{\text{dict}} &= \{\mathbf{OBJ}^P_1 : \mathbf{CNT}^P_1; \cdots; \mathbf{OBJ}^P_M : \mathbf{CNT}^P_M\} \end{align*} GdictPdict={OBJ1G:CNT1G;;OBJNG:CNTNG}={OBJ1P:CNT1P;;OBJMP:CNTMP}

其中 N N N M M M 分别代表 G G G P P P 中不同对象名词的数量。接下来,我们以 G dict G_{\text{dict}} Gdict P dict P_{\text{dict}} Pdict 作为参考,对键的计数进行一对一匹配,以计算计数得分( C S \mathbf{CS} CS)和幻觉得分( H S \mathbf{HS} HS):

C S = 100 N ∑ i = 1 N { min ⁡ ( C N T i G , C N T i P ) max ⁡ ( C N T i G , C N T i P ) if  I ( O B J i G , P dict ) 0 otherwise C S = 100 M ∑ j = 1 M { 1 − min ⁡ ( C N T j P , C N T j G ) max ⁡ ( C N T j P , C N T j G ) if  I ( O B J j P , G dict ) 1 otherwise I ( O B J , D ) = { True if  O B J  is in keys ( D ) False otherwise \begin{array}{l} \mathbf{CS} = \frac{100}{N} \sum_{i=1}^{N} \left\{ \begin{array}{ll} \frac{\min(\mathbf{CNT}_{i}^{G}, \mathbf{CNT}_{i}^{P})}{\max(\mathbf{CNT}_{i}^{G}, \mathbf{CNT}_{i}^{P})} & \text{if } I(\mathbf{OBJ}_{i}^{G}, P_{\text{dict}}) \\ 0 & \text{otherwise} \end{array} \right. \\ \mathbf{CS} = \frac{100}{M} \sum_{j=1}^{M} \left\{ \begin{array}{ll} 1 - \frac{\min(\mathbf{CNT}_{j}^{P}, \mathbf{CNT}_{j}^{G})}{\max(\mathbf{CNT}_{j}^{P}, \mathbf{CNT}_{j}^{G})} & \text{if } I(\mathbf{OBJ}_{j}^{P}, G_{\text{dict}}) \\ 1 & \text{otherwise} \end{array} \right. \\ I(\mathbf{OBJ}, D) = \left\{ \begin{array}{ll} \text{True} & \text{if } \mathbf{OBJ} \text{ is in keys}(D) \\ \text{False} & \text{otherwise} \end{array} \right. \end{array} CS=N100i=1N{max(CNTiG,CNTiP)min(CNTiG,CNTiP)0if I(OBJiG,Pdict)otherwiseCS=M100j=1M{1max(CNTjP,CNTjG)min(CNTjP,CNTjG)1if I(OBJjP,Gdict)otherwiseI(OBJ,D)={TrueFalseif OBJ is in keys(D)otherwise

计数得分( C S \mathbf{CS} CS):表示MLLM相对于真实句子预测的正确物体计数百分比,越高越好。

幻觉得分( H S \mathbf{HS} HS):表示MLLM预测的额外物体计数百分比,这些计数在真实句子中不存在,越低越好。

实验

Comparison to baseline Multimodal LLMs on the COST validation dataset for Object Identification

  • COST IT LLaVA-1.5-7b: 使用COST训练数据与LLaVA-1.5中使用的指令微调数据混合而成的数据从头训练LLaVA-1.5。
  • Soft-Prompted LLaVA-1.5: 在LLM输入前添加576个可学习标记(⟨prompt⟩),并在COST训练数据集上仅微调⟨prompt⟩参数。
  • ImCoder LLaVA-1.5: 使用原图作为控制输入,在COST训练数据上进行训练。

Performance on Object Order Perception

Input Tokens: <depth> + <seg> + <img> + <query>

使用真实值和预测中物体位置的绝对差值计算深度得分( D S \mathbf{DS} DS)。

总结

这项工作分析了多模态大型语言模型(VLMMs)在物体级感知技能方面的表现。

尽管MLLMs在视觉推理方面表现良好,但它们需要在简单而基本的物体感知任务上提高。

为了提高MLLMs的物体感知能力,我们提出了COST数据集,用于训练和评估MLLMs在物体感知任务上的表现。

我们在COST数据集上对不同的现成MLLMs和GPT-4V进行了基准测试,并观察到它们的性能不佳。

因此,我们提出使用感知模态作为控制输入,以及一个通用的视觉编码器(VCoder)作为适配器,将控制输入投影到LLM嵌入空间。

我们的VCoder可以轻松扩展,根据任务利用各种模态作为控制输入。

为了量化MLLMs在物体级的感知能力,我们引入了计数得分( C S \mathbf{CS} CS)、幻觉得分( H S \mathbf{HS} HS)和深度得分( D S \mathbf{DS} DS)。

我们适配了带有VCoder的LLaVA-1.5,仅在COST数据集上训练了VCoder,并在物体感知任务上展示了其改进的性能,同时保持了推理性能。

我们希望我们的工作能够激发研究界关注为MLLMs开发物体感知数据集,并在未来开发在感知和推理方面同样出色的视觉系统。


http://www.kler.cn/a/385370.html

相关文章:

  • 设计者模式之策略模式
  • 【Android】名不符实的Window类
  • 计算机的错误计算(一百四十八)
  • mybatis连接PGSQL中对于json和jsonb的处理
  • pnpm管理多工作区依赖
  • Java的main方法static
  • 100+SCI科研绘图系列教程(R和python)
  • A day a tweet(sixteen)——The better way of search of ChatGPT
  • ffmpeg命令
  • L7.【LeetCode笔记】相交链表
  • Spring Boot 项目启动时打印端口号、项目名及访问地址
  • 【Vue 全家桶】3、使用 Vue 脚手架(Vue-cli)
  • 商业数据库 - oracle - 索引
  • InnoDB 存储引擎<六> Redo log
  • 计算机网络——TCP篇
  • 基于SpringBoot的Java教学支持系统开发指南
  • ​Controlnet作者新作IC-light V2:基于FLUX训练,支持处理风格化图像,细节远高于SD1.5。
  • Rust异步运行时框架tokio保姆级教程
  • 【SQL server】数据库远程连接配置
  • c++ 分治算法
  • Vue中使用echarts生成地图步骤详解
  • python opencv3
  • Streamlit 入门使用指南及与 FastAPI 的配合使用
  • 如何缩小PPT演示文稿的大小?
  • Spring Boot框架在信息学科平台建设中的实战技巧
  • Linux上的各种查询