当前位置: 首页 > article >正文

DEPLOT: One-shot visual language reasoning by plot-to-table translation论文阅读

文章链接:https://arxiv.org/abs/2308.01979http://arxiv.org/abs/2212.10505https://arxiv.org/abs/2308.01979

源码链接:https://github.com/cse-ai-lab/RealCQA

启发:two-stage方法可能是未来主要研究方向,能够增强模型可解释性,并且能有效利用LLM的优点,更加适应真实数据集。

Abstract

       理解图表需要很强的推理能力,之前的最先进 (SOTA) 模型至少需要数以万计的训练示例,然而推理能力仍然非常有限,尤其是在复杂的人工编写的查询中。这篇论文提出了第一个用于视觉语言推理的少样本(few-shot)解决方案,我们将视觉语言推理的挑战分解为两个步骤:(1)图表到文本的翻译,(2)对翻译后的文本进行推理。该方法的关键在于一个模态转换模块,称为DEPLOT,它将图表的图像转换为线性化的表格。DEPLOT的输出可以直接用于提示预训练的大型语言模型(LLM),利用LLM的少样本推理能力。为了获得DEPLOT,我们通过建立统一的任务格式和指标,规范了图表到表格的任务,并在这一任务上端到端地训练DEPLOT。DEPLOT然后可以与LLM以即插即用的方式一起使用。

1.Introduction

        对视觉语言(如绘图和图表)进行多模态推理是一项极其复杂的任务。对于下游任务,例如在CQA,模型需要首先从图像中提取相关信息,以合理的方式组织它们,然后对提取的条目进行推理。早先的研究采取端到端的解决方案(输入图像与问题,输出答案,没有中间结果),但端到端方法需要在大量任务数据上进行微调,即使在微调之后,它们在需要复杂推理的查询仍然表现不佳。例如,当前的 SOTA 模型 MATCHA (Liu et al., 2023a) 在 ChartQA 数据集(Masry et al., 2022)上仅达到 38.2% 的准确率。

        与此同时,GPT-3和 PaLM等大型语言模型 (LLM) 已经展示了卓越的小样本推理技能,而无需昂贵的人工注释。然而,如何将LLM应用到多模态推理任务中还是一个重要问题。在这项工作中,我们建议将多模态视觉语言推理问题分解为:(1) 将输入图表图像转换为表格,以及 (2) 将表格传递给 LLM 进行one-shot推理。

        该方法的关键是一个名为 DEPLOT 的模态转换模块,该模块将图表映射到表格。 DEPLOT 是一个端到端的图像到文本 Transformer 模型,其任务是 plot-to-table 翻译。

        在将绘图图像准确地转换为文本(作为线性化表)后,我们可以将 DEPLOT 的输出与查询一起传递给 LLM 来计算答案。我们利用新颖的提示技术,如思维链 (CoT) 、Self-Consistency (SC)和思维程序 (PoT)来得出更准确的答案。

        综上所述,这项工作有以下贡献:(1) 我们标准化了 plot-to-table 任务,并提出了一个统一且能提供有用信息的表格评估指标。(2) 我们提出了一个高效的模态转换模型 DEPLOT,将多模态任务转换为纯语言任务,然后利用 LLM 一步解决。

2.Background

Plug-and-play of multimodal pretrained models

Zero & few-shot reasoning over tables

Information extraction from plots and charts:早先关于图表信息提取的工作通常基于OCR、对象检测\分割系统、人为定义规则等方式,这些方法一般局限于特定类型图表。ChartBERT (Akhtar et al., 2023) 采用基于 OCR 的方法从图表中提取文本,并使用另外两个阶段的神经方法来处理提取的文本。ChartOCR(Luo等人,2021 年)是一个混合系统,接受所有类型的图表输入,并已被下游任务模型采用,用于图表 QA(Masry等人,2022 年)和summarization(Kantharaj等人,2022 年)。DEPLOT在图表转表格方面能取得比ChartOCR更好的效果。

除了方法,衡量图表提取结果的评估指标也不完善。之前为不同图表设计不同的评估指标,但这些评估指标只是衡量数据提取的过程,而不是最终的提取结果。所以我们提出了一个统一的表格评估指标(因为数据提取的结果就是表格)。

3.Standardizing the Plot-to-table Task

        视觉推理任务分为两个步骤:(1)使用 DEPLOT 将图表转换为文本(表格形式);(2)将表格输入到 LLM 进行推理。其中第一步是至关重要的,未来得到更精确的结果,我们将标准化 plot-to-table 转换任务,并提出一个用于评估 plot-to-table 转换的新指标。

3.1 Task Definition

        早先有工作将表格的评估指标定义为相对数字集相似度(Relative Number Set Similarity,RNSS),该指标仅查看预测的无序数字条目集,并衡量预测集与目标数字集的匹配情况。原理如下

(1)Relative Number Set Similarity (RNSS)

设模型预测表格中的数据为 P = \{p_i\}_{1\leq i \leq N},目标表格中的数据为T = \{t_j\}_{1\leq j \leq M},计算每一对数据的相对距离公式(最后计算得到M*N个相对距离,组成距离矩阵):

$\mathrm{D}(p, t)=\min \left(1, \frac{\|p-t\|}{\|t\|}\right)$

接下来在距离矩阵中寻找一个最佳匹配来最小化整体距离,定义一个二值矩阵X \in \mathbb{R}^{N\times M}个人理解这个二值矩阵应该是每一行、每一列都仅有一个元素为1,需要有多个X,每个X代表一种匹配),最终的score的计算公式为:

RNSS =1-\frac{\sum_{i=1}^N \sum_{j=1}^M \mathbf{X}_{i j} \mathrm{D}\left(p_i, t_j\right)}{\max (N, M)}

但是,RNSS有一些局限:无法定位数据在表格中的位置;完全忽略了非数字数据;在表格重建中没有区分准确率与回调率。而我们认为,好的评估指标应该满足:

(i)不涉及表格行列的排序,以及行列的转置。(预测的表格可能行标题变成列标题,或者标题顺序与target不一致,但这些并不是数据提取好坏的评判标准

(ii)同时考虑数字型数据与非数字数据,允许有一定的误差,但要在阈值以内。

(iii)直观反映准确度和回调率的损失。

(2)Relative Mapping Similarity (RMS)
        我们提出RMS,它将表视为从行和列标题(r, c)到单个值v的映射的无序集合,我们将每个条目写为p_i = (p_i^r, p_i^c, p_i^v)t_j = (t_j^r, t_j^c, t_j^v),分别表示预测表P = {pi}1≤i≤N和目标表T = {tj}1≤j≤M中的每个条目。

文本型数据之间的距离可以使用Levenshtein距离(NL_\tau)衡量,其中\tau是一个阈值,超过阈值就被设置为最大值1(评估键的相似程度)。

\mathrm{NL}_{\tau} \left( p^r \middle\|p^c, t^r \middle\| t^c \right)

数字型数据的距离计算公式为(评估值的相似程度):

\mathbf{D}_{\theta}(p, t) = \min \left( 1, \frac{\| p - t \|}{\| t \|} \right)

总的距离计算公式为:

D_{\tau ,\theta }(p, t) = \left( 1 - \mathrm{NL}_{\tau} \left( p^r \middle\|p^c, t^r \middle\| t^c \right) \right) \left( 1 - \mathbf{D}_{\theta} \left( p^v, t^v \right) \right)

RMS的计算公式如下:

$\mathrm{RMS}_{\text {precision }}=1-\frac{\sum_{i=1}^N \sum_{j=1}^M \mathbf{X}_{i j} \mathrm{D}_{\tau, \theta}\left(p_i, t_j\right)}{N}$

\mathrm{RMS}_{\text{recall}} = 1 - \frac{\sum_{i=1}^{N} \sum_{j=1}^{M} \mathbf{X}_{ij} \mathbf{D}_{\tau, \theta} (p_i, t_j)}{M}

3.2 Training Plot-to-table Conversion Models

        我们使用最先进的视觉语言模型MATCHA (Liu等人,2023a)的架构和权重初始化了一个图像到文本的encoder-decoder架构Transformer模型。我们继续使用MATCHA的checkpoint进行微调,任务是将图表映射到其基础数据表。该表被线性化为一个文本序列(Markdown格式),其中|分隔单元格,\n分隔行。DEPLOT从左到右生成表格。

        训练语料库是一系列的图表-表格对,有合成数据也有真实数据(主要来源是ChartOCR、ChartQA、PlotQA)。

3.3 Human Eval of Plot-to-table Metrics

        经过人为评估,证明RMS的有效性

4.Prompting LLMs for Reasoning

        DEPLOT可以将给定的图表/图形转换成其文本形式(作为线性化表格)。然后,我们可以通过连接表格和question来构建文本提示。我们遵循典型的上下文学习范式,在当前提示前添加一个one-shot例子。

        完整的提示使用了链式思维(CoT)或思维程序(PoT),这些提示稍微修改了Chen(2023)和Chen 等(2022)用于评估表格数据推理的版本。除了CoT提示外,我们还探索了将DEPLOT与大语言模型(LLM)相结合并加上自一致性(SC)(Wang等,2023),SC会采样一组不同的推理路径,并选择多数投票的答案,而不是像CoT那样依赖于一个贪婪解码的答案。

CoT:是指在解决复杂问题时,通过明确的、中间推理步骤逐步达到最终答案的思维过程。这种方式强调展示从问题到解决方案的详细推理路径,而不是直接给出结论。

PoT:是一种更结构化、更程序化的思维过程,与编程类似。PoT 通过定义明确的操作步骤、条件和循环,来系统处理复杂任务。它可以视为将编程逻辑应用于思维过程,以精确指示每一步操作。

CoT: 更关注推理过程本身,突出连贯性和逻辑性,但不一定严格程序化。PoT: 更关注具体的操作步骤,逻辑类似编程语言,强调明确的控制流和条件判断。在本文的情景下,CoT表现为用文字来表达推理过程的逻辑,PoT表现为用伪代码来表达逻辑,如下图所示

        为了简化对大数字的算术运算,我们还测试了提示模型生成可以通过解释器执行的Python代码。为此,我们将Chen等(2022)和Gao等(2022)的范式适应于表格的上下文。未来的工作可以选择利用微调后的表格问答模型,如Herzig等(2020),或使用生成SQL程序的LLM(Cheng等,2023),这可能需要多次调用LLM来执行不同的原子操作。

5.Experiment 

数据集:

(1)ChartQA 包含两个集合:augmented (aug.) 和 human,其中 augmented set 是合成生成的,而 human set 是人类编写的。人类编写问题通常更加多样化和复杂,需要更多的推理,而合成问题通常是高度模板化的。

(2)PlotQA 是纯合成的。它包含v1和v2集合,其中v1主要是提取问题,v2更侧重于数字推理。

评估指标:RNSS 和 RMSF1 都用于评估图到表的翻译

实验结果:

       DEPLOT在ChartQA human set上表现显著优于其他模型,原因可能是因为合成数据集是有固定模板的,其他模型在大量合成数据集上进行训练,在这些模板的数据上可以达到较高准确度。但是,真实数据集中有许多新的类型(分布外数据),面对分布外数据,其他模型的表现就明显下降,这时候DEPLOT的few-shot就体现出了优势,因为它只需要少量样本就能快速适应分布外数据

6.Analyses and Discussions

6.1 Case Study and Error Analysis

        通过实际案例展示了DEPLOT+LLM 的优缺点。第一个例子展示了DEPLOT+FlanPaLM(使用CoT或PoT)相对于MATCHA的优越性。第二个例子暴露出DEPLOT+LLM丢失了图表图像部分视觉特征的缺陷(LLM的输入只有表格和question,而没有颜色信息)。

6.2 Out-of-distribution Analysis

7.Conclusion

       我们提出了 DEPLOT+LLM,这是一种通过将任务分解为两个步骤来进行视觉语言推理的方法。第一步是使用DEPLOT将图表转换为表格。第二步是将 plot-to-text 模型与现成的 LLM 相结合,只需one-shot监督即可在表格上进行推理。 我们通过提出一个新的表相似性比较指标来标准化 plot-to-table 转换任务,该指标考虑了表的结构和数值,但不受列/行排列的影响。借助新指标,我们将图像转文本模型 DEPLOT 的性能与基于 OCR 的基线和三个端到端基线进行比较,从而实现最佳改进。然后,转换模型用于 ChartQA 和 PlotQA 的下游任务。在 ChartQA 人工查询集上,与使用数千个示例微调的端到端 SOTA 相比,一次性 DEPLOT+LLM 模型实现了 +29.4% 的性能。我们还进行了全面的分析,以了解 DEPLOT+LLM 框架的得失,并强调编码视觉属性可以成为未来探索的有益方向。


http://www.kler.cn/a/312739.html

相关文章:

  • 【贪心算法】——力扣763. 划分字母区间
  • SQL50题
  • mapreduce 将数据清洗后保存到 hbase
  • Python酷库之旅-第三方库Pandas(206)
  • goframe开发一个企业网站 rabbitmq队例15
  • SDL渲染器和纹理
  • Android14请求动态申请存储权限
  • WGCAT工单系统 v1.2.1 支持导出PDF和分享创建工单功能
  • JAVA 根据开始和结束ip,计算中间的所有ip
  • 【MySQL】MySQL和Workbench版本兼容问题
  • 力扣每日一题 公交站间的距离
  • 远程访问NAS速度慢??那是因为你没用对。。。
  • 2024年9月北京docker安装+nvidia-docker
  • Clang插件演示-直接调用AI模型定义的变量完成模型推理
  • IP Source Guard技术原理与应用
  • 如何在GitHub上克隆仓库:HTTPS、SSH和GitHub CLI的区别
  • 【机器学习(五)】分类和回归任务-AdaBoost算法-Sentosa_DSML社区版
  • 【算法题】300. 最长递增子序列-力扣(LeetCode)
  • 【资料分析】刷题日记3
  • node前端开发基本设置
  • 计算机毕业设计 公寓出租系统的设计与实现 Java实战项目 附源码+文档+视频讲解
  • 冷热电气多能互补的微能源网优化调度(含matlab代码)
  • MinIO自动化下载及部署脚本(Windows)
  • macOS Sequoia 15 发布,iPhone 镜像、密码应用程序、窗口平铺更新等带来全新体验
  • 数据中心一体化智能运维方案
  • tomcat中间件漏洞CVE-2017-12615,后台弱口令部署war包,CVE-2020-1938