当前位置: 首页 > article >正文

多模态简单了解

多模态

  • 1.文本编码
  • 2. ViT图像编码器
    • 2.1图像矩阵self-attention计算:
  • 3.Transformer多模态
    • 3.1CLIP 图文交互
    • 3.2 对比学习训练
    • 3.3 flamingo 图文交互
    • 3.4 LLava 图文交互

1.文本编码

简介: 即通过embedding将字符向量化,进入模型即可。

2. ViT图像编码器

在这里插入图片描述
释义:

  1. 图片是由一个个像素点构成的,每个像素点是1-255的数,所以图片其实是天然的矩阵。
  2. 将图片切割成单独的小的部分,延展开,就和文本一样是一些序列,通过Patches,embedding成向量,并且加上位置信息position。
  3. 输入到transformer结构的编码器中,encoder。

2.1图像矩阵self-attention计算:

示例图如下:
在这里插入图片描述

3.Transformer多模态

简介: 即在图文的两种模态模型中,使用transformer的做法。

3.1CLIP 图文交互

在这里插入图片描述
释义:

  1. 即将图片和文本分布输入各自得编码器得到向量。
  2. 将图片和文本的向量进行相关性计算,这样就可以得到一个图片和文本匹配的模型。

作用: 文搜图的功能,以及得到两个较好的文本、图像编码器。

3.2 对比学习训练

在这里插入图片描述
释义:

  1. 通过图像和文本编码器后,得到各个样本的数据
  2. 进行图像和文本的关系计算,这里每一个图片都只有一个正样本,其他的都是负样本,可以得到一个区分识别图片内容的模型。

3.3 flamingo 图文交互

在这里插入图片描述
释义:

  1. 通过self-attention计算文本和图片中的关系时,将文本输入作为Q;图像输入作为K、V计算

示意图:
在这里插入图片描述

3.4 LLava 图文交互

在这里插入图片描述
释义: 即将文本和图像内容拼接在一起送入到self-attention中,即计算图片与图片、文本与文本、还包括图片与文本之间的关系。
在这里插入图片描述


http://www.kler.cn/news/340393.html

相关文章:

  • Vue的基本用法及模板语法
  • 如何在Android Studio中找到CMakeLists.txt的打印信息
  • 【题目解析】蓝桥杯23国赛C++中高级组 - 斗鱼养殖场
  • 【在Linux世界中追寻伟大的One Piece】DNS与ICMP
  • Study-Oracle-11-ORALCE19C-ADG集群搭建
  • docker简述
  • 讯飞星火编排创建智能体学习(五):变量和文本拼接
  • 209.长度最小的子数组
  • Python 的测试
  • 【大数据应用开发】2023年全国职业院校技能大赛赛题第05套
  • LSTM 长短期记忆网络:解锁时间序列数据的深层秘密
  • 省市区json记录
  • 五十、架构设计经验与技巧(架构设计基本原则)
  • 目标检测指标:AP,mAP
  • 【C语言进阶教程】数据结构与算法(1.简介 2.数据结构基础 3.链表)
  • Zig开发环境搭建
  • 如何通过Kubectl 重启Pod的六种方法
  • .NET周刊【9月第4期 2024-09-22】
  • MidJourney瞬间提升画面质量关键词:构图篇,材质篇
  • Maven 三种项目打包方式:POM、JAR 和 WAR 的区别详解