当前位置: 首页 > article >正文

Transformer的前世今生 day03(Word2Vec

前情回顾

  • 由上一节,我们可以得到:
    • 任何一个独热编码的词都可以通过Q矩阵得到一个词向量,而词向量有两个优点:
      • 可以改变输入的维度(原来是很大的独热编码,但是我们经过一个Q矩阵后,维度就可以控制了)
      • 相似词之间的词向量有了关系
  • 但是,在NNLM(神经网络语言模型的一种)中,词向量是一个副产品,即主要目的并不是生成词向量,而是去预测下一个词是什么,所以它对预测的精度要求很高,模型就会很复杂,也就不容易去计算Q矩阵和词向量
  • 模型图如下:
    在这里插入图片描述
  • 因此提出了一个专门生成词向量的神经网络语言模型----Word2Vec

Word2Vec

  • 主要目的是生成词向量,模型图如下:
    在这里插入图片描述
  • 虽然NNLM和Word2Vec基本一致,不考虑细节,网络架构基本一致
  • 但是由于Word2Vec的主要目的是生成词向量,那么对预测精度的要求可以放低,甚至只要合理,就算有多个结果也可以,因此模型不会很复杂,也就是可以更容易的计算出Q矩阵和词向量
  • 所以对比NNLM,Word2Vec不用预测更准确,只需要可以正常的进行一个反向传播,可以去掉激活函数,加快计算速度,如下:
    在这里插入图片描述
  • Word2Vec的缺点:
    • 词向量不能表示一词多义,如果我们在训练中给某一个词选择了一个词向量,但是在测试中,同样的词可能会有其他意思,那模型仍然不知道这个位置应该填入什么词,如下:
      在这里插入图片描述

CBOW

  • 给出一个词的上下文,预测这个词,如下:
    在这里插入图片描述
  • 由于Q矩阵和词向量的产生在INPUT到PROJECTION的过程中,且CBOW会有更多的Q矩阵和词向量,也就意味着它生成词向量的效率更高,如下:
    在这里插入图片描述

Skip-gram

  • 给出一个词,得到这个词的上下文,如下:
    在这里插入图片描述
  • 相反,在Skip-gram中,我们得到Q矩阵和词向量的效率会低一些
    在这里插入图片描述

http://www.kler.cn/a/273789.html

相关文章:

  • 【MySQL系列文章】Linux环境下安装部署MySQL
  • AIA - APLIC之三(附APLIC处理流程图)
  • 【人工智能计算机视觉】——深入详解人工智能计算机视觉之图像处理之基础图像处理技术
  • CS·GO搬砖流程详细版
  • 行为模式10.职责链模式
  • 网页数据如何正确copy到postman中
  • 内盘期货交易系统的全开源代码
  • 代码随想录算法训练营第day31|455.分发饼干 ● 376. 摆动序列 ● 53. 最大子序和
  • 安装vcenter管理esxi
  • SD卡RAW故障解析与数据恢复全攻略
  • 24计算机考研调剂 | 【官方】山东师范大学(22自命题)
  • C#,图论与图算法,图(Graph)广度优先遍历(BFS,Breadth First Search)算法与源代码
  • android api 34 编译ffmpeg with libfdk-aac
  • Linux docker1--环境及docker安装
  • 【Excel自动化办公】使用openpyxl对Excel进行读写操作
  • 服务器病毒木马通用排查处理应急响应流程
  • 使用RabbitMQ,关键点总结
  • Samtec科普 | 一文了解患者护理应用连接器
  • 【Unity】层(Layer)详解
  • 玩转电商新趋势!淘宝商品评论电商API接口助你一臂之力
  • RPC学习笔记一
  • MySQL常用命令总结
  • 图论题目集一(代码 注解)
  • 使用rrweb悄悄录制用户操作过程
  • 蓝桥杯决赛2023 RE CyberChef2
  • 抖音视频爬虫工具安装|视频无水印批量下载软件