当前位置: 首页 > article >正文

Bert框架详解(下)

一、Bert模型网络结构

1、Add与Normalize

Add:将前面的数据传到后面层,残差网络同理。

Normalize :归一化,与batch normalize同理。

2、outputs(shifted right)

outputs(shifted right):指在解码器处理过程中,将之前的输出序列向右移动一位,并在最左侧添加一个新的起始符(如“<sos>”或目标序列开始的特殊token)作为新的输入。这样做的目的是让解码器在生成下一个词时,能够考虑到已经生成的词序列。 作用:通过“shifted right”操作,解码器能够在生成每个词时,都基于之前已经生成的词序列进行推断。这样,解码器就能够逐步构建出完整的输出序列。 示例说明:假设翻译任务,输入是“我爱中国”,目标输出是“I love China”。在解码器的处理过程中: 在第一个步,解码器接收一个起始符(如“<sos>”)作为输入,并预测输出序列的第一个词“I”。 在第二个步,解码器将之前的输出“I”和起始符一起作为新的输入(即“<sos> I”),并预测下一个词“love”。 以此类推,直到解码器生成完整的输出序列“I love China”。

 

 3、训练数据

方法一:随机的将句子中的15%的词汇进行mask。让模型去预测mask的词汇。 注:一般选择字进行mask,词的可能性太多,例如今天,明天,后天,上午,下午,没有,再次等等。

方法二:预测两个句子是否应该连在一起。

CLS:分类标记(Classification Token)用于表示输入序列的开始。在输入序列中,CLS应放置在句子的开头。在训练过程中,CLS也当作一个词参与训练,得到对应与其他词汇关系的词向量。 SEP:分隔符标记(Separator Token)用于分隔两个句子或表示单个句子的结束。在处理多个句子时SEP应放置在每个句子的结尾。在训练过程中,SEP也当作一个词参与训练,得到对应与其他词汇关系的词向量。

 


http://www.kler.cn/a/383603.html

相关文章:

  • 2024-12-25-sklearn学习(20)无监督学习-双聚类 料峭春风吹酒醒,微冷,山头斜照却相迎。
  • 领克Z20结合AI技术,革新自动驾驶辅助系统
  • CentOS Stream 9 挂载Windows共享FTP文件夹
  • 重温设计模式--2、设计模式七大原则
  • HTMLCSS:惊!3D 折叠按钮
  • Hive SQL 之 `LATERAL VIEW EXPLODE` 的正确打开方式
  • conda 设置代理
  • 基于SpringBoot的医疗陪护系统设计与实现(源码+定制+开发)
  • apache-seata-2.1.0 AT模式使用篇(配置简单)
  • linux 进程调度学习笔记
  • 数据结构和算法-01背包问题02-背包问题常见解决方案
  • 道品科技智能水肥一体化技术要点及实施效果
  • 运行 lio-sam 定位建图算法,error解决
  • Oracle与SQL Server的语法区别
  • 斯坦福医学部发布GPT润色本子教程
  • CPU算法分析LiteAIServer视频智能分析平台视频智能分析:抖动、过亮与过暗检测技术
  • 【fiddler】用fiddler实现手机抓包
  • 2024版最新CTF资源库分享:CTF入门知识手册、CTF工具、练习靶场。零基础入门到精通,看完这篇就足够了~
  • 【C++】详细介绍:priority_queue的使用、适配器、deque介绍、仿函数
  • OpenHarmony 入门——ArkUI 自定义组件间的父子双向同步状态装饰器@Link语法(四)
  • Java 文件操作与IO流
  • JavaAPI(1)
  • 鸿蒙开发:ArkUI Toggle 组件
  • 计算机网络-网络原理初识
  • yolo继续训练模型
  • 【Linux内存泄漏】自创pamp 内存快照比对定位内存泄漏【2024-11-07】