当前位置: 首页 > article >正文

昇思MindSpore第六课---Roberta Prompt Turning

1. Roberta Prompt Turning的概念

在了解预训练语言模型的基础,以及预训练语言模型在Pre-training和Fine-tuning之后,我们已经可以预想到 Prompt的目的是将Fine-tuning的下游任务目标转换为Pre-training的任务 。
Prompt-Tuning起源于GPT-3的提出《Language Models are Few-Shot Learners》(NIPS2020),其认为超大规模的模型只要配合好合适的模板就可以极大化地发挥其推理和理解能力。

2 实践

2.1 配置环境

安装mindnlp 套件
在这里插入图片描述

2.2 模型与数据集加载

本案例对roberta-large模型基于GLUE基准数据集进行prompt tuning。
在这里插入图片描述

2.3 模型微调(prompt tuning)

按照如下步骤定义训练逻辑:

  1. 构建正向计算函数
  2. 函数变换,获取微分函数
  3. 定义训练一个step的逻辑
  4. 遍历训练数据集进行模型训练,同时每一个epoch后,遍历验证数据集获取当前的评价指标(accuracy、f1 score)

在这里插入图片描述

3. 感悟

每节课的深度在不断增加,对于初学者确实有些难度,很多概念也是云里雾里,但是对于模型的架构还是有一个比较清晰的概念。对于模型与数据的加载以及模型的训练也更加熟悉。对于模型的微调也有了一个更清楚的认识。也了解了大模型通过提供“提示”来鼓励预先训练的模型做出特定的预测,指定要完成的任务。这对于大模型是一个非常重要的概念,也让我们更理解大模型运行的原理。


http://www.kler.cn/a/411958.html

相关文章:

  • 问题记录-Java后端
  • 从ChatGPT到代理AI:安全领域的新变革
  • C语言-数学基础问题
  • (原创)Android Studio新老界面UI切换及老版本下载地址
  • 高标准农田智慧农业系统建设方案
  • 累积局部效应 (ALE) 图分析记录
  • c#异步编程(async/await)
  • 阿里云多账号统一认证
  • 玛哈特矫平机:精密制造中的平整大师
  • 多模态大型语言模型(MLLM)综述
  • 微信小程序数据请求教程:GET与POST请求详解
  • Centos 7 系统 openGauss 3.1.0 一主两备集群安装部署指南
  • vue config 接口地址配置
  • Sklearn 内置数据集简介
  • Vue ECharts 基本数据图表绘制详解:让数据飞起来
  • Vue前端开发2.3.2-4 绑定指令
  • C++设计模式-模板模式,Template Method
  • 美国网络安全和基础设施安全局 发布首部国际战略规划
  • 802.15.4 WPAN协议-MAC帧结构
  • Android显示系统(01)- 架构分析
  • Leetcode3206:交替组 I
  • 实现List接口的三类-ArrayList -Vector -LinkedList
  • zabbix 图形中文显示乱码问题
  • 前半有序的排序及有序游标
  • 【SpringBoot】Spring Data Redis的环境搭建(win10)
  • 3D建筑模型的 LOD 规范