当前位置: 首页 > article >正文

Re78 读论文:GPT-4 Technical Report

诸神缄默不语-个人CSDN博文目录
诸神缄默不语的论文阅读笔记和分类

论文全名:GPT-4 Technical Report

官方博客:GPT-4 | OpenAI

appendix懒得看了。

文章目录

  • 1. 模型训练过程心得
  • 2. scaling law
  • 3. 实验结果
    • 减少风险

1. 模型训练过程心得

模型结构还是Transformers,训练目标还是语言模型(预测下一个token),我写过GPT-1/2/3的博文了直接看之前的博文吧。

增加了后训练对齐过程/用Reinforcement Learning from Human Feedback (RLHF)微调,提升模型回答的真实性,使其更符合人类偏好。

训练过程验证了scaling law,也就是有效的架构和优化方案在小模型上跑过之后,它们在大尺度模型上的效果提升是可预期的,这样只需在小模型上验证方案,就可以在大模型上放心去做了。

GPT-4仍然具有如下缺点(这也是现在很多大模型工作在致力于干掉的):幻觉,上下文长度限制,训练后就无法更新知识(does not learn from experience),偏见

GPT-4模型可以根据用户偏好实现一定程度的定制化。

针对风险的解决方案:

  1. safety-relevant RLHF training prompts
  2. rule-based reward models (RBRMs):若干GPT-4零样本分类器,输入是prompt、模型回复和人工评估的标准,输出是这个问答对是否安全

更多安全问题可以看System Card。

2. scaling law

  1. 损失函数与计算量遵循幂函数,高度可预测在这里插入图片描述
    在这里插入图片描述
  2. 指标也是在这里插入图片描述
    在这里插入图片描述
  3. 但也有例外:
    在这里插入图片描述

3. 实验结果

对于数据污染情况,又做了一个把测试集中泄露数据去掉的新数据集,报告两个测试集上比较差的结果。

考试:
在这里插入图片描述

在这里插入图片描述

标准LM benchmark:
在这里插入图片描述

在用户偏好方面,相比GPT-3.5,人工标注者对GPT-4的回答打分更高。

GPT-4的跨语言能力:
在这里插入图片描述

多模态示例:
在这里插入图片描述

遵从事实的能力得到了提升:
在这里插入图片描述

在这里插入图片描述

上图任务所用的数据示例:
在这里插入图片描述

后训练(PPO)影响calibration(评估模型对可能性高的答案给出更高的置信度的能力):
在这里插入图片描述

减少风险

找了专家来进行对抗式提问

示例:
在这里插入图片描述

在这里插入图片描述

改进误杀的示例:
在这里插入图片描述

安全性提升效果:
在这里插入图片描述


http://www.kler.cn/a/505062.html

相关文章:

  • 中台成熟度模型有什么用
  • 2025特种设备安全管理人员免费题库限时练习(判断题)
  • RocketMQ消息发送---源码解析
  • 【FAQ】HarmonyOS SDK 闭源开放能力 —Map Kit(4)
  • 系统架构设计师考点—UML建模和设计模式
  • ASP.NET Core 全局异常处理
  • 【NLP高频面题 - 分布式训练篇】分布式训练主要解决大模型训练中的哪些问题?
  • Android中下载 HAXM 报错 HAXM installation failed,如何解决?
  • Jmeter进行http接口并发测试
  • MyBatis 中动态 SQL 标签
  • 后端技术选型 sa-token校验学习 中 文档学习
  • 庖丁解java(一篇文章学java)
  • 浅谈PHP之线程锁
  • 【实践】操作系统智能助手OS Copilot新功能测评
  • C语言初阶习题【30】字符串左旋
  • ECharts 折线图隐藏标点
  • Maven 配置本地仓库
  • 矩阵碰一碰发视频之视频剪辑功能开发全解析,支持OEM
  • 音频语言模型与多模态体系结构
  • redis监控会不会统计lua里面执行的命令次数