当前位置: 首页 > article >正文

[论文阅读]Constrained Decision Transformer for Offline Safe Reinforcement Learning

Constrained Decision Transformer for Offline Safe Reinforcement Learning

Proceedings of the 40th International Conference on Machine Learning (ICML), July 23-29, 2023

https://arxiv.org/abs/2302.07351

泛读只需要了解其核心思想即可。

安全强化学习(Safe Reinforcement Learning,Safe RL)通过与环境进行交互来训练满足约束条件的策略。我们旨在解决一个更具挑战性的问题:  从离线数据集中学习安全策略。我们从一个新的多目标优化的角度去研究离线安全强化学习这个问题,并提出了 ε-reducible(翻译为差值可约性)的概念来表征问题的难度。安全性和任务性能之间的内在权衡启发我们提出了约束决策  Transformer(Constrained Decision Transformer,CDT)方法,该方法可以在部署期间动态调整这些权衡。大量实验表明了该方法在学习自适应、安全、鲁棒性和高奖励的策略方面所具有的优势。在相同的超参数条件下,CDT 在所有任务中均大幅超越了其变体和强大的离线安全强化学习基线,同时保持了对不同的约束阈值的零样本(zero-shot)自适应能力,使得我们的方法更适合于有约束的现实  世界强化学习。

贡献:

  1. 我们从一个新的多目标优化(MOO)的视角研究了多于单个预定义约束阈值的离线安全强化学习问题。这些见解揭示了现有的离线安全强化学习训练模式的局限性,并激发我们通过利用 Transformer 的回报条件序列建模能力来提出  CDT 这个方法。
  2. 我们在 CDT 中提出了三项关键技术,这些技术对于学习自适应和安全的策略来说是至关重要的。据我们所知,CDT 是第一个成功的离线安全强化学习方法,能够实现在训练后对不同安全要求的零样本自适应,而且无需解决约束优化问题。
  3. 大量实验表明,CDT 在安全性和任务性能方面均远远优于基线方法及其变体。CDT 能够在不重新训练策略的情况下适应不同的代价阈值,而所有以前的方法都做不到这一点。

安全强化学习的目标是找到一个策略,使其在最大化奖励回报的同时,将由于违反约束而产生的代价回报控制在阈值 K 之内(安全+奖励机制的强化学习)

离线安全强化学习:从预先收集的静态数据集中以离线的方式去学习满足安全约束且能够最大化奖励的策略,本质上来说就是将安全约束条件集成到离线强化学习中。现有的离线安全强化学习方法通常要求在训练前设置一个固定的约束阈值,使得训练后的智能体必须重新进行训练才能适应其他约束条件

动机与目标

 

 


http://www.kler.cn/a/369585.html

相关文章:

  • 【C语言】在Windows上为可执行文件.exe添加自定义图标
  • 最新-CentOS 7 基于1 Panel面板安装 JumpServer 堡垒机
  • Go的内存逃逸
  • 第十六届蓝桥杯大赛软件赛(编程类)知识点大纲
  • Spring事务和事务传播机制
  • Airflow:精通Airflow任务依赖
  • 音频声音怎么调大?将音频声音调大的几个简单方法
  • React中在map遍历中,给虚拟标签(<></>)加key
  • linux进程的状态
  • 同一个Service内部调用开启事务
  • redis集群(主从同步、哨兵、群集)
  • Spring Boot2.x教程:(九)AOP基本概念与示例
  • ssm002学院党员管理系统(论文+源码)_kaic
  • Matlab 车牌识别技术
  • 简化开发流程 低代码技术优势全解析
  • Gateway 统一网关
  • 微信小程序生成海报 / 两张图片合并生成一张
  • 【UE5】通过程序化网格体组件实现剖切功能
  • 开源生活-分布式管理
  • EasyExcel文件导入与导出
  • stp生成树协议(思科)
  • 如何对pdf文件进行加密?pdf文件加密全攻略与深度解析(5个方法)
  • 前端测试工具详解
  • 【CUDA代码实践03】m维网格n维线程块对二维矩阵的索引
  • 本地Docker部署开源WAF雷池并实现异地远程登录管理界面
  • FPM383C指纹模块超详解 附驱动