对比传统的强化学习算法,分层强化学习(Hierarchical Reinforcement Learning)具有很多优势。目前,对其的研究主要集中在三种思路,分别是基于选项的学习(Option)、基于分层局部策略的学习(HAM)与基于子任务的学习(MAXQ)。

HRL更像是一种结构性的框架,而不是具体的算法形式。

分层的优点

  • 时间上的抽象(Temporal abstraction):由于HRL对时间的抽象,其可以考虑持续一段时间的策略,而不只是一个时间点的策略
  • 迁移/重用性(Transfer/Reusability):HRL的本质是分解问题。在把大问题分解为小问题后,小问题学习到的解决方法可以迁移到别的问题之上。
  • 有效性/有意义(powerful/meaningful)-状态上的抽象(state abstraction):HRL存在类似于attention的机制,即当前的状态中与所解决问题无关的状态不会被关注到。

不同的最优

由于问题被分层解决,存在几种不同的最优:

  • 分层最优(Hierarchically optimal):遵循分层结构,但是每一个子部件不一定是局部最优
  • 回溯最优(recursively optimal):遵循分层结构,每一个子部件一定是局部最优
  • 平面最优(flat optimality):不受层级限制,只用最基本的动作去找到一个最优的策略,一般可以给出最多的选择

SMDP

SMDP也就是半马尔可夫决策过程,它与MDP有一定的区别:

  • 动作action可持续,持续时间(holding time/ transition time)为,此期间状态不改变
  • 数学上也是用表示,但是在这段持续时间内存在不同的理解

SMDP QL的基本形式

基于SMDP,QL的基本形式也有所变化:

思路一:基于选项的学习(Option)

最简单,最受欢迎的分层结构,变体也最多。

思想

  • 完成一项任务或解决一个问题一般需要多个层级的步骤参与(例:做饭、去车站)。一个步骤对应一个option。
  • 两个基本问题:
    • 理论上层级可以无限多,如何划分不同的层级?层级太多不利于收敛,层级太少不利于找到最好的步骤。
    • 如何想出最初的option set(所有可能的option集合)?

option-对应inter-option policy

迭代中选择哪一个option,由inter-option policy决定,也就是由直到option结束的reward+到结束的带折扣因子的转移概率决定。

  • 初始集/函数:由之前的情况决定
  • 选项内的policy(intra-option policy):决定option内部的action
  • 终止条件:由过去的条件决定

值函数带有依赖状态的折扣

action-对应intra-option policy

action的选择由即时的reward+到下一个状态的转移概率决定,也就是intra-option policy。

总而言之,option是action的特例,而且一个option的Reward是多个action积累而成。

时间差分法TD

SMDP QL(option)

值函数的更新方式:bootstrapping(利用后继状态的值函数估计当前值函数)

Intra-option QL

  • ,如果option没有在S2结束
  • ,如果option在S2结束

可以利用在S2结束的概率两式统一:

Option Discovery

之前提到过应用option时有一个问题需要解决,那就是如何找到所有的option集合。有几种方式可以选择,但基本上都是把握瓶颈状态的处理,因为瓶颈状态可以提供结束的概率$\\\\beta$

good option

好的option需要有以下特征:

  • 重用性(reusability)
  • 减少探索(cut down on exploration)
  • 促进迁移(transfering)

然而,单纯根据这些标准来选择,都难以实际地进行评估。

所以,采用现有的一些方案来寻找好的option:

surrogate measures: bottlenecks/ access states

  • graph partitioning ideas (Shimon):如果有一个MDP转移矩阵,可以将其分割为多个子图,里面的最弱的连接就是瓶颈;如果没有图,可以随机游走,然后根据数据产生图
  • diverse density:启发式的,successful trajectories的密度会比不成功的大,option所在的概率也会更大。自然地用到了experience replay
  • betweeness:跟graph partitioning ideas很像
  • small world option:不需要任何的先验知识,但是需要一些数据,然后将其分为small world graph,可以大幅减少学习时间,因为其遵守一定的概率分布

思路二:基于分层局部策略的学习(HAM)

比option更为复杂,有人认为是最优雅的分层理论,较为依赖于先验知识与编程技巧

抽象机的状态

  • action:执行原始的动作
  • call:调用另一个抽象机
  • choice:无差别地选择另一个状态
  • stop:停止现在的抽象机

例子:在充满障碍的房间里探索

更新方式

在三个矩阵上更新:

  • Hi:机器的调用状态(call stack)
  • Si:核心的状态-对应原始动作(core MDP)
  • Mi:机器的状态(machine state)

当遵循policy在不同机器、不同机器状态中转移的时候只更新Hi和Mi,调用了原始的动作的时候才会更新Si

与option的对应

option与对应的policy是绑定在一起的,也就是说option一旦开始,policy就被冻结了,内部是没有choice状态的。从这个角度来看HAM更加灵活,因为它的每个抽象机都是可以有choice状态的。

思路三:基于子任务的学习(MAXQ)

更加符合直觉的表达方式。像HAMs一样,MAXQ是编程语言中的概念如何与随机最优控制框架成功集成的一个很好的例子。

例子:出租车

任务M被分为多个子任务M0,M1,~,Mi。对于每个子任务Mi:

  • Si:taxi的位置、乘客的位置、乘客的目的地
  • Ai:所有子任务与原始动作的集合的子集(保持dag的结构)
  • Ri:假回报-只与子任务有关

如果不存在假回报,则此种方法称为MAXQ0 Learning

SMDP

  • 状态空间
  • 动作空间
  • 转移矩阵-在子任务Mi中,需要步从转移到
  • 回报也是积累而来:

值函数的分解

  • ,如果a是复合(composite)的
  •  ,如果a是原始(primitive)的

与其它两个的不同

option和ham都是在一个SMDP里学习的,但MAXQ是在SMDP的集合(每个子任务对应一个SMDP)中学习的

主要参考资料

https://people.cs.umass.edu/~mahadeva/papers/hrl.pdf

这篇survey很经典,值得一看。

https://www.youtube.com/watch?v=K5MlmO0UJtI

这个老师讲得特别清楚,推荐一看。

【算法综述】分层强化学习(HRL)相关推荐

  1. 【干货总结】分层强化学习(HRL)全面总结

    深度强化学习实验室 来源:https://zhuanlan.zhihu.com/p/267524544 作者:脆皮咕(S.Q.Yang) 编辑:DeepRL 最近做分层强化学习的survey,系统地看 ...

  2. 分层强化学习综述:Hierarchical reinforcement learning: A comprehensive survey

    论文名称:Hierarchical reinforcement learning: A comprehensive survey 论文发表期刊:ACM Computing Surveys 期刊影响因子 ...

  3. 强化学习笔记:分层强化学习

    1 传统强化学习的不足 & 为什么需要分层强化学习? 传统的强化学习方法会面临维度灾难的问题,即当环境较为复 杂或者任务较为困难时,agent的状态空间过大,会导致需要学习的参数以及所需的存储 ...

  4. 集成的分层强化学习,让人工智能在解决智能问题时表现得更聪明

    本文约2700字,建议阅读6分钟 本文概述了分层问题解决的认知基础,以及如何在当前的 HRL 架构中实现这些基础. 根据认知心理学的资料,生物主体复杂问题解决行为的发展,依赖于分层认知机制.分层强化学 ...

  5. 【强化学习】分层强化学习

    最近一直在做实验的一篇论文有一些些分层强化学习的思想,就来学一学真分层强化学习,虽然已经是三四年前流程的东西了,但也有了解的必要(要不不知道怎么入手了) 分层强化学习的主要思想是将一个复杂的任务分成很 ...

  6. 【分层强化学习】HAC论文及代码

    论文名称:Learning Multi-Level Hierarchies with Hindsight 论文作者:Andrew Levy, George Konidaris, Robert Plat ...

  7. 【论文笔记】分层强化学习鼻祖:Feudal Reinforcement Learning 1993

    1993年的分层强化学习:Feudal Reinforcement Learning 概括 1992年没有深度学习,人们研究RL的思路与现在并不相同.但不可否认,提出"分层强化学习" ...

  8. 分层强化学习:基于选项(option)的强化学习/论文笔记 The Option-Critic Architecture 2017 AAAI

    The Option-Critic Architecture 2017 AAAI 1 option option 可以看作是一种对动作的抽象. 一般来说,option可以表示为一个三元组,其中: 是这 ...

  9. AI周报丨标清变4k?B站超分辨率算法开源;强化学习算法控制核聚变登上《nature》

    AI周刊丨标清变4k?B站超分辨率算法开源:强化学习算法控制核聚变登上<nature> 2022年2月22日 极链AI云 文章目录 AI周刊丨标清变4k?B站超分辨率算法开源:强化学习算法 ...

最新文章

  1. OC中的NSArray和NSMutableArray、NSDictionary和NSMutableDictionary用法
  2. 一年暴涨近20倍,比特币是郁金香泡沫还是庞氏骗局?
  3. linux 发行版本和 及其与linux内核之间的关系
  4. android listview 中的checkbox,Android中ListView与CheckBox的使用,及问题解决
  5. 完整的POM文档内容
  6. 计算机网络与网站设计知识点,计算机网络技术知识点总结-20210525075410.docx-原创力文档...
  7. window 环境下搭建多个git项目
  8. 贪心法——LeetCode 55 跳跃游戏
  9. mysql---索引及explain的作用
  10. 赤峰中考计算机考试软件,2017赤峰中考信息技术与实验操作考试实施细则
  11. GNSS-SINEX文件格式简介
  12. VirtualBox安装CentOS5.5 Insert Guest Additions CD image…(HOST+D)
  13. 如何在别的电脑上用自己的系统------在移动硬盘上装win10
  14. 抖音短视频运营借势热点:有哪些热点渠道,有哪些热点改编的套路。
  15. epson彩色打印机加墨水_epson彩色喷墨打印机只打印黑色,彩色墨盒不用,怎么实现?...
  16. m2硬盘写入速度测试软件,实测:M2固态硬盘换个插槽传输速度竟然提升了约1000M!...
  17. 过去一周区块链投融资事件回顾
  18. 干净彻底的卸载MySQL
  19. js处理有序列表、js处理无序列表
  20. arctanx麦克劳林公式推导过程_多元正态分布的推导、n维球体积面积的计算

热门文章

  1. 入门级3D打印机的功能是怎样的?
  2. 接口大师v3.8.0版本更新,首页改版+组合套餐+微信登录+独立App
  3. 发几个mac高清壁纸,想要的拿去!
  4. 保险公司全面预算管理
  5. 关于安装teamviewer11出现verification of your teamviewer version failed错误处理
  6. 2012 A 数学建模
  7. 云计算行业,十年发展经历了哪些阶段?
  8. 机器学习系列笔记六:主成分分析PCA[下]
  9. React高级指引:无障碍
  10. Maven中央仓库连接不上的问题解决