替代强化

编辑整理:整理来源:优酷,浏览量:75,时间:2022-10-17 18:21:01

替代强化,替代强化和自我强化的概念是谁提出来的,替代强化和间接强化的区别

前沿:替代强化

A.生态系统理论B.社会学习理论 C.知觉学习理论D.条件反射学说 【凯程解析】B,班杜拉提出社会学习理论,重点研究了社会学习对儿童的攻击性行为、性别角色的获得及亲社会行为发展的作用。班杜拉认为强化可以分为直接强化、替代强化和自我强化,其中替代强化是通过榜样进行强化来增强或提高学着者某种特定行为出现的概率。


替代强化


机器之心转载

来源:知乎

作者:蒋铮尧

本文将简单谈谈基于序列建模的强化学习方法。

大规模生成模型在近两年为自然语言处理甚至计算机视觉带来的巨大的突破。最近这股风潮也影响到了强化学习,尤其是离线强化学习(offline RL),诸如 Decision Transformer (DT)[1], Trajectory Transformer(TT)[2], Gato[3], Diffuser[4]这样的方法,将强化学习的数据(包括状态,动作,奖励和 return-to-go)当成了一串去结构化的序列数据,并将建模这些序列数据作为学习的核心任务。这些模型都可以用监督或自监督学习的方法来训练,避免了传统强化学习中比较不稳定的梯度信号。即便使用复杂的策略提升 (policy improvement) 和估值 (value estimation) 方法,它们在离线强化学习中都展现了非常好的表现。

本篇将简单谈谈这些基于序列建模的强化学习方法,下篇笔者将介绍我们新提出的,Trajectory Autoencoding Planner(TAP),一种用 Vector Quantised Variational AutoEncoder (VQ-VAE)进行序列建模并进行高效的隐动作空间(latent action space)内规划的方法。

Transformer 与强化学习

Transformer 架构 [5] 于 2017 年提出之后慢慢引发了自然语言处理的革命,后续的 BERT 和 GPT-3 逐渐将自监督 + Transformer 这个组合不断推向新的高度,在自然语言处理领域不断涌现出少样本 (few-shot) 学习等性质的同时,也开始向诸如计算机视觉的领域不断扩散[6][7]。

然而对于强化学习来说,这个进程似乎在 2021 年之前都不是特别明显。在 2018 年,多头注意力机制也被引入强化学习 [8],这类工作基本都是应用在类似半符号化(sub-symbolic) 的领域尝试解决强化学习泛化的问题。之后这类尝试就一直处于一种不温不火的状态。根据笔者个人的体验,实际上 Transformer 在强化学习上也并没有展现出稳定的压倒性的优势,而且还很难训练。在 20 年我们的一个用 Relational GCN 做强化学习的工作中 [9],我们其实也在背后试过 Transformer,但是基本比传统结构(类似 CNN)差得多,很难稳定训练得到一个能用的 policy。为什么 Transformer 和传统在线强化学习(online RL)的相性比较差还是个开放问题,比如 Melo[10] 解释说是因为传统的 Transformer 的参数初始化不适合强化学习,在此我就不多做讨论了。

2021 年年中,Decision Transformer (DT)和 Trajectory Transformer(TT)的发表掀起了 Transformer 在 RL 上应用的新大潮。这两个工作的思路其实很直接:如果 Transformer 和在线强化学习的算法不是很搭,那要不干脆把强化学习当成一个自监督学习的任务?趁着离线强化学习这个概念也很火热,这两个工作都将自己的主要目标任务锁定为建模离线数据集(offline dataset),然后再将这个序列模型用作控制和决策。

对于强化学习来说,所谓序列就是由状态(state) s ,动作(action)

替代强化 自我强化 直接强化

,奖励(reward) r 和价值(value) v 构成的轨迹(trajectory)

替代强化的名词解释

。其中价值目前一般是被用 return-to-go 来替代,可以被看成是一种蒙特卡洛估计(Monte Carlo estimation)。离线数据集就由这一条条轨迹构成。轨迹的产生和环境的动力学模型(dynamics)以及行为策略(behaviour policy)

替代强化是谁的理论

有关。而所谓序列建模,就是要建模产生产生这个序列的概率分布(distribution),或者严格上说是其中的一些条件概率。

替代强化是谁的理论中的一个重要概念

Decision Transformer

DT 的做法是建模一个从过往数据和价值到动作的映射 (return-conditioned policy),也就是建模了一个动作的条件概率的数学期望

替代强化的例子

。这种思路很类似于 Upside Down RL[11],不过很有可能背后的直接动机是模仿 GPT2/3 那种根据提示词(prompt) 完成下游任务的做法。这种做法的一个问题是要决定什么是最好的目标价值

替代强化在教资哪一章

没有一个比较系统化的方法。然而 DT 的作者们发现哪怕将目标价值设为整个数据集中的最高 return,最后 DT 的表现也可以很不错。

替代强化和直接强化的区别

Decision Transformer, Figure 1

对于有强化学习背景的人来说,DT 这样的方法能取得很强的表现是非常反直觉的。如果说 DQN,策略梯度(Policy Gradient)这类方法还可以只把神经网络当成一个能做插值泛化的拟合函数,强化学习中的策略提升、估值仍然是构造策略的核心的话。DT 就完全可以说是以神经网络为核心的了,背后它如何把一个可能不切实际的高目标价值联系到一个合适的动作的整个过程都完全是黑箱。DT 的成功可以说从强化学习的角度来看有些没有道理,不过我觉得这也正是这种实证研究的魅力所在。笔者认为神经网络,或者说 Transformer 的泛化能力可能超乎整个 RL 社群之前的预期。

DT 在所有序列建模方法中也是非常简单的,几乎所有强化学习的核心问题都在 Transformer 内部被解决了。这种简单性是它目前最受青睐的原因之一。不过它黑盒的性质也导致我们在算法设计层面上失去了很多抓手,传统的强化学习中的一些成果很难被融入其中。而这些成果的有效性已经在一些超大规模的实验(如 AlphaGo, AlphaStar, VPT)中被反复证实了。

Trajectory Transformer

TT 的做法则更类似传统的基于模型的强化学习 (model-based RL) 的规划(planning)方法。在建模方面,它将整个序列中的元素都离散化,然后用了 GPT-2 那样的离散的自回归(auto-regressive)方式来建模整个离线数据集。这使得它能够建模任意给定除去 return-to-go 的序列的后续

替代强化和间接强化的区别

。因为建模了后续序列的分布,TT 其实就成为了一个序列生成模型。通过在生成的序列中寻找拥有更好的估值(value estimation)的序列,TT 就可以输出一个“最优规划”。至于寻找最优序列的方法,TT 用了一种自然语言常用的方法:beam search 的一种变种。基本上就是永远保留已经展开的序列中最优的一部分序列

替代强化和自我强化

,然后在它们的基础上寻找下一步的最优序列集

替代强化和自我强化的概念是谁提出来的

从强化学习的角度来说,TT 没有 DT 那么离经叛道。它的有趣之处在于(和 DT 一样)完全抛弃了原本强化学习中马尔可夫决策过程(Markov Decision Process)的因果图结构。之前的基于模型的方法比如,PETS, world model, dramerv2 等,都会遵循马尔可夫过程(或者隐式马尔可夫)中策略函数、转移函数、奖励函数等的定义,也就是状态分布的条件是上一步的状态,而动作、奖励、价值都由当前的状态决定。整个强化学习社区一般相信这样能提高样本效率,不过这样的图结构其实也可能是一种制约。自然语言领域从 RNN 到 Transformer 以及计算机视觉领域 CNN 到 Transformer 的转变其实都体现了:随着数据增加,让网络自己学习图结构更有利于获得表现更好的模型。

DreamerV2, Figure 3

由于 TT 基本上把所有序列预测的任务都交给了 Transformer,Transformer 就能更加灵活地从数据中学习出更好的图结构。如下图,TT 建模出的行为策略根据不同的任务和数据集展现出不同的图结构。图左对应了传统的马尔可夫策略,图右对应了一种动作滑动平均的策略。

Trajectory Transformer, Figure 4

Transformer 强大的序列建模能力带来了更高的长序列建模精度,下图展示了 TT 在 100 步以上的预测仍然保持了高精度,而遵循马尔可夫性质的单步预测模型很快因为预测误差叠加的问题崩溃了。

Trajectory Transformer, Figure 2

TT 虽然在具体建模和预测方面和传统方法有所不同,它提供的预测能力还是给未来融入强化学习的其它成果留出了很好的抓手。然而 TT 在预测速度上有一个重要问题:因为需要建模整个序列的分布,它将序列中所有的元素按照维度进行离散化,这也就是说一个 100 维的状态就需要占用序列中的 100 个位置,这使得被建模的序列的实际长度很容易变得特别长。而对于 Transformer,它关于序列长度 N 的运算复杂度是

,这使得从 TT 中采样一个对未来的预测变得非常昂贵。哪怕 100 维以下的任务 TT 也需要数秒甚至数十秒来进行一步决策,这样的模型很难被投入实时的机器人控制或者在线学习之中。

Gato

Gato 是 Deepmind 发表的“通才模型”,其实就是一个跨模态多任务生成模型。用同一个 Transformer 它可以完成从自然语言问答,图片描述,玩电子游戏到机器人控制等各类工作。在针对连续控制(continous control)的建模方面 Gato 的做法基本上和 TT 类似。只不过 Gato 严格意义并不是在做强化学习,它只是建模了专家策略产生的序列数据,然后在行动时它只需要采样下一个动作,其实是对专家策略的一种模仿。

Gato Blog

其它序列生成模型:扩散模型

最近在图片生成领域扩散模型(Diffusion Model)可以说是大红大紫,DALLE-2 和 Stable Diffusion 都是基于它进行图片生成的。Diffuser 就将这个方法也运用到了离线强化学习当中,其思路和 TT 类似,先建模序列的条件分布,然后根据当前状态采样未来可能的序列。

Diffuser 相比 TT 又拥有了更强的灵活性:它可以在设定起点和终点的情形下让模型填充出中间的路径,这样就能实现目标驱动(而非最大化奖励函数)的控制。它还可以将多个目标和先验的达成目标的条件混合起来帮助模型完成任务。

Diffuser Figure 1

Diffuser 相对于传统的强化学习模型也是比较颠覆的,它生成的计划不是在时间轴上逐步展开,而是从整个序列意义上的模糊变得逐渐精确。扩散模型本身的进一步研究也是计算机视觉中的一个火热的话题,在其模型本身上很可能未来几年也会有突破。

不过扩散模型本身目前相比于其它生成模型有一个特别的缺陷,那就是它的生成速度相比于其它生成模型会更慢。很多相关领域的专家认为这一点可能在未来几年内会被缓解。不过数秒的生成时间目前对于强化学习需要实时控制的情景来说是很难接受的。Diffuser 提出了能够提升生成速度的方法:从上一步的计划开始增加少量噪音来重新生成下一步的计划,不过这样做会一定程度上降低模型的表现。

参考

Decision Transformer: Reinforcement Learning via Sequence Modeling https://arxiv.org/abs/2106.01345Offline Reinforcement Learning as One Big Sequence Modeling Problem https://arxiv.org/abs/2106.02039A Generalist Agent https://arxiv.org/abs/2205.06175Planning with Diffusion for Flexible Behavior Synthesis https://arxiv.org/abs/2205.09991Attention Is All You Need https://arxiv.org/abs/1706.03762An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale https://arxiv.org/abs/2010.11929Masked Autoencoders Are Scalable Vision Learners https://arxiv.org/abs/2111.06377Relational Deep Reinforcement Learning https://arxiv.org/abs/1806.01830Grid-to-Graph: Flexible Spatial Relational Inductive Biases for Reinforcement Learning https://arxiv.org/abs/2102.04220Transformers are Meta-Reinforcement Learners https://arxiv.org/abs/2206.06614Reinforcement Learning Upside Down: Don't Predict Rewards -- Just Map Them to Actions https://arxiv.org/abs/1912.02875

补充拓展:替代强化

我不背概念的,就用自己的话给你说一下。
直接强化,就是当对方一个操作性行为出现之后,给与对方喜欢刺激,使得该行为出现的频率增加。具体分为正强化和负强化,可能你选修课不用那么难。我各举一个例子。
正强化:比如孩子做了好事,被给予了一粒糖作为奖赏,日后他就会再做好事。
负强化:孩子认真学习考出好成绩之后不被骂了,于是他以后可能会再认真考出好成绩。
替代强化:就是看到别人做了一个行为之后得到了奖赏,使得自己日后也做出该种行为。
比如:孩子看见别的孩子做了好事得到了一粒糖作为奖励,于是自己以后也会去做好事想得到糖。
自我强化:就是为自己设定一个标准,这个标准也可以是社会准则道德的一种内化。就是自己做出该行为之后,自己给与自己鼓励和赞赏,自己日后会再做出该行为。
比如:孩子多次做好事被奖励之后,知道了做好事是一种道德准则,加以内化之后,以后做了好事就会自己表扬自己一下,日后又会增加做好事的频率。
三个概念的准确表述肯定比我说的要精准很多,这个你可以网上查地,我就不查了。前面的人应该也说了 (推荐答案!)
替代强化

替代强化(Vicariousreinforcement)是指人们不直接参与某一活动,也不需亲自体验直接的强化,而是通过观察别人的行为受到奖励或惩罚,使自己在以后类似情况下也作出这种行为或抑制这种行为。替代强化论就为榜样作用、从众、模仿行为提供了理论基础。要控制人的行为,就可以通过树立榜样、同伴示范(如老兵给新兵示范)等等使人们受到替代强化,激起相应的行为动机,产生预期的行为。
所谓自我强化(self-managed reinforcement)是指个人依据强化原理安排自己的活动或生活,每达到一个目标即给予自己一点物质的或精神的酬报,直到最终目标完成。自我强化是较高水平的激励方式。不可能要求人人都达到这种水平。但通过教育、指导,也可以帮助人们逐步具备这种能力。在进行教育、指导时,主要应帮助人们确定长远目标和近期目标,让人们自己确定评价标准,使之自我检查、自我评价。只要某人不受外部因素影响能够独立地安排自己的活动并不断取得进步,就说明他具备了自我强化能力。
强化 指通过某一事物增强某种行为的过程。(1)在经典条件反射中,指使无条件刺激与条件刺激相结合,用前者强化后者。(2)在操作条件反射中,指正确反应后所给予的奖励(正强化)或免除惩罚(负强化)。
例子么看完解释就能想到了啊,很简单瓦
1.替代性强化
替代性强化指观察者因看到榜样受强化而受到的强化。例如当教师强化一个学生的助人行为时,班上的其他人也将花一定时间互帮。此外替代性强化还有一个功能,就是情绪反应的唤起。例如当电视广告上某明星因穿某种衣服或使用某种洗发精而风度迷人时,如果你直觉到或体验到因明星受到注意而感觉到的愉快,对于你这是一种替代性强化。
2.自我强化
自我强化依赖于社会传递的结果。社会向个体传递某一行为标准,当个体的行为表现符合甚至超过这一标准时,他就对自己的行为进行自我奖励。例如,补习了一年语言的学生为自己设立了一个成绩标准,于是他们将根据对他成绩的评价而对自己行为进行自我奖赏或自我批评。
此外,班杜拉还提出了自我调节的概念。班杜拉假设,人们能观察他们自己的行为,并根据自己的标准进行判断,并由此强化或惩罚自己。我们都有过这样的经验,我们有时知道自己干得不错并因此而自我欣赏,无视别人说了些什么,同样有时我们也知道自己做得并不是最好。要作出这些判断我们不得不对我们自己的行为有一个期望。例如,在一次测验中一个学生可能得了90分而沾沾自喜,而另一个学生则可能感到大失所望。

直接强化就是强化,你上网搜搜哦,百度很强大啊
替代强化:指观察者因看到榜样受强化而受到的强化。例如当教师强化一个学生的助人行为时,班上的其他人也将花一定时间互帮。此外替代性强化还有一个功能,就是情绪反应的唤起。例如当电视广告上某明星因穿某种衣服或使用某种洗发精而风度迷人时,如果你直觉到或体验到因明星受到注意而感觉到的愉快,对于你这是一种替代性强化。
自我强化
:自我强化依赖于社会传递的结果。社会向个体传递某一行为标准,当个体的行为表现符合甚至超过这一标准时,他就对自己的行为进行自我奖励。例如,补习了一年语言的学生为自己设立了一个成绩标准,于是他们将根据对他成绩的评价而对自己行为进行自我奖赏或自我批评。
直接强化
:社会认知理论
班杜拉认为儿童通过观察他们生活中重要人物的行为而学得社会行为,这些观察以心理表象或其他符号表征的形式储存在大脑中,来帮助他们模仿行为。班杜拉的这一理论接受了行为主义理论家们的大多数原理,但是更加注意线索对行为、对内在心理过程的作用,强调思想对行为和行为对思想的作用。

行业热门话题:

【替代强化 自我强化 直接强化】【替代强化的名词解释】【替代强化是谁的理论】【替代强化是谁的理论中的一个重要概念】【替代强化的例子】【替代强化在教资哪一章】【替代强化和直接强化的区别】【替代强化和间接强化的区别】【替代强化和自我强化】【替代强化和自我强化的概念是谁提出来的】
替代强化完!

相关推荐:


关键词文章生成器,点击查看演示目录:http://www.wskqs.cn/shisange/


博罗县软文营销的力量-软文营销的力量是什么| 软文营销公司排名比较靠前| 客户服务管理-客户服务管理| oppo手机的营销软文-oppo手机的营销方式| 这是什么牌子啊-这是什么牌子啊?帽子图片| seo培训 seo网络推广培训| wordpress主题后门代码| 临城镇软文营销-软文营销经典案例| 网站软文推广价格低 四九镇网站软文推广价格低怎么办| 海事大学占地面积-海事大学占地面积多少亩|
投稿| 1024(定向养站+文章采集+ai聚合)目录程序| 1888(定向养站+文章采集+ai聚合)泛目录版| 双标题| 挖关键词| 违禁词删除| 免费配图| 自助解答| 站长变现| 今日头条| 问答聚合| 818(今日头条资讯聚合演示)| 1024(采集聚合+ai聚合)| 1024 (AI定向养站目录程序)| 淘客文章带货| 伪原创| 定向养站目录程序| ai写作目录程序

苏ICP备2021004623号 (免责声明:本网站部分内容由用户自行上传,如权利人发现存在侵犯其权益情形,请及时与本站联系。)(版权所有:昆山市一路火信息技术服务中心) 友情导航 网络警察提醒您 中国互联网辟谣平台 中国文明网传播文明 中国互联网举报中心