rlReplayMemory
回放记忆体验缓冲区
描述
非策略强化学习代理将经验存储在循环经验缓冲区中。在训练过程中,代理从缓冲区中提取小批量的经验,并使用这些小批量更新它的角色函数和临界函数逼近器。
缺省情况下,内置的off-policy代理(DQN、DDPG、TD3、SAC、MBPO)使用rlReplayMemory
对象作为他们的经验缓冲。代理统一地从该缓冲区采样数据。要执行非均匀优先抽样,可以使用rlPrioritizedReplayMemory
对象。
创建自定义策略外强化学习代理时,可以通过使用rlReplayMemory
对象。
创建
描述
输入参数
属性
对象的功能
附加 |
将经验附加到回放内存缓冲区 |
样本 |
回放记忆缓冲区中的经验样本 |
调整 |
调整重放记忆体验缓冲区的大小 |
allExperiences |
返回回放内存缓冲区中的所有经验 |
getActionInfo |
从强化学习环境、代理或经验缓冲区获取动作数据规范 |
getObservationInfo |
从强化学习环境、agent或经验缓冲区获取观测数据规格 |
例子
版本历史
介绍了R2022a