rlDDPGAgent
深度确定性策略梯度强化学习代理
描述
深度确定性策略梯度(DDPG)算法是一种参与者-评论家、无模型、在线、非策略强化学习方法,它计算出最大限度地提高长期奖励的最优策略。动作空间只能是连续的。
有关更多信息,请参见深度确定性策略梯度代理。有关不同类型的强化学习代理的更多信息,请参见强化学习代理。
创建
语法
描述
根据观察和行动规格创建代理
使用默认初始化选项,为具有给定观察和操作规范的环境创建深度确定性策略梯度代理。代理中的行动者和评论家表示使用从观察规范构建的默认深度神经网络代理
= rlDDPGAgent (observationInfo
,actionInfo
)observationInfo
以及动作规范actionInfo
。
使用给定的观察和操作规范为环境创建深度确定性策略梯度代理。属性中指定的选项配置的默认网络代理
= rlDDPGAgent (observationInfo
,actionInfo
,initOpts
)initOpts
对象。有关初始化选项的详细信息,请参见rlAgentInitializationOptions
。
指定代理选项
创建DDPG代理并设置代理
= rlDDPGAgent (___,agentOptions
)AgentOptions
属性agentOptions
输入参数。在前面语法中的任何输入参数之后使用此语法。
输入参数
属性
对象的功能
例子
另请参阅
深度网络设计器|rlAgentInitializationOptions
|rlDDPGAgentOptions
|rlDeterministicActorRepresentation
|rlQValueRepresentation
在R2019a中引入