一般采用 策略梯度的方法,是不是对应的 动作空间是有限的呢?比如动作空间有{上,下,左,右},但是对当前状态的施加某个动作的概率是不一定的,所以要寻找最佳的动作策略,是吗?
强化学习中的策略梯度算法,$\pi(\theta)$ Π(θ)是一个怎么的函数呢?对应的动作空间是有限的?还是无限的呢?
一般采用 策略梯度的方法,是不是对应的 动作空间是有限的呢?比如动作空间有{上,下,左,右},但是对当前状态的施加某个动作的概率是不一定的,所以要寻找最佳的动作策略,是吗?
- 写回答
- 好问题 0 提建议
- 追加酬金
- 关注问题
- 邀请回答
-
0条回答 默认 最新
悬赏问题
- ¥15 Python爬取指定微博话题下的内容,保存为txt
- ¥15 vue2登录调用后端接口如何实现
- ¥65 永磁型步进电机PID算法
- ¥15 sqlite 附加(attach database)加密数据库时,返回26是什么原因呢?
- ¥88 找成都本地经验丰富懂小程序开发的技术大咖
- ¥15 如何处理复杂数据表格的除法运算
- ¥15 如何用stc8h1k08的片子做485数据透传的功能?(关键词-串口)
- ¥15 有兄弟姐妹会用word插图功能制作类似citespace的图片吗?
- ¥15 latex怎么处理论文引理引用参考文献
- ¥15 请教:如何用postman调用本地虚拟机区块链接上的合约?