为何RL泛化如此难 伯克利博士从认知POMDP、隐式部分可观察解读
发布时间:2021-12-01 06:23:08 所属栏目:传媒 来源:互联网
导读:当今强化学习(RL)的问题很多,诸如收敛效果不好。在偏弱的实验环境里,模型测试结果看起来尚可,许多问题暴露得不明显,但大量实验已经证明深度 RL 泛化很困难:尽管 RL 智能体可以学习执行非常复杂的任务,但它似乎对不同任务的泛化能力较差,相比较而言,
当今强化学习(RL)的问题很多,诸如收敛效果不好。在偏弱的实验环境里,模型测试结果看起来尚可,许多问题暴露得不明显,但大量实验已经证明深度 RL 泛化很困难:尽管 RL 智能体可以学习执行非常复杂的任务,但它似乎对不同任务的泛化能力较差,相比较而言,监督深度网络具有较好的泛化能力。 有研究者认为,对于监督学习来说,发生一次错误只是分类错一张图片。而对于 MDP(马尔可夫决策过程)假设下的 RL,一次识别错误就会导致次优决策,甚至可能一直错误下去,这也是 RL 在现实世界没法用的根源。 为什么强化学习的泛化能力从根本上来说很难,甚至从理论的角度来说也很难?来自加州大学伯克利分校的博士生 Dibya Ghosh 等研究者共同撰文解释了这一现象,文章从认知 POMDP(Epistemic POMDP)、隐式部分可观察(Implicit Partial Observability)两个方面进行解释。论文共同一作 Dibya Ghosh 的研究方向是使用强化学习进行决策。之前,他曾在蒙特利尔的 Google Brain 工作。 (编辑:岳阳站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |
相关内容
- ThoughtWorks携手华为,始于能力互补,共筑生态黑土地
- “硅立方”获2019中国设计红星奖 设计已成曙光产品创新驱动
- Dropbox CEO谈后疫情工作方式的转变
- 金蝶国际(00268)云增长超预期 资本市场聚焦金蝶云·苍穹三个
- OpenStack基金会 ( OSF)演进为开源基础设施基金会(Open In
- 区块链与各大数字技术将会是能源互联网发展的加速器!
- 英特尔和谷歌宣布推出全新混合云解决方案
- Advantech Connect研华工业物联网在线伙伴峰会 聚焦四大产业
- 秦淮数据入选胡润全球“独角兽”榜单 排名国内大数据行业独
- InterSystems宣布对InterSystems iKnow技术进行开源