分享精品深度强化学习讲座 Berkeley Deep RL Bootcamp 2017

  • Post author:
  • Post category:其他


Berkeley 2017年联合了DeepMind 以及 OpenAI 举办了一个大咖云集的深度强化学习训练营,是难得的前沿深度强化学习佳品,本公众号 MyEncyclopedia 用代码实现了权威教材 Sutton & Barto 第二版强化学习的基础部分之后,会大致沿着这个训练营的思路,从原理到代码逐步揭示强化深度学习面纱,并结合各种有意思的游戏环境来演示。


如果没有耐心的同学可以直接跳到文末的百度云盘下载链接,内容涵盖所有视频和slide

此次训练营主讲的强化学习领域专家包括

  • Pieter Abbeel,前Berkeley 机器人学习实验室主任,伯克利人工智能研究(BAIR)实验室联合主任

  • Andrej Karpathy,前 OpenAI研究科学家、现特斯拉AI总监

  • Vlad Mnih,Deepmind 研究科学家

  • John Schulman,Deepmind 研究科学家,OpenAI共同创建人

  • Sergey Levine,Berkeley 计算机副教授



课程列表

  • Core Lecture 1 Intro to MDPs and Exact Solution Methods – Pieter Abbeel
  • Core Lecture 2 Sample-based Approximations and Fitted Learning – Rocky Duan
  • Core Lecture 3 DQN + Variants – Vlad Mnih
  • Core Lecture 4a Policy Gradients and Actor Critic – Pieter Abbeel
  • Core Lecture 4b Pong from Pixels – Andrej Karpathy
  • Core Lecture 5 Natural Policy Gradients, TRPO, and PPO – John Schulman
  • Core Lecture 6 Nuts and Bolts of Deep RL Experimentation – John Schulman
  • Core Lecture 7 SVG, DDPG, and Stochastic Computation Graphs – John Schulman
  • Core Lecture 8 Derivative-free Methods – Peter Chen
  • Core Lecture 9 Model-based RL – Chelsea Finn
  • Core Lecture 10a Utilities – Pieter Abbeel
  • Core Lecture 10b Inverse RL – Chelsea Finn
  • Frontiers Lecture I: Recent Advances, Frontiers and Future of Deep RL – Vlad Mnih
  • Frontiers Lecture II: Recent Advances, Frontiers and Future of Deep RL – Sergey Levine
  • TAs Research Overviews

前两讲总结了强化学习基础理论方面,包括用动态规划求精确解,采样与环境交互的传统基本方法。第三四讲覆盖了主流的深度强化学习的几种模式:DQN,PG和AC。第五到七讲深入了深度强化学习的各种前沿方法。值得一提的是第六讲,很好的从实践中总结了各种调试诊断方法。余下的若干讲涉及到了非主流的剩余强化学习领域。



下载方法

关注 MyEncyclopedia 公众号,输入

rl-bootcamp-ucb-2017

即可获得百度云盘链接

在这里插入图片描述



版权声明:本文为frankding84原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。