全国免费咨询:

13245491521

VR图标白色 VR图标黑色
X

中高端软件定制开发服务商

与我们取得联系

13245491521     13245491521

2021-06-27_真香了!上手使用 DeepMind 分布式强化学习框架 Acme ,对开发者超友好

您的位置:首页 >> 新闻 >> 行业资讯

真香了!上手使用 DeepMind 分布式强化学习框架 Acme ,对开发者超友好 作者 | Andreas St?ffelbauer译者 | Sambodhi策划 | 刘燕 Acme 是一个基于 Python 的强化学习研究框架,由谷歌的 DeepMind 于 2020 年开源。它旨在简化新型 RL 代理的开发并加速 RL 研究。根据 DeepMind 自己的声明,这个强化学习和人工智能研究的先锋团队每天都在使用 Acme。 最近我参与了一个大学项目,为此决定学习 Acme 并使用它来实现不同的 RL 算法。我发现它的确很棒,我真的很喜欢用它。 Acme 的入门也相对容易。这是因为它有多条入门路径,分别有不同的复杂度。换句话说,这款框架不仅适用于高级研究人员,而且还能让初学者实现颇为简单的算法——这和对初学者与专家都很友好的 TensorFlow 和 PyTorch 差不多。 它的不足之处在于,由于这款框架还很新,因此没有真正完整的文档可用,也没有做得很好的教程。 这篇博文可能是朝着正确方向迈出的一步。它并不打算成为或取代完整的文档,而是对 Acme 的一篇简明实用的介绍。最重要的是,它应该能让你了解框架底层的设计选择,以及这些选择对 RL 算法的实现有着怎样的意义。 我将讨论我的两个简单算法的实现:SARSA 和 Q Learning,其目标是玩二十一点游戏。一旦你了解了 actor 和 agent 都是什么东西,以及它们在 Acme 中是如何设计的,我相信你将很快了解如何实现你能想到的任何强化学习算法。 Acme 的基本构建块我们来深入研究一个实际案例。如前所述,我们希望我们的代理(agent)玩二十一点游戏。 环境Acme 代理并非设计为与 Gym 环境交互。相反,DeepMind 有自己的 RL 环境 API。区别主要在于时间步长的表示方式。 不过幸运的是你仍然可以使用 Gym 环境,因为 Acme 的开发人员为此提供了包装函数。 env = acme.wrappers.GymWrapper(gym.make('Blackjack-v0')) 二十一点游戏中有 32x11x2 的状态,不过并非所有状态都可以在游戏中实际出现。另外还有两个动作,“拿牌(hit)”和“停牌(stick)”。想要了解这些维度的细节,以及为什么不是所有状态都可以出现,你可以在 这里 查看 GitHub 上的环境。我知道一开始学起来会有些难度。 参与者、学习者和代理了解参与者(actor)、学习者(learner)和代理(agent)之间的区别至关重要。参与者与环境互动。也就是说,它们观察状态并根据某些动作选择策略采取动作。下图说明了这一点。 图 1:只有参与者的简单环境循环。 学习者使用参与者收集的数据来学习或改进策略,通常用的是在线迭代的方式。例如,学习内容可能包括对神经网络参数的更新。新参数被传递给参与者,然后参与者根据更新的策略行事。 代理就是行动和学习组件的简单结合,但通常不需要实现额外的强化学习逻辑。下图包括所有三个组件。 图 2:包括参与者和学习者的环境循环。 架构分解为参与者、学习者和代理的主要原因之一是为了促进分布式强化学习。但是,如果我们不关心这一点并且算法足够简单,那么仅实现参与者,并简单地将学习步骤集成到参与者的 update 方法也足够了。为简单起见,这也是我在这里采用的方法。 例如,下面的随机代理继承自 acme.Actor 类。必须由开发者(你)实现的方法是 select_action、observe_first、observe 和 update。如前所述,后者是在没有额外学习者组件的情况下进行学习的地方。请注意,这个代理将以相同的方式工作,只是无需子类化 acme.Actor。基类确定你必须覆盖的方法。这也确保了代理按预期与其他 Acme 组件(例如我将在下面介绍的环境循环)集成。 class RandomAgent(acme.Actor): """A random agent for the Black Jack environment.""" def __init__(self): # init action values, will not be updated by random agent self.Q = np.zeros((32,11,2,2)) # specify the behavior policy self.behavior_policy = lambda q_values: np.random.choice(2) # store timestep, action, next_timestep self.timestep = None self.action = None self.next_timestep = None def select_action(self, observation): "Choose an action according to the behavior policy." return self.behavior_policy(self.Q[observation]) def observe_first(self, timestep): "Observe the first timestep." self.timestep = timestep def observe(self, action, next_timestep): "Observe the next timestep." self.action = action self.next_timestep = next_timestep def update(self, wait = False): "Update the policy." # no updates occur here, it's just a random policy 这个代理使用一个简单的随机选择拿牌或停牌的策略,但一般来说,这个框架在实现策略的方式方面有巨大的灵活性。稍后,你将看到一个 epsilon-greedy 策略。在其他情况下,策略可能包括一个神经网络,你可以使用 TensorFlow、PyTorch 或 JAX 来实现它。从这个意义上说,Acme 与框架无关,因此你可以与你喜欢的任何机器学习库搭配使用它。 在 update 方法中,参与者通常只从学习者中提取最新的参数。但如果你不使用单独的学习者,则 RL 逻辑将包含在 update 方法中(稍后你会看到这一点)。 EnvironmentLoop如果你已经对强化学习有所了解并且已经实现了 RL 算法,那么你肯定会非常熟悉以下循环。每个 episode 由四个步骤组成,这些步骤重复执行,直到达到最终状态。 观察一个状态 根据行为策略采取一个行动 观察一个奖励 更新政策 代码: # first initialize env and agent # env = ... agent = RandomAgent() # repeat for a number of episodes for episode in range(10): # make first observation timestep = env.reset() agent.observe_first(timestep) # run an episode while not timestep.last(): # generate an action from the agent's policy action = agent.select_action(timestep.observation) # step the environment timestep = env.step(action) # have the agent observe the next timestep agent.observe(action, next_timestep=timestep) # let the agent perform updates agent.update() 有时你可能需要实现这样的循环,特别是如果你希望对其自定义的时候。但大多数情况下,这个循环都是完全相同的。 方便的是,Acme 中有一个快捷方式:EnvironmentLoop,它执行的步骤与上述步骤几乎完全相同。你只需传递你的环境和代理实例,然后你就可以使用一行代码运行单个 episode 或任意多个 episode。还有许多日志记录器可用于跟踪重要指标,例如每个 episode 中使用的步数和收集的奖励。 # init Acme's environment loop loop = EnvironmentLoop(env, agent, logger=InMemoryLogger()) # run a single episode loop.run_episode() # or run multiple episodes loop.run(10 实现 SARSA 和 Q 学习代理当然,随机代理不是很有用。我的承诺是展示如何实现一些实际的强化学习算法,所以我们开始吧。 顺便说一句,如果你根本不熟悉 RL,请参阅 Sutton 和 Barto 的《强化学习:简介》(2018 年)一书。大家通常最早学习的两种算法——无论是在书中还是在大学上的强化学习课程上——是 SARSA 和 Q 学习。 SARSA 代理现在你已经知道 Acme 代理(或参与者)是如何设计的了。让我们看看如何在 Acme 中实现 SARSA 算法。 SARSA 是一种基于策略的算法,其更新取决于状态、动作、奖励、下一个状态和下一个动作(因此得名)。由于本文不是一篇理论 RL 教程,因此我不会在这里详细介绍算法本身。 首先,在代理的 init 方法中,我们初始化 Q、状态 - 动作值矩阵和行为策略——这里是一个 epsilon 贪婪策略。另请注意,这个代理必须始终存储其上一个时间步长、动作和下一个时间步长,因为 update 步骤中需要它们。所以我们也初始化它们。 class SarsaAgent(acme.Actor): def __init__(self, env_specs=None, epsilon=0.1, step_size=0.1): # in Black Jack, we have the following dimensions self.Q = np.zeros((32,11,2,2)) # epsilon for policy and step_size for TD learning self.epsilon = epsilon self.step_size = step_size # set behavior policy self.behavior_policy = lambda q_values: epsilon_greedy(q_values, self.epsilon) # store timestep, action, next_timestep self.timestep = None self.action = None self.next_timestep = None def transform_state(self, state): # this is specifally required for the blackjack environment state = *map(int, state), return state def select_action(self, observation): state = self.transform_state(observation) return self.behavior_policy(self.Q[state]) def observe_first(self, timestep): self.timestep = timestep def observe(self, action, next_timestep): self.action = action self.next_timestep = next_timestep def update(self): # get variables for convenience state = self.timestep.observation _, reward, discount, next_state = self.next_timestep action = self.action # turn states into indices state = self.transform_state(state) next_state = self.transform_state(next_state) # sample a next action next_action = self.behavior(self.Q[next_state]) # compute and apply the TD error td_error = reward + discount * self.Q[next_state][next_action] - self.Q[state][self.action] self.Q[state][action] += self.step_size * td_error # finally, set timestep to next_timestep self.timestep = self.next_timestep 在 observe 中你通常不需要做太多事情。在本例中,我们只存储观察到的时间步长和采取的行动。然而这并不总是必要的。比如有时候,你可能希望将时间步长(和整个轨迹)存储在一个数据集或重播缓冲区中。Acme 还为此提供了数据集和加法器组件。事实上,DeepMind 也开发了一个库。它被称为 Reverb(参见此处的 GitHub)。 上面的 transform_state 方法只是一个辅助函数,用于将状态放入正确的格式以便正确索引 Q 矩阵。 最后,要在环境上训练 SARSA 500,000 episodes,只需运行 agent = SarsaAgent() loop = EnvironmentLoop(env, agent, logger=InMemoryLogger()) loop.run(500000) Q 学习代理下面的 Q 学习代理与 SARSA 代理非常相似。它们仅在更新 Q 矩阵的方式上有所不同。这是因为 Q 学习是一种离策略算法。 class QLearningAgent(acme.Actor): def __init__(self, env_specs=None, step_size=0.1): # Black Jack dimensions self.Q = np.zeros((32,11,2,2)) # set step size self.step_size = step_size # set behavior policy # self.policy = None self.behavior_policy = lambda q_values: epsilon_greedy(q_values, epsilon=0.1) # store timestep, action, next_timestep self.timestep = None self.action = None self.next_timestep = None def state_to_index(self, state): state = *map(int, state), return state def transform_state(self, state): # this is specifally required for the blackjack environment state = *map(int, state), return state def select_action(self, observation): state = self.transform_state(observation) return self.behavior_policy(self.Q[state]) def observe_first(self, timestep): self.timestep = timestep def observe(self, action, next_timestep): self.action = action self.next_timestep = next_timestep def update(self): # get variables for convenience state = self.timestep.observation _, reward, discount, next_state = self.next_timestep action = self.action # turn states into indices state = self.transform_state(state) next_state = self.transform_state(next_state) # Q-value update td_error = reward + discount * np.max(self.Q[next_state]) - self.Q[state][action] self.Q[state][action] += self.step_size * td_error # finally, set timestep to next_timestep self.timestep = self.next_timestep 要在环境上训练 Q 学习代理 500,000 episodes,运行 agent = QLearningAgent() loop = EnvironmentLoop(env, agent, logger=InMemoryLogger()) loop.run(500000) 小 结我认为 Acme 是一个非常棒的强化学习框架,因为你不必从头开始开发算法。因此,与其自己弄清楚如何编写可读且可重复的 RL 代码,你大可依靠 DeepMind 那些聪明的研究人员和开发人员,他们已经为你完成了这些工作。 Acme 能让你实现任何强化学习算法,并且你可以将其与任何机器学习框架结合使用,包括 TensorFlow、PyTorch 和 JAX。 如果你想了解有关 Acme 的更多信息,可以阅读 DeepMind 的研究 论文 并查看他们的 GitHub存储库。 你还会在那里找到一些常见算法的实现,例如深度 Q 网络(DQN)、深度确定性策略梯度(DDPG)、蒙特卡洛树搜索(MCTS)、行为克隆(BC)、IMPALA 等。 无论你是高级研究员还是对强化学习感兴趣的初学者,我都鼓励你尝试一下。 感谢你的阅读。如果你有任何问题,请告诉我。 链接我的 Jupyter 笔记本(包括本文用到的代码)在 这里。 如果有兴趣,也可以查看我的强化学习课程 项目。除了 SARSA 和 Q-learning,我还实现了 dyna-Q、优先扫描和蒙特卡洛树搜索代理。 参考Hoffman 等人(2020):Acme:一个分布式强化学习的研究框架。ArXiv。 Sutton 和 Barto(2018 年):强化学习:简介。 原文链接: https://towardsdatascience.com/deepminds-reinforcement-learning-framework-acme-87934fa223bf 你也「在看」吗??? 阅读原文

上一篇:2023-02-22_Linux 6.2 正式发布:首次原生支持苹果 M1 芯片 下一篇:2020-01-13_五问BERT:深入理解NLP领域爆红的预训练模型

TAG标签:

18
网站开发网络凭借多年的网站建设经验,坚持以“帮助中小企业实现网络营销化”为宗旨,累计为4000多家客户提供品质建站服务,得到了客户的一致好评。如果您有网站建设网站改版域名注册主机空间手机网站建设网站备案等方面的需求...
请立即点击咨询我们或拨打咨询热线:13245491521 13245491521 ,我们会详细为你一一解答你心中的疑难。
项目经理在线

相关阅读 更多>>

猜您喜欢更多>>

我们已经准备好了,你呢?
2022我们与您携手共赢,为您的企业营销保驾护航!

不达标就退款

高性价比建站

免费网站代备案

1对1原创设计服务

7×24小时售后支持

 

全国免费咨询:

13245491521

业务咨询:13245491521 / 13245491521

节假值班:13245491521()

联系地址:

Copyright © 2019-2025      ICP备案:沪ICP备19027192号-6 法律顾问:律师XXX支持

在线
客服

技术在线服务时间:9:00-20:00

在网站开发,您对接的直接是技术员,而非客服传话!

电话
咨询

13245491521
7*24小时客服热线

13245491521
项目经理手机

微信
咨询

加微信获取报价