强化学习中的线性代数知识
作者|Nathan Lambert 编译|VK 来源|Towards Data Science 线性代数的基本原理如何用于深度强化学习?答案是解决了马尔可夫决策过程时的迭代更新。 强化学习(RL)是一系列用于迭代性学习任务的智能方法。由于计算机科学是一个计算领域,这种学习发生在状态向量、动作等以及转移矩阵上。状态和向量可以采用不同的形式。当我们考虑通过某个线性系统传递一个向量变量,并得到一个类似的输出时,应该想到特征值。 本文将帮助你理解在RL环境中解决任务的迭代方法(收敛到最优策略)。这个基础将反映一个系统的特征向量和特征值。 回顾马尔科夫决策过程 马尔可夫决策过程(MDPs)是支持强化学习(RL)的随机模型。如果你熟悉,你可以跳过这一部分。 定义 状态集$s\in S。状态是代理程序所有可能的位置。 一组动作$a\in A$。动作是代理可以采取的所有可能动作的集合。 转移函数T(s,a,s')。T(s,a,s')保持MDP的不确定性。给定当前位置和给定动作,T决定下一个状态出现的频率。 奖励函数R(s,a,s')。最大化报酬总额是任何代理的目标。此函数说明每个步骤可获得多少奖励。通常,为鼓励快速解决方案,每个步骤都会有少量的负奖励(成本),而在最终状态下会有较大的正面(成功的任务)或负面(失败的任务)奖励。 开始状态s0,也许是结束状态。 重要的属性 MDP有两个重要的属性