当前位置: 首页 > news >正文

青岛 公司 网站建设外贸网站有哪些平台

青岛 公司 网站建设,外贸网站有哪些平台,浙江网站制作,wordpress 跳转插件Policy Network (策略网络) 我们无法知道策略函数 π \pi π所以要做函数近似,求一个近似的策略函数 使用策略网络 π ( a ∣ s ; θ ) \pi(a|s;\theta) π(a∣s;θ) 去近似策略函数 π ( a ∣ s ) \pi(a|s) π(a∣s) ∑ a ∈ A π ( a ∣ s ; θ ) 1 \sum_{a\in …

Policy Network (策略网络)

我们无法知道策略函数 π \pi π所以要做函数近似,求一个近似的策略函数
使用策略网络 π ( a ∣ s ; θ ) \pi(a|s;\theta) π(as;θ) 去近似策略函数 π ( a ∣ s ) \pi(a|s) π(as)

在这里插入图片描述
∑ a ∈ A π ( a ∣ s ; θ ) = 1 \sum_{a\in A} \pi(a|s;\theta) = 1 aAπ(as;θ)=1
动作空间A的大小是多少,输出向量的维度就是多少。

策略学习的目标函数

状态价值函数(State-value function)
V π ( s t ) = E A [ Q π ( s t , A ) ] = ∑ a π ( a ∣ s t ) ⋅ Q π ( s t , a ) V_\pi(s_t)=E_A[Q_\pi(s_t,A)] = \sum_a\pi(a|s_t)\cdot Q_\pi(s_t,a) Vπ(st)=EA[Qπ(st,A)]=aπ(ast)Qπ(st,a)
对A求期望,去掉A的影响
用策略网络 π ( a ∣ s t ; θ ) \pi(a|s_t;\theta) π(ast;θ) 去近似策略函数 π ( a ∣ s t ) \pi(a|s_t) π(ast)
V π ( s t ; θ ) = E A [ Q π ( s t , A ) ] = ∑ a π ( a ∣ s t ; θ ) ⋅ Q π ( s t , a ) V_\pi(s_t;\theta)=E_A[Q_\pi(s_t,A)] = \sum_a\pi(a|s_t;\theta)\cdot Q_\pi(s_t,a) Vπ(st;θ)=EA[Qπ(st,A)]=aπ(ast;θ)Qπ(st,a)
近似状态价值既依赖于当前状态 s t s_t st,也依赖于策略网络 π \pi π的参数 θ \theta θ
如果一个策略很好,那么状态价值函数的近似 V π ( s ; θ ) V_\pi(s;\theta) Vπ(s;θ)的均值应当很大。因此我们定义目标函数:
J ( θ ) = E S [ V π ( s ; θ ) ] J(\theta)=E_S[V_\pi(s;\theta)] J(θ)=ES[Vπ(s;θ)]
目标函数 J ( θ ) J(\theta) J(θ) 排除了状态 S S S的因素,只依赖于策略网络 π \pi π的参数 θ \theta θ。策略越好,则 J ( θ ) J(\theta) J(θ) 越大,所以策略学习可以被看作是这样一个优化问题:
m a x θ J ( θ ) \mathop{max}_{\theta}J(\theta) maxθJ(θ)
通过学习参数 θ \theta θ ,使得目标函数 J ( θ ) J(\theta) J(θ)
越来越大,也就意味着策略网络越来越好。

使用策略梯度上升更新 θ \theta θ ,使得 J ( θ ) J(\theta) J(θ)增大。
设当前策略网络的参数为 θ \theta θ,做梯度上升更新参数,得到新的参数 θ ′ \theta' θ, β \beta β为学习率
θ ′ = θ + β ⋅ ∂ V ( s ; θ ) ∂ θ \theta' =\theta+\beta \cdot \frac{\mathrm{\partial}V(s;\theta)}{\mathrm{\partial}\theta} θ=θ+βθV(s;θ)

策略梯度(Policy Gradient)

∂ V ( s ; θ ) ∂ θ \frac{\mathrm{\partial}V(s;\theta)}{\mathrm{\partial}\theta} θV(s;θ)大概推导 不严谨 实际上 Q π Q_\pi Qπ中也有 θ \theta θ要求导
在这里插入图片描述

使用策略梯度更新策略网络

算法
1、在 t t t时刻观测到状态 s t s_t st
2、根据策略网络 π ( . ∣ s t ; θ ) \pi(.|s_t;\theta) π(.∣st;θ)随机抽样一个动作 a t a_t at
3、计算动作价值 q t ≈ Q π ( s t , a t ) q_t \approx Q_\pi(s_t,a_t) qtQπ(st,at)
4、计算策略网络关于参数 θ \theta θ的微分 d θ = ∂ l n π ( a ∣ s ; θ ) ∂ θ ∣ θ = θ t d\theta = \frac{\mathrm{\partial}ln\pi(a|s;\theta)}{\mathrm{\partial}\theta}|_{\theta=\theta_t} dθ=θl(as;θ)θ=θt
5、计算近似策略梯度 g ( a t , θ t ) = q t , d θ g(a_t,\theta_t)=q_t,d\theta g(at,θt)=qt,dθ
6、更新策略网络: θ t + 1 = θ t + β ⋅ g ( a t , θ t ) \theta_{t+1}=\theta_t+\beta \cdot g(a_t,\theta_t) θt+1=θt+βg(at,θt)

在第 3 步中,怎么计算 q t q_t qt
在后面章节中,我们用两种方法对 Q π ( s , a ) Q_\pi(s,a) Qπ(s,a) 做近似。
1、REINFORCE 算法
用实际观测的回报 u u u近似 Q π ( s , a ) Q_\pi(s,a) Qπ(s,a)
2、actor-critic 算法
用神经网络 q ( s , a ; w ) q(s,a;w) q(s,a;w)近似 Q π ( s , a ) Q_\pi(s,a) Qπ(s,a)

所以想要近似求得 π \pi π函数 还要近似求得 Q π Q_\pi Qπ函数

http://www.yidumall.com/news/78937.html

相关文章:

  • 耐克网站建设的历程广州网络推广哪家好
  • 网站开发中 即将上线西安百度竞价托管公司
  • 赤峰网站建设提高工作效率
  • 长沙市做网站的网站域名注册要多少钱
  • 注册 网站开发 公司常州网站seo
  • 网络营销中网站建设的策略网站换了域名怎么查
  • 专业网站发展趋势产品设计
  • 做网站和推广工资多少钱免费发布推广信息网站
  • 网站做接口怎么做公司网站怎么建立
  • wordpress分享类主题苏州关键词优化排名推广
  • 房产网站建设方案桂林网站设计制作
  • 国外做的比较的ppt网站有哪些企业培训课程开发
  • 蒲城网站建设好的seo平台
  • 做360全景有什么网站江西seo推广
  • 如何 建公司网站如何做好网络销售技巧
  • 网站开发与设计结课论文个人信息怎么在百度推广
  • 网站后台管理器怎么做今日发生的重大新闻
  • 东海做网站公司发外链平台
  • 深圳品牌型网站建设vi设计
  • 旅游类网站模板邢台网站公司
  • 郑州网站优化哪家好免费代理浏览网页
  • 郑州网站建设电话如何优化seo
  • wordpress 删除作者信息微信搜一搜排名优化
  • 石家庄做网站优化seo网站关键词优化方法
  • 企业网站建设的方式有哪些方式青岛做网站推广
  • wordpress短链接重庆seo点击工具
  • 广州做网站哪家公司好百度客服在线咨询
  • 做外贸网站卖什么好处seo搜索如何优化
  • 企业网站方案设计专业竞价托管哪家好
  • 棋牌游戏网站开发网络营销推广外包服务