强化学习随机策略之高斯似然数原理与代码实现
一、原理介绍
使用随机策略有两个关键点
- 从策略当中进行采样,获得动作 $a$ (Action)
- 计算特定动作的似然数 $\log \pi _ { \theta } ( a | s )$
什么是多元高斯分布?
在多元高斯分布中,当协方差矩阵 $\Sigma$ 只有在对角元素非零,而其余元素为 0 时,成为对角高斯分布。 多元高斯分布(Multivariate Gaussian Distribution)是一元高斯分布的在向量形式上的推广,其中向量 $X = \left[ X _ { 1 } , X _ { 2 } , \ldots , X _ { n } \right] ^ { T }$ 的均值为 $\mu \in \mathbf { R } ^ { n }$ ,协方差矩阵为 $\Sigma \in S ^ { n }$ ,概率密度函数表示为
$$p ( x ; \mu , \Sigma ) = \frac { 1 } { ( 2 \pi ) ^ { n / 2 } | \Sigma | ^ { 1 / 2 } } \exp \left( - \frac { 1 } { 2 } ( x - \mu ) ^ { T } \Sigma ^ { - 1 } ( x - \mu ) \right)$$
例如二元高斯多元分布可以如图所示
.
对于一对随机变量 $X$ 和 $Y$ ,它们的协方差矩阵写作
$$\operatorname { Cov } [ X , Y ] = E [ ( X - E [ X ] ) ( Y - E [ Y ] ) ] = E [ X Y ] - E [ X ] E [ Y ]$$
对于多个变量的问题,用协方差矩阵 $\Sigma \in S ^ { n }$ 来表示各个变量之间的相关性,有
$$\Sigma = E \left[ ( X - \mu ) ( X - \mu ) ^ { T } \right] = E \left[ X X ^ { T } \right] - \mu \mu ^ { T }$$
对角多元高斯分布
特殊地,当 N 个随机变量 $X = \left[ X _ { 1 } , X _ { 2 } , \ldots , X _ { n } \right] ^ { T }$ 为各自独立的高斯随机变量时,协方差矩阵为对角阵,即
$$\Sigma = \operatorname { diag } \left( \sigma _ { 1 } ^ { 2 } , \sigma _ { 2 } ^ { 2 } , \ldots , \sigma _ { n } ^ { 2 } \right)$$
对角高斯策略 Diagonal Gaussian Policies
由于标准差的公式 $\sigma = \sqrt { \frac { 1 } { N } \sum _ { i = 1 } ^ { N } \left( x _ { i } - \mu \right) ^ { 2 } }$ 可知 $\sigma$ 始终大于等于 0 ,对标准差取 log
对数,可以将标准差映射到 $( - \infty , \infty )$,这样更有利于神经网络的训练。
-
采样:假设已知动作(Action) 的均值 $\mu _ { \theta } ( s )$ 和标准差 $\sigma _ { \theta } ( s )$ ,引入服从 $( z \sim \mathcal { N } ( 0 , I ) )$ 分布的噪声 $z$ ,下一步的动作采样表示为 $$a = \mu _ { \theta } ( s ) + \sigma _ { \theta } ( s ) \odot z$$ 其中 $\odot$ 表示两个向量之间的内积。
-
似然数:当均值为 $\mu = \mu _ { \theta } ( s )$ ,标准差为 $\sigma = \sigma _ { \theta } ( s )$ 的 $k-$维的动作 $a$ 的似然数表示为 $$\log \pi _ { \theta } ( a | s ) = - \frac { 1 } { 2 } \left( \sum _ { i = 1 } ^ { k } \left( \frac { \left( a _ { i } - \mu _ { i } \right) ^ { 2 } } { \sigma _ { i } ^ { 2 } } + 2 \log \sigma _ { i } \right) + k \log 2 \pi \right)$$
二、代码实现
要求
- 输入: 样本
x
,对角高斯分布的均值和标准差 - 输出:样本
x
的似然数
import tensorflow as tf
import numpy as np
EPS = 1e-8
根据上一节,似然数公式,理解公式后就很容易写出代码
# my solution
def my_gaussian_likelihood(x, mu, log_std):
"""
Args:
x: Tensor with shape [batch, dim]
mu: Tensor with shape [batch, dim]
log_std: Tensor with shape [batch, dim] or [dim]
Returns:
Tensor with shape [batch]
"""
#######################
# #
# YOUR CODE HERE #
# #
#######################
std = tf.exp(log_std)
ans = ((x - mu) / std)**2 + 2 * log_std + np.log(2 * np.pi)
ans = -0.5 * ans
# https://www.tensorflow.org/api_docs/python/tf/math/reduce_sum
sum_ans = tf.reduce_sum(ans, axis=1)
return sum_ans
# standard solution
# 代码来自 spinup/exercises/problem_set_1_solutions/exercise1_2_soln.py
def ans_gaussian_likelihood(x, mu, log_std):
pre_sum = -0.5 * (((x-mu)/(tf.exp(log_std)+EPS))**2 + 2*log_std + np.log(2*np.pi))
return tf.reduce_sum(pre_sum, axis=1)
if __name__ == '__main__':
"""
Run this file to verify your solution.
"""
sess = tf.Session()
dim = 10
x = tf.placeholder(tf.float32, shape=(None, dim))
mu = tf.placeholder(tf.float32, shape=(None, dim))
log_std = tf.placeholder(tf.float32, shape=(dim,))
your_gaussian_likelihood = my_gaussian_likelihood(x, mu, log_std)
true_gaussian_likelihood = ans_gaussian_likelihood(x, mu, log_std)
batch_size = 32
feed_dict = {x: np.random.rand(batch_size, dim),
mu: np.random.rand(batch_size, dim),
log_std: np.random.rand(dim)}
your_result, true_result = sess.run([your_gaussian_likelihood, true_gaussian_likelihood],
feed_dict=feed_dict)
correct = np.allclose(your_result, true_result)
print("Your answer is", correct)
Your answer is True