最近几个月一直在看强化学习,把强化学习导论(Reinforcement Learning:An Introduction)跟着b站视频看了一遍,发现书上的大部分是理论,实践代码并不多,所以可以看看知乎David Silver强化学习公开课中文讲解及实践,看完之后呢就会发现,强化学习在沿着解决连续动作和深度卷积神经网络逼近值函数来解决问题。下面先写出目前所学到的知识,后期会继续更新。

1.Q-Learning

Q-Learning是强化学习算法中极其重要的算法,Q即为Q(s,a)就是在某一时刻的 s 状态下,采取 动作a 动作所获得的收益,环境会根据动作反馈相应的回报reward,所以Q-Learning算法的主要思想就是将状态与动作构建成一张Q-table来存储Q值,然后根据Q值来选取能够获得最大的收益的动作。

缺点:Q-learning需要一个Q table,在状态很多的情况下,Q table会很大,查找和存储都需要消耗大量的时间和空间。而且这些表中的动作都是离散的动作,不能是连续的动作。

问题:在实际问题中,环境中有许多状态,其每个状态有许多动作,这样使得Q-table显得没有那么的好。
解决方法:提出DQN

2. DQN

DQN对Q-learning的修改主要体现在以下三个方面:

(1)DQN利用深度卷积神经网络逼近值函数;
(2)DQN利用了经验回放对强化学习的学习过程进行训练;
(3)DQN独立设置了目标网络来单独处理时间差分算法中的TD偏差。

(1)DQN利用深度卷积神经网络:
网络的作用是通过输入状态和行为可直接输出这个行为的价值Q,不需要再记录表格。

(2)DQN利用经验回放:
在训练过程中,会维护一个序列样本池Dt={e1,…,et},其中et={st,at,rt,s(t+1)},et就是在状态st下,采取了动作at,转移到了状态s(t+1),得到回报rt,这样就形成了一个样本(经验)。回放的意思就是在训练中,比如让agent玩游戏,并不是把样本按照时间顺序喂给网络,而是在一局游戏未结束之前,把生成的样本(经验)都更新地扔到经验池中,从池中平均采样minBatch个作为训练样本。

好处:
这样回放机制就会减少应用于高度相关的状态序列。:因为前后样本存在关联导致的强化学习震荡和发散的问题。

(3)DQN独立设置目标网络
Off-policy是Q-Learning的特点,DQN中也延用了这一特点。而不同的是,Q-Learning中用来计算target和预测值的Q是同一个Q,也就是说使用了相同的神经网络。这样带来的一个问题就是,每次更新神经网络的时候,target也都会更新,这样会容易导致参数不收敛。回忆在有监督学习中,标签label都是固定的,不会随着参数的更新而改变。因此DQN在原来的Q网络的基础上又引入了一个target Q网络,即用来计算target的网络。它和Q网络结构一样,初始的权重也一样,只是Q网络每次迭代都会更新,而target Q网络是每隔一段时间才会更新。

最后附上DQN过程直观图:

DQN代码实现如下:(代码中有自己加上去的解释)

import torch
import torch.nn as nn
import torch.nn.functional as F
import numpy as np
import gym# Hyper Parameters  参数
BATCH_SIZE = 32
LR = 0.01                   # learning rate
EPSILON = 0.9               # greedy policy
GAMMA = 0.9                 # reward discount
TARGET_REPLACE_ITER = 100   # target update frequency
MEMORY_CAPACITY = 2000
env = gym.make('CartPole-v0')  #创造环境
env = env.unwrapped#据说不做这个动作会有很多限制,unwrapped是打开限制的意思,用env.unwrapped可以得到原始的类,原始类想step多久就多久,不会200步后失败:
N_ACTIONS = env.action_space.n #动作的个数
N_STATES = env.observation_space.shape[0]  #查看这个环境中observation的特征即状态有多少个
ENV_A_SHAPE = 0 if isinstance(env.action_space.sample(), int) else env.action_space.sample().shape     # to confirm the shapeclass Net(nn.Module):  #神经网络def __init__(self, ):super(Net, self).__init__()self.fc1 = nn.Linear(N_STATES, 50)  #输入状态self.fc1.weight.data.normal_(0, 0.1)   # initializationself.out = nn.Linear(50, N_ACTIONS)  #输出该状态下的所有动作的价值self.out.weight.data.normal_(0, 0.1)   # initializationdef forward(self, x):x = self.fc1(x)x = F.relu(x)actions_value = self.out(x)return actions_value   #返回动作的价值class DQN(object):def __init__(self):self.eval_net, self.target_net = Net(), Net()  #两个相同的网络,参数不同,需要两个网络:target网络每隔段时间更新一次。避免参数一直更新self.learn_step_counter = 0    #学了多少步                                 # for target updatingself.memory_counter = 0        #记忆库位置的计数                                   # for storing memoryself.memory = np.zeros((MEMORY_CAPACITY, N_STATES * 2 + 2))     # 初始化记忆库self.optimizer = torch.optim.Adam(self.eval_net.parameters(), lr=LR)self.loss_func = nn.MSELoss()def choose_action(self, x):   #根据观测值决定动作x = torch.unsqueeze(torch.FloatTensor(x), 0)   #输入观测者,用变量包起来传入神经网络# input only one sampleif np.random.uniform() < EPSILON:   # 如果概率小于一个随机数,采取贪婪算法,选取最大值actions_value = self.eval_net.forward(x)   #扔到网络中,输出行为价值action = torch.max(actions_value, 1)[1].data.numpy()  #选取最大的行为价值# torch.max()[0]:只返回最大值的每个数#torch.max()[1]:只返回最大值的每个索引action = action[0] if ENV_A_SHAPE == 0 else action.reshape(ENV_A_SHAPE)  # return the argmax indexelse:   #随机选取动作action = np.random.randint(0, N_ACTIONS) #随机选取动作action = action if ENV_A_SHAPE == 0 else action.reshape(ENV_A_SHAPE) #返回的动作的下标(第几个)return actiondef store_transition(self, s, a, r, s_):  #记忆库,记录之前学习的东西,就是回放机制transition = np.hstack((s, [a, r], s_))  #所有的记忆捆到一起,并且存到相对应的位置# replace the old memory with new memoryindex = self.memory_counter % MEMORY_CAPACITY  #新的覆盖旧的记忆self.memory[index, :] = transitionself.memory_counter += 1def learn(self):  #学习# target parameter updateif self.learn_step_counter % TARGET_REPLACE_ITER == 0:  #隔多少步(学习多少次)target Q网络更新一下self.target_net.load_state_dict(self.eval_net.state_dict()) #val_net的数值复制到target_netself.learn_step_counter += 1# sample batch transitionssample_index = np.random.choice(MEMORY_CAPACITY, BATCH_SIZE)b_memory = self.memory[sample_index, :]  #随机抽取记忆,并进行下面的分开打包b_s = torch.FloatTensor(b_memory[:, :N_STATES])b_a = torch.LongTensor(b_memory[:, N_STATES:N_STATES+1].astype(int))b_r = torch.FloatTensor(b_memory[:, N_STATES+1:N_STATES+2])b_s_ = torch.FloatTensor(b_memory[:, -N_STATES:])# q_eval w.r.t the action in experience  QDN的学习过程q_eval = self.eval_net(b_s).gather(1, b_a)  # shape (batch, 1) 之前做完的动作的价值q_next = self.target_net(b_s_).detach()     # detach 就是不需要反向传播# Q(St,At)(真实值)←Q(St,At)(旧值)+α[R(t+1)+γmax Q(S(t+1),a,θ)−Q(St,At,θ)]q_target = b_r + GAMMA * q_next.max(1)[0].view(BATCH_SIZE, 1)   # shape (batch, 1)loss = self.loss_func(q_eval, q_target)  #预测值和真实值self.optimizer.zero_grad()loss.backward()self.optimizer.step()dqn = DQN()print('\nCollecting experience...')
for i_episode in range(400):s = env.reset()   #现在所处的状态,复位ep_r = 0while True:env.render()  #环境渲染,可看到屏幕的环境a = dqn.choose_action(s)   #根据现在的状态采取一个行为# take actions_, r, done, info = env.step(a)  #环境根据我的行为所给的反馈# modify the rewardx, x_dot, theta, theta_dot = s_r1 = (env.x_threshold - abs(x)) / env.x_threshold - 0.8r2 = (env.theta_threshold_radians - abs(theta)) / env.theta_threshold_radians - 0.5r = r1 + r2dqn.store_transition(s, a, r, s_)  #存储环境给我的反馈ep_r += rif dqn.memory_counter > MEMORY00_CAPACITY:dqn.learn()   #学习if done:print('Ep: ', i_episode,'| Ep_r: ', round(ep_r, 2))if done:breaks = s_

3.DDPG

在学习DDPG算法之前首先要学习AC(Actor Critic)算法。因为AC算法思想很重要。

Actor Critic算法

我们有了像 Q-learning这么伟大的算法, 为什么还要瞎折腾出一个 Actor-Critic? 原来 Actor-Critic 的 Actor 的前生是 Policy Gradients, 这能让它毫不费力地在连续动作中选取合适的动作, 而 Q-learning 做这件事会瘫痪. 那为什么不直接用 Policy Gradients 呢? 原来 Actor Critic 中的 Critic 的前生是 Q-learning 或者其他的 以值为基础的学习法 , 能进行单步更新, 而传统的 Policy Gradients 则是回合更新, 这降低了学习效率。

普通的Actor-Critic
AC算法其实用到了两个网络:
一个输出策略负责选择动作,我们把这个网络成为Actor
一个负责计算每个动作的分数,我们把这个网络成为Critic

Actor在台上跳舞,一开始舞姿并不好看,Critic根据Actor的舞姿打分。Actor通过Critic给出的分数,去学习:如果Critic给的分数高,那么Actor会调整这个动作的输出概率;相反,如果Critic给的分数低,那么就减少这个动作输出的概率。

DDPG算法中的Actor-Critic

Critic:
Critic网络的作用是预估Q,虽然它还叫Critic,但和普通AC中的Critic不一样,这里预估的是Q不是V;
注意Critic的输入有两个:动作和状态,需要一起输入到Critic中;
Critic网络的loss其还是和普通AC一样,用的是TD-error。

Actor:
和普通AC不同,Actor输出的是一个动作;
Actor的功能是,输出一个动作A,这个动作A输入到Critic后,能够获得最大的Q值。
所以Actor的更新方式和AC不同,不是用带权重梯度更新,而是用梯度上升。

DDPG要解决的问题

尽管DQN解决了高维观测空间的问题,但它只能处理离散的和低维的动作空间。许多令人关注的任务,尤其是物理控制任务,具有连续的(实际值)和高维度的动作空间。 DQN无法直接应用于连续域,因为DQN依赖于找到使动作值函数最大化的动作(是因为maxQ(s’,a’)函数只能处理离散型的),在连续值的情况下,每个步骤都需要迭代优化过程。

DDPG是采用的也是Actor-Critic架构,是基于DQN进行改进的。DQN中的action space必须是离散的,所以不能处理连续的动作空间的问题。DDPG在其基础上进行改动,引入了一个Actor Network,让一个网络来的输出来得到连续的动作空间。

DDPG的核心思想

  1. 采用经验回放方法 ;
  2. 采用target目标网络更新(为什么要用target网络?因为训练的网络特别不稳定);
  3. AC框架 ;
  4. 确定性策略梯度。

DDPG的工作过程

  1. 最开始训练时,这两个神经网络参数是随机的,所以critic最开始是随即打分的,然后actor也跟着乱来,就随机表演,随即输出动作。但是由于环境反馈的reward存在,所以critic的评分会越来越准确,也会判断的那个actor的表现会越来越好。
  2. 既然actor是一个策略神经网络,那就需要计算梯度来去更新优化里面的参数θ。简单地说,我们希望调整actor的网络参数,使得评委打分尽可能地高。
  3. DDPG的目的就是为了求解让Q值最大的那个action。actor只是为了迎合评委的打分而已,所以用来优化策略网络的梯度就是要最大化这个Q值,所以构造的loss函数就是让Q取一个负号。优化器最小化loss,就是最大化Q值。
  4. 用真实的reard和下一步的Q值来拟合未来的收益Q_target。然后让Q网络的输出去逼近这个Q_target。
    总结:我们把a=u(s)【确定性策略选取的行为】,最终策略网络要优化的是策略网络的参数θ,critic网络要优化的是Q(s,a)和Q_target之间的均方差。但是Q_target是不稳定的。

为了稳定这个Q_target,DDPG分别给critic网络和策略网络搭建了target_network

DDPG的四个网络
DDPG既然来自DQN,那当然也有经验回放与双网络,所以在 Critic 部分增加一个目标网络去计算目标 Q值,但是还需要选取动作用来估计目标Q值,由于我们有自己的Actor策略网络,用类似的做法,再增加一个Actor目标网络,所以DDPG算法一共包含了四个网络,分别是:Actor当前网络Actor目标网络Critic当前网络Critic目标网络,2个Actor网络的结构相同,2个Critic网络的结构相同。这四个网络的功能如下:
Actor当前网络:负责策略网络参数 θ 的迭代更新,负责根据当前状态 S 选择当前动作 A,用于和环境交互生成 S’和 R。
Actor目标网络:负责根据经验回放池中采样的下一状态 S’ 选择最优下一动作 A’,网络参数 θ定期从 θ 复制。
Critic当前网络:负责价值网络参数w的迭代更新,负责计算负责计算当前Q值 Q(S,A,w) 。目标Q 值 yi​=R+γQ′(S′,A′,w′) 。
Critic目标网络:负责计算目标Q值中的 Q′(S′,A′,w′)部分,网络参数 w′定期从 w复制。

这里训练需要用到的数据就是s,a,r,s’,只需用到这四个数据,用Replay Memory把这些数据存起来,然后sample进来训练就好了。因为DDPG使用了经验回放这个技巧,所以DDPG是一个off-poilcy算法。

最后回顾DQN在Q-Learning基础上所做的改进:使用了深度神经网络做函数近似;使用经验回放;使用target网络。DDPG类似的也使用了深度神经网络,经验回放和target网络。不过DQN中的target更新是hard update,即每隔固定步数更新一次target网络,DDPG使用soft update,每一步都会更新target网络,只不过更新的幅度非常小。

下面附DDPG代码和代码相应的解释

import argparse
from itertools import countimport os, sys, random
import numpy as npimport gym
import torch
import torch.nn as nn
import torch.nn.functional as F
import torch.optim as optim
from torch.distributions import Normal
from tensorboardX import SummaryWriter'''
Implementation of Deep Deterministic Policy Gradients (DDPG) with pytorch
riginal paper: https://arxiv.org/abs/1509.02971
Not the author's implementation !
'''parser = argparse.ArgumentParser()
parser.add_argument('--mode', default='train', type=str) # mode = 'train' or 'test'
# OpenAI gym environment name, # ['BipedalWalker-v2', 'Pendulum-v0'] or any continuous environment
# Note that DDPG is feasible about hyper-parameters.
# You should fine-tuning if you change to another environment.
parser.add_argument("--env_name", default="Pendulum-v0")
parser.add_argument('--tau',  default=0.005, type=float) # target smoothing coefficient
parser.add_argument('--target_update_interval', default=1, type=int)
parser.add_argument('--test_iteration', default=10, type=int)parser.add_argument('--learning_rate', default=1e-4, type=float)
parser.add_argument('--gamma', default=0.99, type=int) # discounted factor
parser.add_argument('--capacity', default=1000000, type=int) # replay buffer size
parser.add_argument('--batch_size', default=100, type=int) # mini batch size
parser.add_argument('--seed', default=False, type=bool)
parser.add_argument('--random_seed', default=9527, type=int)
# optional parametersparser.add_argument('--sample_frequency', default=2000, type=int)
parser.add_argument('--render', default=False, type=bool) # show UI or not
parser.add_argument('--log_interval', default=50, type=int) #
parser.add_argument('--load', default=False, type=bool) # load model
parser.add_argument('--render_interval', default=100, type=int) # after render_interval, the env.render() will work
parser.add_argument('--exploration_noise', default=0.1, type=float)
parser.add_argument('--max_episode', default=100000, type=int) # num of games
parser.add_argument('--print_log', default=5, type=int)
parser.add_argument('--update_iteration', default=200, type=int)
args = parser.parse_args()device = 'cuda' if torch.cuda.is_available() else 'cpu'
script_name = os.path.basename(__file__)
env = gym.make(args.env_name) #制作环境if args.seed:env.seed(args.random_seed)torch.manual_seed(args.random_seed)np.random.seed(args.random_seed)state_dim = env.observation_space.shape[0]  #状态数
action_dim = env.action_space.shape[0]  #动作数
max_action = float(env.action_space.high[0])  #最大化动作
min_Val = torch.tensor(1e-7).float().to(device) # min value 最小值directory = './exp' + script_name + args.env_name +'./'class Replay_buffer():  #初始化Replay Buffer R,因为强化学习的马尔科夫序列之间的数据具有非常大的关联性,#采用R的目的就是打乱数据之间的相关性,使得数据之间满足独立同分布。# Replay Buffer就是用来存储一系列等待学习的SARS片段。#将学习的序列存储到R中,然后随机批量的读取R中的序列进行学习模型。'''Code based on:https://github.com/openai/baselines/blob/master/baselines/deepq/replay_buffer.pyExpects tuples of (state, next_state, action, reward, done)'''def __init__(self, max_size=args.capacity):self.storage = []self.max_size = max_sizeself.ptr = 0def push(self, data):if len(self.storage) == self.max_size:  #判断存储池是否满,如果满了,就让新的值代替旧值self.storage[int(self.ptr)] = dataself.ptr = (self.ptr + 1) % self.max_sizeelse:self.storage.append(data)   #如果没有满,就直接在后面存储即可def sample(self, batch_size):ind = np.random.randint(0, len(self.storage), size=batch_size)x, y, u, r, d = [], [], [], [], []
#可以设置Replay Buffer的容量,push函数是向buffer中添加一个SARS片段;sample代表从buffer中采样batch size个片段for i in ind:X, Y, U, R, D = self.storage[i]x.append(np.array(X, copy=False))y.append(np.array(Y, copy=False))u.append(np.array(U, copy=False))r.append(np.array(R, copy=False))d.append(np.array(D, copy=False))return np.array(x), np.array(y), np.array(u), np.array(r).reshape(-1, 1), np.array(d).reshape(-1, 1)class Actor(nn.Module):def __init__(self, state_dim, action_dim, max_action):super(Actor, self).__init__()self.l1 = nn.Linear(state_dim, 400)self.l2 = nn.Linear(400, 300)self.l3 = nn.Linear(300, action_dim)  #用Actor来得到连续的动作,此时输出的真实动作而不是选择动作的概率self.max_action = max_actiondef forward(self, x):x = F.relu(self.l1(x))x = F.relu(self.l2(x))x = self.max_action * torch.tanh(self.l3(x))#Actor作用是接收状态描述,输出一个action, 由于DDPG中的动作空间要求是连续的,所以使用了一个tanhreturn xclass Critic(nn.Module):  #critic的输入是状态和该状态的动作def __init__(self, state_dim, action_dim):super(Critic, self).__init__()self.l1 = nn.Linear(state_dim + action_dim, 400)self.l2 = nn.Linear(400 , 300)self.l3 = nn.Linear(300, 1)  #最后输出不是动作,是1,表示价值def forward(self, x, u):x = F.relu(self.l1(torch.cat([x, u], 1)))  #在第一维度上对状态和动作进行连接x = F.relu(self.l2(x))x = self.l3(x)return x
#Critic批评者,在DDPG中,接受来自Actor的一个Action值和当前的状态,输出的是当前状态下,采用Action动作以后得到的关于Q的期望。class DDPG(object):  #DDPG用到了以上的所有对象,包括Critic、Target Critic、Actor、Target Actor、memory。def __init__(self, state_dim, action_dim, max_action):#定义四个网络:actor,actor_target,critic,critic_targetself.actor = Actor(state_dim, action_dim, max_action).to(device)self.actor_target = Actor(state_dim, action_dim, max_action).to(device)  #创建actor_target模型self.actor_target.load_state_dict(self.actor.state_dict())  #将actor数据加载到actor_target中self.actor_optimizer = optim.Adam(self.actor.parameters(), lr=1e-4)  #优化策略网络参数self.critic = Critic(state_dim, action_dim).to(device)self.critic_target = Critic(state_dim, action_dim).to(device)  #创建critic_target模型self.critic_target.load_state_dict(self.critic.state_dict())   #将critic的数据加载到critic_target模型中self.critic_optimizer = optim.Adam(self.critic.parameters(), lr=1e-3)  #优化Q网络self.replay_buffer = Replay_buffer()  #self.writer = SummaryWriter(directory)  #tensorbord中的可视化函数self.num_critic_update_iteration = 0  #critic的迭代次数self.num_actor_update_iteration = 0   #actor的迭代次数self.num_training = 0def select_action(self, state):state = torch.FloatTensor(state.reshape(1, -1)).to(device)return self.actor(state).cpu().data.numpy().flatten()def update(self):#将所有变量转换为张量for it in range(args.update_iteration):# Sample replay bufferx, y, u, r, d = self.replay_buffer.sample(args.batch_size)  #读取存储池中的数据state = torch.FloatTensor(x).to(device)   #action = torch.FloatTensor(u).to(device)next_state = torch.FloatTensor(y).to(device)done = torch.FloatTensor(1-d).to(device)reward = torch.FloatTensor(r).to(device)# Compute the target Q valuetarget_Q = self.critic_target(next_state, self.actor_target(next_state))  #传入下一个状态和下一状态的动作target_Q = reward + (done * args.gamma * target_Q).detach()  #target=r + r*target_Q(在Q网络中传来的)# Get current Q estimate,注意critic将(s_t,a)作为输入current_Q = self.critic(state, action)  #得到真实的Q值# Compute critic losscritic_loss = F.mse_loss(current_Q, target_Q)  #计算真实Q值和目标Q值的差值损失self.writer.add_scalar('Loss/critic_loss', critic_loss, global_step=self.num_critic_update_iteration)# Optimize the criticself.critic_optimizer.zero_grad()     #梯度下降来优化Q网络参数critic_loss.backward()self.critic_optimizer.step()# Compute actor lossactor_loss = -self.critic(state, self.actor(state)).mean()  #计算策略网络的损失,第二个参数是actor做的动作self.writer.add_scalar('Loss/actor_loss', actor_loss, global_step=self.num_actor_update_iteration)# Optimize the actor  优化策略网络的参数self.actor_optimizer.zero_grad()actor_loss.backward()self.actor_optimizer.step()# Update the frozen target models  更新封住的目标模型2#更新Critic目标网络和Actor目标网络参数:#w′←τw+(1−τ)w′  平滑的更新一点点,软更新#θ′←τθ+(1−τ)θ′for param, target_param in zip(self.critic.parameters(), self.critic_target.parameters()):target_param.data.copy_(args.tau * param.data + (1 - args.tau) * target_param.data)for param, target_param in zip(self.actor.parameters(), self.actor_target.parameters()):target_param.data.copy_(args.tau * param.data + (1 - args.tau) * target_param.data)self.num_actor_update_iteration += 1self.num_critic_update_iteration += 1def save(self):torch.save(self.actor.state_dict(), directory + 'actor.pth')torch.save(self.critic.state_dict(), directory + 'critic.pth')# print("====================================")# print("Model has been saved...")# print("====================================")def load(self):self.actor.load_state_dict(torch.load(directory + 'actor.pth'))self.critic.load_state_dict(torch.load(directory + 'critic.pth'))print("====================================")print("model has been loaded...")print("====================================")#将state放到actor对象得到action
#将state,action放到critic对象得到policy loss
#然后target actor和target critic也按照以上过程得到target value
#根据target value 计算expected value:def main():agent = DDPG(state_dim, action_dim, max_action)ep_r = 0if args.mode == 'test':  #测试agent.load()for i in range(args.test_iteration):state = env.reset()for t in count():action = agent.select_action(state)next_state, reward, done, info = env.step(np.float32(action))ep_r += rewardenv.render()if done or t >= args.max_length_of_trajectory:print("Ep_i \t{}, the ep_r is \t{:0.2f}, the step is \t{}".format(i, ep_r, t))ep_r = 0breakstate = next_stateelif args.mode == 'train':  #训练if args.load: agent.load()total_step = 0for i in range(args.max_episode):total_reward = 0step =0state = env.reset()for t in count():action = agent.select_action(state)action = (action + np.random.normal(0, args.exploration_noise, size=env.action_space.shape[0])).clip(env.action_space.low, env.action_space.high) #对动作增加噪音,对其保持探索next_state, reward, done, info = env.step(action)if args.render and i >= args.render_interval : env.render()agent.replay_buffer.push((state, next_state, action, reward, np.float(done)))state = next_stateif done:breakstep += 1total_reward += rewardtotal_step += step+1print("Total T:{} Episode: \t{} Total Reward: \t{:0.2f}".format(total_step, i, total_reward))agent.update()# "Total T: %d Episode Num: %d Episode T: %d Reward: %fif i % args.log_interval == 0:agent.save()else:raise NameError("mode wrong!!!")if __name__ == '__main__':main()

编写来之不易,对大家有帮助就点个赞赞哦,谢谢大家!后期我会继续更新深度学习,强化学习等经典算法。关注我及时了解最新科研进展。

一文读懂Q-Learning,DQN,DDPG的连接关系相关推荐

  1. 一文读懂交叉熵和最大似然的关系及在人脸识别中的应用

    目录 一.信息论 1.信息量 2.信息熵 3. 相对熵(KL散度) 4.交叉熵 二.最大似然 1.概念 2.最大似然的求解 三.交叉熵和最大似然在人脸识别中的应用 四.insightface中的los ...

  2. 一文读懂spring boot 和微服务的关系

    欢迎访问网易云社区,了解更多网易技术产品运营经验. Spring Boot 和微服务没关系, Java 微服务治理框架普遍用的是 Spring Cloud. Spring Boot 产生的背景,是开发 ...

  3. 一文读懂区块链与大数据的关系

    导读 随着数字经济的发展,区块链的价值逐渐凸显,区块链和大数据确保了数据的安全性,还可以防止数据泄露,一旦信息存储在链上,就需要有多个权限来访问数据.通过可伸缩性,区块链允许以更平静的方式共享数据. ...

  4. 一文读懂BERT(原理篇)

    一文读懂BERT(原理篇) 2018年的10月11日,Google发布的论文<Pre-training of Deep Bidirectional Transformers for Langua ...

  5. 从实验室走向大众,一文读懂Nanopore测序技术的发展及应用

    关键词/Nanopore测序技术    文/基因慧 随着基因测序技术不断突破,二代测序的发展也将基因检测成本大幅降低.理想的测序方法,是对原始DNA模板进行直接.准确的测序,消除PCR扩增带来的偏差, ...

  6. 一文读懂Faster RCNN

    来源:信息网络工程研究中心本文约7500字,建议阅读10+分钟 本文从四个切入点为你介绍Faster R-CNN网络. 经过R-CNN和Fast RCNN的积淀,Ross B. Girshick在20 ...

  7. ​一文读懂EfficientDet

    一文读懂EfficientDet. 今年年初Google Brain团队在 CVPR 2020 上发布了 EfficientDet目标检测模型, EfficientDet是一系列可扩展的高效的目标检测 ...

  8. 一文读懂TOF深度相机技术原理--TI-Tintin-OPT8241二次开发和应用系列--Theory Level

    一文读懂TOF深度相机技术原理--TI-Tintin-OPT8241二次开发和应用系列--Theory Level 转载请附上出处,本文链接:https://www.cnblogs.com/pans0 ...

  9. 一文读懂大数据平台——写给大数据开发初学者的话!

     一文读懂大数据平台--写给大数据开发初学者的话! 文|miao君 导读: 第一章:初识Hadoop 第二章:更高效的WordCount 第三章:把别处的数据搞到Hadoop上 第四章:把Hado ...

最新文章

  1. 实战centos6安装zabbix-2.4版(终极版)
  2. 【STM32 .NET MF开发板学习-29】摄像头蓝牙图像远程获取
  3. 苹果芯片工程师又被挖!这次是微软,要自研Azure服务器芯片
  4. 我也学习JAVA多线程-join
  5. linux记录iptables日志,iptables日志管理
  6. android Handler更新UI
  7. MySQL 8下忘密码后重置密码的办法(MySQL5老方法不灵了)
  8. 浙江大学-包家立计算生物学1
  9. cmake_安装导入静态/动态库的三种方式(find_package INSTALL 使用绝对路径)
  10. JavaScript 单例模式
  11. 安卓手机获取root权限
  12. 基准电压——Reference voltage
  13. [Codeforces 894E] Ralph and Mushrooms
  14. 事务四大特性(ACID):原子性、一致性、隔离性、持久性
  15. Spring Festival
  16. Vue3+Vite+TS后台项目 ~ 10.商品管理
  17. [noip2016]天天爱跑步
  18. 微信公众号采集 php,如何采集微信公众号历史消息页
  19. 看完这篇关于电池的高票回答 可防储能大忽悠
  20. 从前有座灵剑山--与邪教辩论(1)

热门文章

  1. vue打印问题(分页打印、批量打印条形码)
  2. 业务中台系统架构:大中台+小前台电子商务系统搭建框架思维
  3. Android9.0版本Vold服务源码分析
  4. 电脑文件丢失了怎么恢复?2021最新教程汇总
  5. 离散数学实验一——关系
  6. linux 压缩固定大小,Linux 将文件打包、压缩并分割成指定大小
  7. PC - Chrome 浏览器如何开启无痕模式?
  8. 修改Markdown表格对齐方式、markdown表格内单元格换行
  9. 2019高教杯数学建模B题赛后感
  10. [软件评测第九期]蚁丘保卫战(Anthi…