这是一个非常基本的模型:
class LinearDeepQNetwork(nn.Module):
def __init__(self, lr, n_actions, input_dims):
super(LinearDeepQNetwork, self).__init__()
self.fc1 = nn.Linear(*input_dims, 128)
self.fc2 = nn.Linear(128, n_actions)
self.optimizer = optim.Adam(self.parameters(), lr=lr)
self.loss = nn.MSELoss()
self.device = T.device('cuda:0' if T.cuda.is_available() else 'cpu')
self.to(self.device)
def forward(self, state):
layer1 = F.relu(self.fc1(state))
actions = self.fc2(layer1)
return actions
请注意,我用的Pytorch
,而不是Keras
或Tensorflow
。在Agent()
课堂上,我实例化self.Q_eval = LinearDeepQNetwork(self.lr, self.n_actions, self.input_dims)
。在训练好特工几次情节后,我需要输出的权重self.Q_eval
。我怎样才能做到这一点?
我需要在Q_eval
网络之间注入权重Q_next
。我做了以下功能:
def replace_target_network(self):
self.Q_next.load_state_dict(self.Q_eval.state_dict())
self.Q_next.eval()
回答我可以用来获得权重Q_eval.state_dict()
。
本文收集自互联网,转载请注明来源。
如有侵权,请联系[email protected] 删除。
我来说两句