我有一个模型,该模型由几个继承自的子模型组成tf.keras.Model
。这些子模型都是更多或更少简单地套的keras.Sequential
模型,撰写keras.layers
诸如keras.layers.Conv2D
,keras.layers.BatchNormalization
等,以及通话功能通过不同顺序的模型的数据(有时添加额外的东西,如原始输入到的输出顺序模型,例如ResidualBlock子模型)。
我的主模型包含子模型的原因是因为主模型很复杂,这样做使我可以A
轻松更改模型架构(例如子模型的层数。此外,子模型的某些部分实例化某些层(例如keras.layers.Reshape) in the
调用function because the argument to configure the
Reshape`取决于调用函数的输入。
该模型编译成功,并且我已经通过它传递了随机数据(尚未对其进行训练),但是我想对其进行可视化。
我尝试执行以下操作
tensorboard = TensorBoard(log_dir='./logs/{}'.format(time()))
tensorboard.set_model(model)
但我得到一个警告:
WARNING:tensorflow:Model failed to serialize as JSON. Ignoring...
我也无法保存它,
model.save('path_to_file.h5')
因为得到了'NotImplemnedError。
经过研究,我发现保存自定义模型的推荐方法是仅保存权重并仅加载权重。
如何使用Tensorboard可视化我的模型?我需要实现一个序列化程序吗?有为此的指南吗?
就使用Keras API的Tensorboard而言,您可能不走运,因为它并非旨在在具有自定义功能的嵌套模型上运行。好消息是,链接的源代码并不难理解,实际上对我来说比官方指南要直观得多-因此,您应该能够编写自己的tensorboard类来满足您的需求。
与自定义类相比,嵌套回调形式的任何“变通办法”都将比自定义类更麻烦和更难以管理-因此尽管后者可能最初涉及更多工作,但从长远来看应该会有所回报。
最后,Tensorboard API的可定制性受到限制-例如,无法选择要记录的特定图层,或者要忽略哪些指标。为此,我编写了自己的课程-请参见下面的摘录;它不支持嵌套模型,但是可以轻松地扩展嵌套模型。
def run(self, log_num=None):
tensors = (self.model.inputs +
self.model.targets +
self.model.sample_weights)
assert len(tensors) == len(self.val_data)
feed_dict = dict(zip(tensors, self.val_data))
summary = self.sess.run([self.merged], feed_dict=feed_dict)
log_num = log_num or self.log_num
self.writer.add_summary(summary[0], log_num)
self.log_num += 1
if self.verbose:
print("MyTensorBoard saved %s logs" % len(summary))
def _init_logger(self):
for layer in self.model.layers:
if any([(spec_name in layer.name) for spec_name in self.layer_names]):
grads = self._get_grads(layer)
if grads is not None:
tf.summary.histogram(layer.name + '_grad', grads)
if hasattr(layer, 'output'):
self._log_outputs(layer)
for weight in layer.weights:
mapped_weight_name = weight.name.replace(':', '_')
tf.summary.histogram(mapped_weight_name, weight)
w_img = self._to_img_format(weight)
if w_img is not None:
tf.summary.image(mapped_weight_name, w_img)
self.merged = tf.summary.merge_all()
self._init_writer()
print("MyTensorBoard initialized")
def _init_writer(self):
tb_num = 0
while any([('TB_' + str(tb_num) in fname) for fname in
os.listdir(self.base_logdir)]):
tb_num += 1
self.logdir = os.path.join(self.base_logdir, 'TB_%s' % tb_num)
os.mkdir(self.logdir)
print("New TB logdir created at %s" % self.logdir)
if self.write_graph:
self.writer = tf.summary.FileWriter(self.logdir, self.sess.graph)
else:
self.writer = tf.summary.FileWriter(self.logdir)
def _get_grads(self, layer):
for weight_tensor in layer.trainable_weights:
grads = self.model.optimizer.get_gradients(
self.model.total_loss, weight_tensor)
is_indexed_slices = lambda g: type(g).__name__ == 'IndexedSlices'
return [grad.values if is_indexed_slices(grad)
else grad for grad in grads]
def _log_outputs(self, layer):
if isinstance(layer.output, list):
for i, output in enumerate(layer.output):
tf.summary.histogram('{}_out_{}'.format(layer.name, i), output)
else:
tf.summary.histogram('{}_out'.format(layer.name), layer.output)
本文收集自互联网,转载请注明来源。
如有侵权,请联系[email protected] 删除。
我来说两句