Theano中的反卷积自动编码器

轨迹

我是theano的新手,并尝试使用示例卷积网络去噪自动编码器来制作去噪卷积网络。我目前正在努力制作反向重量W'。在本文中,他们将W'的绑定权重在两个维度上都翻转了。

我目前正在处理1d信号,因此我的图像形状是(batch_size,1,1,1000),而filter / W大小是(num_kernels,1,1,10)。卷积的输出为(batch_size,num_kernels,1,991)。由于我想将W'仅仅翻转为2维(在我的情况下为1d),因此我很想这样做

w_value = numpy_rng.uniform(low=-W_bound, high=W_bound, size=filter_shape)
self.W = theano.shared(np.asarray((w_value), dtype=theano.config.floatX), borrow=True)
self.W_prime = T.repeat(self.W[:, :, :, ::-1], num_kernels, axis=1)

在这里我将其反向翻转到相关尺寸,然后重复这些权重,以使它们与隐藏层中的要素贴图相同。

使用此设置,我是否仅需要获取W的梯度即可更新,还是W_prime也应作为grad计算的一部分?

当我这样做时,MSE在第一次minibatch之后下降很多,然后停止更改。使用交叉熵可以从第一次迭代中得出NaN。我不知道这是否与此问题有关,或者它是否是我的代码中存在的许多其他潜在错误之一。

丹尼尔·伦肖

我无法评论您的W_prime方法的有效性,但是我可以说您只需要针对每个原始共享变量计算成本的梯度。W_prime是的符号函数W,而不是共享变量本身,因此您无需计算相对于的梯度W_prime

每当您获得NaN时,首先要尝试的是减小学习率的大小。

本文收集自互联网,转载请注明来源。

如有侵权,请联系[email protected] 删除。

编辑于
0

我来说两句

0条评论
登录后参与评论

相关文章

来自分类Dev

Theano:在自动编码器中使用步长(二次采样)重构卷积

来自分类Dev

Theano:在自动编码器中使用步长(二次采样)重构卷积

来自分类Dev

自动编码器中的捆绑权重

来自分类Dev

什么是caffe自动编码器中的稀疏字段?

来自分类Dev

Keras 中的有状态自动编码器

来自分类Dev

在 pytorch 中对自动编码器进行上采样

来自分类Dev

从Encog中的自动编码器抓取编码器/解码器

来自分类Dev

Keras-火车卷积网络,获取自动编码器输出

来自分类Dev

使用卷积自动编码器在照片上添加微笑的问题

来自分类Dev

Keras-火车卷积网络,获取自动编码器输出

来自分类Dev

是否有使用 MxNet 构建卷积自动编码器的玩具示例?

来自分类Dev

减少自动编码器的损耗

来自分类Dev

LSTM自动编码器问题

来自分类Dev

自动编码器形状

来自分类Dev

在变分自动编码器中从解码器输入到编码器输出的反向传播

来自分类Dev

卷积自动编码器未在(62,47,1)数据集“预期形状错误”上进行训练

来自分类Dev

从LSTM自动编码器输入分类器数据

来自分类Dev

keras 中的级联模型(自动编码器 + 分类器)

来自分类Dev

使用RBM的深度自动编码器

来自分类Dev

Keras自动编码器的精度/损耗不变

来自分类Dev

keras变分自动编码器损失函数

来自分类Dev

用相同的图像训练自动编码器

来自分类Dev

转换自动编码器层级数

来自分类Dev

如何评估用于降维的自动编码器

来自分类Dev

可视化自动编码器输出

来自分类Dev

LSTM自动编码器的这些实现之间的区别?

来自分类Dev

LSTM自动编码器输出层

来自分类Dev

使用自动编码器的 1 的不兼容形状

来自分类Dev

猫图像的 Keras 自动编码器的微调

Related 相关文章

热门标签

归档