真的很难理解keras中的卷积1d层的输入尺寸:
输入形状
具有以下形状的3D张量:(样本,步长,input_dim)。
输出形状
具有以下形状的3D张量:(样本,new_steps,nb_filter)。steps值可能由于填充而发生了变化。
我希望我的网络输入一个时间序列的价格(顺序为101)并输出4个概率。我目前运行良好的非卷积网络(训练集为28000)如下所示:
standardModel = Sequential()
standardModel.add(Dense(input_dim=101, output_dim=100, W_regularizer=l2(0.5), activation='sigmoid'))
standardModel.add(Dense(4, W_regularizer=l2(0.7), activation='softmax'))
为了改善这一点,我想从输入层制作一个特征图,该特征图的长度为10。(因此具有10个共享权重和1个共享偏差)。然后,我想使用最大池化并将其馈入40个左右神经元的隐藏层,然后在外层将其与4个具有softmax的神经元一起输出。
因此,理想情况下,卷积层将采用2d张量的维数:
(minibatch_size,101)
并输出尺寸的3d张量
(minibatch_size,91,no_of_featuremaps)
但是,keras层似乎在称为step的输入中需要一个尺寸。我试过了解这一点,但仍然不太了解。在我的情况下,应该将步长设为1,因为向量中的每个步长都会使时间增加1?另外,什么是new_step?
另外,如何将池化层(3d张量)的输出转换为适合2d张量形式的标准隐藏层(即Dense keras层)的输入?
更新:在给出了非常有用的建议之后,我尝试制作一个像这样的卷积网络:
conv = Sequential()
conv.add(Convolution1D(64, 10, input_shape=(1,101)))
conv.add(Activation('relu'))
conv.add(MaxPooling1D(2))
conv.add(Flatten())
conv.add(Dense(10))
conv.add(Activation('tanh'))
conv.add(Dense(4))
conv.add(Activation('softmax'))
行conv.Add(Flatten())抛出一个超出有效范围错误的范围。有趣的是,不仅此代码不会引发此错误:
conv = Sequential()
conv.add(Convolution1D(64, 10, input_shape=(1,101)))
conv.add(Activation('relu'))
conv.add(MaxPooling1D(2))
conv.add(Flatten())
正在做
print conv.input_shape
print conv.output_shape
结果是
(None, 1, 101
(None, -256)
被退回
更新2:
已变更
conv.add(Convolution1D(64, 10, input_shape=(1,101)))
到
conv.add(Convolution1D(10, 10, input_shape=(101,1))
它开始工作。但是,将(None,101,1)输入到1d转换层或(None,1,101)是我应该注意的重要区别吗?为什么(None,1,101)不起作用?
之所以如此,是因为Keras设计者打算将一维卷积框架解释为处理序列的框架。要完全理解它们之间的差异,请尝试想象您具有多个特征向量的序列。然后,您的输出将至少是二维的-第一个维度与时间有关,而其他维度与要素有关。一维卷积框架旨在以某种方式将此时间维加粗,并尝试在数据中找到重复出现的模式-而不是执行经典的多维卷积变换。
在您的情况下,您必须简单地重塑数据以使其具有形状(dataset_size,101,1)-因为您只有一个功能。使用numpy.reshape
函数可以很容易地做到这一点。要了解新步骤的含义-您必须了解您正在随着时间进行卷积-因此您更改了数据的时间结构-这导致了新的时间连接结构。为了使您的数据成为适合密集/静态图层的格式,请使用keras.layers.flatten
图层-与经典卷积情况相同。
更新:正如我之前提到的那样,输入的第一个维度与时间有关。因此,(1, 101)
和之间的区别(101, 1)
在于,在第一种情况下,您有一个具有101个功能部件的时间步,而在第二种情况下,您有一个具有1个功能部件的101个时间步。您第一次更改后提到的问题的起因是在此类输入上进行大小为2的合并。只有一个时间步长-您不能在大小为2的时间窗口中合并任何值-仅仅是因为没有足够的时间步长来做到这一点。
本文收集自互联网,转载请注明来源。
如有侵权,请联系[email protected] 删除。
我来说两句