我有一个带有size的hdf5训练数据集(21760, 1, 33, 33)
。21760
是训练样本的总数。我想使用具有大小的微型批量训练数据128
来训练网络。
我想问问:
如何给128
从tensorflow每次整个数据集小批量的训练数据?
您可以将hdf5数据集读取到numpy数组中,并将numpy数组的切片供入TensorFlow模型。像下面这样的伪代码将起作用:
import numpy, h5py
f = h5py.File('somefile.h5','r')
data = f.get('path/to/my/dataset')
data_as_array = numpy.array(data)
for i in range(0, 21760, 128):
sess.run(train_op, feed_dict={input:data_as_array[i:i+128, :, :, :]})
本文收集自互联网,转载请注明来源。
如有侵权,请联系[email protected] 删除。
我来说两句