Shuffling training data with LSTM RNN

hellowill89 :

Since an LSTM RNN uses previous events to predict current sequences, why do we shuffle the training data? Don't we lose the temporal ordering of the training data? How is it still effective at making predictions after being trained on shuffled training data?

Brian Bartoldson :

In general, when you shuffle the training data (a set of sequences), you shuffle the order in which sequences are fed to the RNN, you don't shuffle the ordering within individual sequences. This is fine to do when your network is stateless:

Stateless Case:

The network's memory only persists for the duration of a sequence. Training on sequence B before sequence A doesn't matter because the network's memory state does not persist across sequences.

On the other hand:

Stateful Case:

The network's memory persists across sequences. Here, you cannot blindly shuffle your data and expect optimal results. Sequence A should be fed to the network before sequence B because A comes before B, and we want the network to evaluate sequence B with memory of what was in sequence A.

この記事はインターネットから収集されたものであり、転載の際にはソースを示してください。

侵害の場合は、連絡してください[email protected]

編集
0

コメントを追加

0

関連記事

分類Dev

Shuffling training data with LSTM RNN

分類Dev

Keras LSTM training. How to shape my input data?

分類Dev

LSTM / RNN多対1

分類Dev

Cannot stack LSTM with MultiRNNCell and dynamic_rnn

分類Dev

LSTM 노드로 RNN 훈련

分類Dev

RNN / LSTMセルの解釈

分類Dev

How to train a RNN with LSTM cells for time series prediction

分類Dev

RNN / LSTMの非従来型の使用

分類Dev

RNN with more weights on recent data

分類Dev

Is it advisable to save the final state from training of an RNN to initialize it during testing?

分類Dev

LSTMノードを使用したRNNのトレーニング

分類Dev

LSTM Tensorflowの最終セル状態とRNN出力の違いは?

分類Dev

Kerasを使用したLSTMとRNNとの闘い

分類Dev

Keras / TensorFlowでRNN / LSTMの重みを視覚化する方法は?

分類Dev

tf.contrib.rnn.MultiRNNCellを使用しない多層LSTM

分類Dev

RNN-LSTM時系列Tensorflow0.12エラー

分類Dev

ValueError:変数rnn / multi_rnn_cell / cell_0 / basic_lstm_cell / kernelを共有しようとしています

分類Dev

What dimension is the LSTM model considers the data sequence?

分類Dev

LSTM autoencoder with Keras data shape issue

分類Dev

RNN / LSTMの損失はどのように計算されますか?

分類Dev

RNN:KerasFrameworkのLSTMレイヤーでのreturn_sequencesの使用は何ですか

分類Dev

RNN / LSTMを非標準のテキストOCRに使用できますか?

分類Dev

Keras / TensorFlowでRNN / LSTMグラジエントを視覚化する方法は?

分類Dev

Access data on AML datastore from training script

分類Dev

Error while training multi dimensional data

分類Dev

LSTM RNNを使用したトレーニングデータのシャッフル

分類Dev

時系列予測のためにLSTMセルでRNNをトレーニングする方法

分類Dev

LSTM RNNを使用したトレーニングデータのシャッフル

分類Dev

LSTM-RNNトレーニングの時系列サブシーケンスのパディング

Related 関連記事

  1. 1

    Shuffling training data with LSTM RNN

  2. 2

    Keras LSTM training. How to shape my input data?

  3. 3

    LSTM / RNN多対1

  4. 4

    Cannot stack LSTM with MultiRNNCell and dynamic_rnn

  5. 5

    LSTM 노드로 RNN 훈련

  6. 6

    RNN / LSTMセルの解釈

  7. 7

    How to train a RNN with LSTM cells for time series prediction

  8. 8

    RNN / LSTMの非従来型の使用

  9. 9

    RNN with more weights on recent data

  10. 10

    Is it advisable to save the final state from training of an RNN to initialize it during testing?

  11. 11

    LSTMノードを使用したRNNのトレーニング

  12. 12

    LSTM Tensorflowの最終セル状態とRNN出力の違いは?

  13. 13

    Kerasを使用したLSTMとRNNとの闘い

  14. 14

    Keras / TensorFlowでRNN / LSTMの重みを視覚化する方法は?

  15. 15

    tf.contrib.rnn.MultiRNNCellを使用しない多層LSTM

  16. 16

    RNN-LSTM時系列Tensorflow0.12エラー

  17. 17

    ValueError:変数rnn / multi_rnn_cell / cell_0 / basic_lstm_cell / kernelを共有しようとしています

  18. 18

    What dimension is the LSTM model considers the data sequence?

  19. 19

    LSTM autoencoder with Keras data shape issue

  20. 20

    RNN / LSTMの損失はどのように計算されますか?

  21. 21

    RNN:KerasFrameworkのLSTMレイヤーでのreturn_sequencesの使用は何ですか

  22. 22

    RNN / LSTMを非標準のテキストOCRに使用できますか?

  23. 23

    Keras / TensorFlowでRNN / LSTMグラジエントを視覚化する方法は?

  24. 24

    Access data on AML datastore from training script

  25. 25

    Error while training multi dimensional data

  26. 26

    LSTM RNNを使用したトレーニングデータのシャッフル

  27. 27

    時系列予測のためにLSTMセルでRNNをトレーニングする方法

  28. 28

    LSTM RNNを使用したトレーニングデータのシャッフル

  29. 29

    LSTM-RNNトレーニングの時系列サブシーケンスのパディング

ホットタグ

アーカイブ