PyTorch LSTM在Colab GPU上崩溃(在CPU上工作正常)

您好我有以下LSTM在CPU上运行良好。

import torch

class LSTMForecast(torch.nn.Module):
    """
    A very simple baseline LSTM model that returns
    an output sequence given a multi-dimensional input seq. Inspired by the StackOverflow link below.
    https://stackoverflow.com/questions/56858924/multivariate-input-lstm-in-pytorch
    """
    def __init__(self, seq_length: int, n_time_series: int, output_seq_len=1, hidden_states:int=20, num_layers=2, bias=True, batch_size=100):
        super().__init__()
        self.forecast_history = seq_length
        self.n_time_series = n_time_series
        self.hidden_dim = hidden_states
        self.num_layers = num_layers
        self.lstm = torch.nn.LSTM(n_time_series, hidden_states, num_layers, bias, batch_first=True)
        self.final_layer = torch.nn.Linear(seq_length*hidden_states, output_seq_len)
        self.init_hidden(batch_size)

    def init_hidden(self, batch_size)->None:
        # This is what we'll initialise our hidden state
        self.hidden = (torch.zeros(self.num_layers, batch_size, self.hidden_dim), torch.zeros(self.num_layers, batch_size, self.hidden_dim))

    def forward(self, x: torch.Tensor) -> torch.Tensor:
        batch_size = x.size()[0]
        self.init_hidden(batch_size)
        out_x, self.hidden = self.lstm(x, self.hidden)
        x = self.final_layer(out_x.contiguous().view(batch_size, -1))
        return x

但是,当我尝试在colab GPU上运行时,它崩溃甚至没有错误消息。

   model = LSTMForecast(1, 1, batch_size=1).to('cuda')
   a = torch.rand(1, 1, 1).to('cuda')
   model(a)

日志也没有告诉我任何事情。我真的很茫然。

我必须明确地呼叫CUDA。一旦我做到了,它就会起作用。

def init_hidden(self, batch_size)->None:
    # This is what we'll initialise our hidden state
    self.hidden = (torch.zeros(self.num_layers, batch_size, self.hidden_dim).to('cuda'), torch.zeros(self.num_layers, batch_size, self.hidden_dim).to('cuda'))

本文收集自互联网,转载请注明来源。

如有侵权,请联系[email protected] 删除。

编辑于
0

我来说两句

0条评论
登录后参与评论

相关文章

来自分类常见问题

具有自定义层的PyTorch网络在CPU上工作正常,但移至GPU时会得到cudaErrorIllegalAddress

来自分类Dev

具有自定义层的PyTorch网络在CPU上工作正常,但移至GPU时会得到cudaErrorIllegalAddress

来自分类Dev

Google Colab上的PyTorch Geometric CUDA安装问题

来自分类Dev

Pytorch LSTM 与 LSTMCell

来自分类Dev

用pytorch创建LSTM模型

来自分类Dev

PyTorch LSTM对MSELoss有帮助

来自分类Dev

在Pytorch中测试LSTM的实现

来自分类Dev

OpenCL光线跟踪程序在CPU上工作正常,但在GPU上(始终)不正常

来自分类Dev

Tensorflow示例在colab上工作正常,但在jupyter实验室上运行时给出了nan

来自分类Dev

LSTM培训期间不断损失-PyTorch

来自分类Dev

如何使用PyTorch构建LSTM AutoEncoder?

来自分类Dev

Pytorch设计选择中的LSTM单元实现

来自分类Dev

Pytorch 将 PackSequence 参数传递给 LSTM

来自分类Dev

简单的 Keras LSTM 模型的 PyTorch 版本

来自分类Dev

PyTorch用尽GPU内存

来自分类Dev

如何默认在 GPU 上运行 PyTorch?

来自分类Dev

无法在 GCP 上创建 pytorch cpu 映像

来自分类Dev

从pytorch的torchvision.datasets在Colab中下载“ MINST”

来自分类Dev

Pytorch transforms.RandomRotation()在Google Colab上不起作用

来自分类Dev

如何在Google Colab中每晚升级到pytorch?

来自分类Dev

从pytorch的torchvision.datasets在Colab中下载“ MINST”

来自分类Dev

在PyTorch中对CPU(而非GPU)上的深度模型进行基准测试的最佳实践?

来自分类Dev

为什么很简单PyTorch LSTM模型不学习?

来自分类Dev

使用Pytorch LSTM模块时尺寸不匹配

来自分类Dev

Pytorch中的LSTM:如何添加/更改序列长度尺寸?

来自分类Dev

如何代表PyTorch LSTM 3D张量?

来自分类Dev

加快培训-在PyTorch中使用LSTM进行RNN

来自分类Dev

在PyTorch中指定LSTM层中的单元数

来自分类Dev

pytorch中的LSTM / RNN转发方法与训练模型之间的关系

Related 相关文章

  1. 1

    具有自定义层的PyTorch网络在CPU上工作正常,但移至GPU时会得到cudaErrorIllegalAddress

  2. 2

    具有自定义层的PyTorch网络在CPU上工作正常,但移至GPU时会得到cudaErrorIllegalAddress

  3. 3

    Google Colab上的PyTorch Geometric CUDA安装问题

  4. 4

    Pytorch LSTM 与 LSTMCell

  5. 5

    用pytorch创建LSTM模型

  6. 6

    PyTorch LSTM对MSELoss有帮助

  7. 7

    在Pytorch中测试LSTM的实现

  8. 8

    OpenCL光线跟踪程序在CPU上工作正常,但在GPU上(始终)不正常

  9. 9

    Tensorflow示例在colab上工作正常,但在jupyter实验室上运行时给出了nan

  10. 10

    LSTM培训期间不断损失-PyTorch

  11. 11

    如何使用PyTorch构建LSTM AutoEncoder?

  12. 12

    Pytorch设计选择中的LSTM单元实现

  13. 13

    Pytorch 将 PackSequence 参数传递给 LSTM

  14. 14

    简单的 Keras LSTM 模型的 PyTorch 版本

  15. 15

    PyTorch用尽GPU内存

  16. 16

    如何默认在 GPU 上运行 PyTorch?

  17. 17

    无法在 GCP 上创建 pytorch cpu 映像

  18. 18

    从pytorch的torchvision.datasets在Colab中下载“ MINST”

  19. 19

    Pytorch transforms.RandomRotation()在Google Colab上不起作用

  20. 20

    如何在Google Colab中每晚升级到pytorch?

  21. 21

    从pytorch的torchvision.datasets在Colab中下载“ MINST”

  22. 22

    在PyTorch中对CPU(而非GPU)上的深度模型进行基准测试的最佳实践?

  23. 23

    为什么很简单PyTorch LSTM模型不学习?

  24. 24

    使用Pytorch LSTM模块时尺寸不匹配

  25. 25

    Pytorch中的LSTM:如何添加/更改序列长度尺寸?

  26. 26

    如何代表PyTorch LSTM 3D张量?

  27. 27

    加快培训-在PyTorch中使用LSTM进行RNN

  28. 28

    在PyTorch中指定LSTM层中的单元数

  29. 29

    pytorch中的LSTM / RNN转发方法与训练模型之间的关系

热门标签

归档