책이나 예제를 보면 아래와 같이 Variable 처리를 하는 내용이 종종 나온다. from torch.autograd import Variable h_0 = Variable(torch.zeros(self.num_layers * 2, x.size(0), self.hidden_size).to(device)) 일단 책의 내용은 Variable로 감싸진 텐서는 .backward()가 호출될때 자동으로 기울기가 계산된다라고 설명이 되어있다. 그래서 기울기 계산이 안되면 어떤 일이 벌어질까 싶어서 Variable을 제거해 보았고 분명 기울기가 계산이 안되면 문제가 발생해야하는데 결과는 이전과 같았다. 그래서 찾아본 결과가 아래와 같다. https://pytorch.org/docs/stable/autograd.htm..