프로그래밍/기타

[Pytorch] Variable 에 관하여

흔한티벳여우 2022. 6. 8. 20:54
반응형

 

책이나 예제를 보면 아래와 같이 Variable 처리를 하는 내용이 종종 나온다.

from torch.autograd import Variable
h_0 = Variable(torch.zeros(self.num_layers * 2, x.size(0), self.hidden_size).to(device))

일단 책의 내용은 Variable로 감싸진 텐서는 .backward()가 호출될때 자동으로 기울기가 계산된다라고 설명이 되어있다.

 

그래서 기울기 계산이 안되면 어떤 일이 벌어질까 싶어서 Variable을 제거해 보았고 분명 기울기가 계산이 안되면 문제가 발생해야하는데 결과는 이전과 같았다.

그래서 찾아본 결과가 아래와 같다.

https://pytorch.org/docs/stable/autograd.html#variable-deprecated

 

Automatic differentiation package - torch.autograd — PyTorch 1.11.0 documentation

Automatic differentiation package - torch.autograd torch.autograd provides classes and functions implementing automatic differentiation of arbitrary scalar valued functions. It requires minimal changes to the existing code - you only need to declare Tensor

pytorch.org

보니 deprecated 되었다고 한다. 이미 텐서에 넣으면 default로 기울기 계산이 된다고 한다.

 

 

반응형