[PyTorch] Lab-09-1 ReLU

preview_player
Показать описание
#모두를위한딥러닝시즌2 #deeplearningzerotoall #PyTorch
Instructor: 강현우
Рекомендации по теме
Комментарии
Автор

안녕하세요 좋은 강의 감사합니다. 11:02 코드 부분에서 cost.backward() 다음 줄에 optimizer.step()이 빠져있는 것 같습니다. 확인 부탁드립니다. 감사합니다.

정준영-xt
Автор

좋은 강의 감사합니다!
혹시 .to(device)가 뭔지 알려주실 수 있을까요??!

김선인-fp
Автор

좋은 강의 감사합니다. 5:20 activation 설명하는 부분에서
torch.nn.sigmoid, tanh, relu, leaky_relu 는

torch.nn.Sigmoid(x)
torch.nn.Tanh(x)
torch.nn.ReLU(x)
torch.nn.LeakyReLU(x, 0.01)
로 수정되어야 할것 같고요 (대소문자 구분, nn 모듈은 클래스인지라 대문자로 시작)

functional form으로는

torch.nn.functional.tanh(x)
torch.nn.functional.relu(x)

로 쓸 수 있을것 같네요.
감사합니다.

tjoh