Search

Pytorch 분산학습 코드를 짜보자: Distributed Training

GPU를 여러개 사용한다면, 분산학습은 피할 수 없는 숙명이다.
이를 위해 다음 모듈들을 적용하여 코드를 짜야한다.
DataParallel
Custom DataParallel
Distributed DataParallel
Nvidia Apex
이에 대해 명쾌하게 설명한 포스트가 있어 남겨놓는다.