pytorch

    pytorch에서 num_workers의 역할과 적절한 수

    num_workers는 PyTorch의 DataLoader에서 사용되는 인자로, 이를 지정하면 데이터를 읽고 처리할 때 컬렉션을 병렬적으로 처리할 수 있도록 지원해줍니다. 일반적으로 num_workers는 컴퓨터의 코어 수와 비슷하게 설정하는 것이 좋습니다. 그러나 적절한 값은 실제 사용 상황에 따라 달라질 수 있습니다. 일반적으로는 작은 값을 설정할수록 좋은 성능을 낼 수 있지만, 작은 값을 설정하면 컴퓨터의 자원을 적게 사용하기 때문에 더 많은 작업을 처리할 수 있습니다. 반대로, 큰 값을 설정할수록 성능은 떨어지지만 컴퓨터의 자원을 더 많이 사용할 수 있어 더 많은 작업을 처리할 수 있습니다.

    Pytorch vs Tensorflow 비교

    PyTorch와 TensorFlow는 두 개의 오픈 소스 딥 러닝 프레임워크입니다. 이 두 개의 프레임워크는 사용자가 수학적 모델을 구현하고 학습할 수 있도록 지원합니다. 가장 큰 차이점 중 하나는 PyTorch가 인터페이스가 더 친숙하고 쉽게 사용할 수 있다는 것입니다. PyTorch는 인터페이스가 유연하고 쉽게 사용할 수 있기 때문에 새로운 사용자들에게 적합합니다.. 또한 PyTorch는 선전했던 연구들을 구현하기 위한 고급 기능들을 제공합니다. TensorFlow는 조금 더 진보한 기능을 제공합니다. TensorFlow는 자동 미분, 컴파일된 코드 실행, 장기 실행 상태 유지, 자동 그래프 생성과 같은 기능을 제공합니다. 또한 TensorFlow는 다양한 기기들과 플랫폼들과 연동할 수 있기 때문에 ..

    pytorch Distributed DataParallel 설명 (multi-gpu 하는 법)

    pytorch Distributed DataParallel 설명 (multi-gpu 하는 법)

    from torch.utils.data.distributed import DistributedSampler train_dataset = datasets.ImageFolder(traindir, ...) train_sampler = DistributedSampler(train_dataset) train_loader = torch.utils.data.DataLoader( train_dataset, batch_size=args.batch_size, shuffle=False, num_workers=args.workers, pin_memory=True, sampler=train_sampler) pytorch에서 모델을 학습시킬 때 multi-gpu를 사용하려면 DataParallel이나 DistributedData..