# distributed
총 4개의 포스트
[Pytorch] 분산학습(V2) DP, DDP 개념 정리
💡 DataParallel(DP)은 Pytorch 에서 제공하는 가장 기본적인 방법이지만, GPU 메모리 불균형이 발생하는 문제점이 있음. Custom DataParallel은 GPU 메모리 불균형 문제를 어느 정도 해소해주지만, GPU util이 낮다는 문제가 여
2022년 11월 25일
·
0개의 댓글·
0[Pytorch] 분산학습(V1) 비교 실험 - DDP, DP
CUDA 11.1Pytorch : 1.8.1 CU11.1GPU : A10OS : Linux 18.04Model : AlexNet, ResNet20Data : CIFAR10Training Method : DP(DataParallel), DDP(DataDistributed
2022년 11월 25일
·
0개의 댓글·
0
Saga패턴을 이용한 분산 트랜잭션 제어(결제 프로세스 실습)
이번 포스팅은 MSA에서 분산 트랜잭션을 제어하는 방법 중 하나인 Saga Pattern을 활용해서 분산 서버에서 간단한 결제 프로세스를 구현해봅니다.
2022년 8월 15일
·
0개의 댓글·
3
SAGA pattern을 이용한 분산 트랜잭션 구현하기
spring boot와 axon framework 환경에서 SAGA pattern을 활용해 분산 트랜잭션을 구현해보는 실습 코드입니다.모든 아키텍쳐가 그러하듯 MSA에서도 단점과 한계들이 존재하는데, 그 중 하나는 일련의 db access 작업에 대해 atomicity
2020년 7월 3일
·
1개의 댓글·
6