ddp allocate gpu 0

ma-kjh·2024년 4월 17일
0

all_reduce
all_gather

Just had the same problem and debugged it. You need to put

torch.cuda.set_device(rank)
before dist.init_process_group()
profile
거인의 어깨에 올라서서 더 넓은 세상을 바라보라 - 아이작 뉴턴

0개의 댓글