Skip to content
Merged
Changes from all commits
Commits
File filter

Filter by extension

Filter by extension

Conversations
Failed to load comments.
Loading
Jump to
Jump to file
Failed to load files.
Loading
Diff view
Diff view
2 changes: 1 addition & 1 deletion intermediate_source/dist_tuto.rst
Original file line number Diff line number Diff line change
Expand Up @@ -113,7 +113,7 @@ PyTorch에 포함된 분산 패키지(예. ``torch.distributed``)는 연구자

위 예제에서 두 프로세스는 값이 0인 Tensor로 시작한 후, 0번 프로세스가 Tensor의 값을
증가시킨 후 1번 프로세스로 보내서 둘 다 1.0으로 종료됩니다. 이 때, 프로세스 1은
수신한 데이터를 저장할 메모리를 할당해두야 합니다.
수신한 데이터를 저장할 메모리를 할당해두어야 합니다.

또한 ``send``/``recv`` 는 모두 **블로킹** 입니다: 두 프로세스는 통신이 완료될 때까지
멈춰있습니다. 반면에 즉시 응답하는 것이 **논-블로킹** 입니다; 스크립트는 실행을
Expand Down