diff --git a/intermediate_source/dist_tuto.rst b/intermediate_source/dist_tuto.rst index 1686bd914..6e43987b5 100644 --- a/intermediate_source/dist_tuto.rst +++ b/intermediate_source/dist_tuto.rst @@ -113,7 +113,7 @@ PyTorch에 포함된 분산 패키지(예. ``torch.distributed``)는 연구자 위 예제에서 두 프로세스는 값이 0인 Tensor로 시작한 후, 0번 프로세스가 Tensor의 값을 증가시킨 후 1번 프로세스로 보내서 둘 다 1.0으로 종료됩니다. 이 때, 프로세스 1은 -수신한 데이터를 저장할 메모리를 할당해두야 합니다. +수신한 데이터를 저장할 메모리를 할당해두어야 합니다. 또한 ``send``/``recv`` 는 모두 **블로킹** 입니다: 두 프로세스는 통신이 완료될 때까지 멈춰있습니다. 반면에 즉시 응답하는 것이 **논-블로킹** 입니다; 스크립트는 실행을