Skip to content

Commit 5069b64

Browse files
authored
문서 오타 수정 (#630 #634 #635)
1 parent 319e6e1 commit 5069b64

File tree

3 files changed

+3
-3
lines changed

3 files changed

+3
-3
lines changed

beginner_source/former_torchies/parallelism_tutorial.py

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -45,7 +45,7 @@ def forward(self, x):
4545
# **래핑된 모듈의 속성**
4646
#
4747
# 모듈을 ``DataParallel`` 로 감싼 후에는 모듈의 속성(예. 사용자 정의 메소드)에
48-
# 접근할 수 없게 됩니다. 이는 ``DataParallel`` 이 몇몇 새로운 멤버를 정의하기 떄문에
48+
# 접근할 수 없게 됩니다. 이는 ``DataParallel`` 이 몇몇 새로운 멤버를 정의하기 때문에
4949
# 다른 속성에 접근을 허용하는 것이 충돌을 일으킬 수도 있기 때문입니다.
5050
# 그래도 속성에 접근하고자 한다면 아래와 같이 ``DataParallel`` 의 서브클래스를
5151
# 사용하는 것이 좋습니다.

beginner_source/nlp/word_embeddings_tutorial.py

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -245,7 +245,7 @@ def forward(self, inputs):
245245
# tensor.item()을 호출하여 단일원소 텐서에서 숫자를 반환받습니다.
246246
total_loss += loss.item()
247247
losses.append(total_loss)
248-
print(losses) # 반복할 떄마다 손실이 줄어드는 것을 봅시다!
248+
print(losses) # 반복할 때마다 손실이 줄어드는 것을 봅시다!
249249

250250
# "beauty"와 같이 특정 단어에 대한 임베딩을 확인하려면,
251251
print(model.embeddings.weight[word_to_ix["beauty"]])

intermediate_source/model_parallel_tutorial.py

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -209,7 +209,7 @@ def plot(means, stds, labels, fig_name):
209209
# :alt:
210210
#
211211

212-
# 실험 결과, 모델 병렬 철리하여 학습하는 시간이 단일 GPU로 학습하는 시간보다 약 7% ``4.02/3.75-1=7%``정도
212+
# 실험 결과, 모델 병렬 처리하여 학습하는 시간이 단일 GPU로 학습하는 시간보다 약 7% ``4.02/3.75-1=7%``정도
213213
# 오래 걸리는 것을 확인할 수 있습니다. 그러므로, 순전파와 역전파를 진행하면서 GPU 간 텐서값들이
214214
# 복제되어 이용하는 시간이 약 7%정도 소요되는 것으로 결론지을 수 있습니다. 학습하는 과정 속에서
215215
# 2개의 GPU 중 1개의 GPU가 계산하지 않고 대기하고 있기 때문에, 이를 해결하여

0 commit comments

Comments
 (0)