Skip to content
Merged
Changes from all commits
Commits
File filter

Filter by extension

Filter by extension

Conversations
Failed to load comments.
Loading
Jump to
Jump to file
Failed to load files.
Loading
Diff view
Diff view
6 changes: 3 additions & 3 deletions intermediate_source/char_rnn_generation_tutorial.py
Original file line number Diff line number Diff line change
Expand Up @@ -35,7 +35,7 @@
우리는 몇 개의 선형 계층으로 작은 RNN을 직접 만들고 있습니다.
이전 튜토리얼인 이름을 읽은 후 그 언어를 예측하는 것과의 큰 차이점은
언어를 입력하고 한 번에 한 글자를 생성하여 출력하는 것입니다.
언어 형성(단어 또는 다른 고차원 구조로도 수행 될 수 있음)을 위해
언어 형성(단어 또는 다른 고차원 구조로도 수행될 수 있음)을 위해
문자를 반복적으로 예측하는 것을 "언어 모델" 이라고 합니다.

**추천 자료:**
Expand Down Expand Up @@ -128,7 +128,7 @@ def readLines(filename):
# 역자주: 기존 입력과 category tensor를 결합하여 입력으로 사용하기 때문에
# 입력의 사이즈가 n_categories 만큼 커집니다.
#
# 우리는 출력을 다음 문자의 확률로 해석 합니다. 샘플링 할 때,
# 우리는 출력을 다음 문자의 확률로 해석합니다. 샘플링 할 때,
# 가장 확률이 높은 문자가 다음 입력 문자로 사용됩니다.
#
# 더 나은 동작을 위해 두 번째 선형 레이어
Expand Down Expand Up @@ -303,7 +303,7 @@ def timeSince(since):


######################################################################
# 학습은 일상적인 일입니다. - 몇번 train() 을 호출하고, 몇 분 정도
# 학습은 일상적인 일입니다. - 몇 번 train() 을 호출하고, 몇 분 정도
# 기다렸다가 ``print_every`` 마다 현재 시간과 손실을 출력하고,
# 나중에 도식화를 위해 ``plot_every`` 마다 ``all_losses`` 에
# 평균 손실을 저장합니다.
Expand Down