From d919694779114e28e4f478633839009dfc00fa26 Mon Sep 17 00:00:00 2001 From: stella-oh Date: Thu, 28 Jul 2022 14:56:42 +0900 Subject: [PATCH] Update char_rnn_generation_tutorial.py --- intermediate_source/char_rnn_generation_tutorial.py | 6 +++--- 1 file changed, 3 insertions(+), 3 deletions(-) diff --git a/intermediate_source/char_rnn_generation_tutorial.py b/intermediate_source/char_rnn_generation_tutorial.py index 02cb866e8..fff80b17a 100644 --- a/intermediate_source/char_rnn_generation_tutorial.py +++ b/intermediate_source/char_rnn_generation_tutorial.py @@ -35,7 +35,7 @@ 우리는 몇 개의 선형 계층으로 작은 RNN을 직접 만들고 있습니다. 이전 튜토리얼인 이름을 읽은 후 그 언어를 예측하는 것과의 큰 차이점은 언어를 입력하고 한 번에 한 글자를 생성하여 출력하는 것입니다. -언어 형성(단어 또는 다른 고차원 구조로도 수행 될 수 있음)을 위해 +언어 형성(단어 또는 다른 고차원 구조로도 수행될 수 있음)을 위해 문자를 반복적으로 예측하는 것을 "언어 모델" 이라고 합니다. **추천 자료:** @@ -128,7 +128,7 @@ def readLines(filename): # 역자주: 기존 입력과 category tensor를 결합하여 입력으로 사용하기 때문에 # 입력의 사이즈가 n_categories 만큼 커집니다. # -# 우리는 출력을 다음 문자의 확률로 해석 합니다. 샘플링 할 때, +# 우리는 출력을 다음 문자의 확률로 해석합니다. 샘플링 할 때, # 가장 확률이 높은 문자가 다음 입력 문자로 사용됩니다. # # 더 나은 동작을 위해 두 번째 선형 레이어 @@ -303,7 +303,7 @@ def timeSince(since): ###################################################################### -# 학습은 일상적인 일입니다. - 몇번 train() 을 호출하고, 몇 분 정도 +# 학습은 일상적인 일입니다. - 몇 번 train() 을 호출하고, 몇 분 정도 # 기다렸다가 ``print_every`` 마다 현재 시간과 손실을 출력하고, # 나중에 도식화를 위해 ``plot_every`` 마다 ``all_losses`` 에 # 평균 손실을 저장합니다.