Skip to content

Commit

Permalink
docs: ko: fix anchor links for docs (auto_tutorial, training)
Browse files Browse the repository at this point in the history
Co-Authored-By: Hyeonseo Yun <0525_hhgus@naver.com>
Co-Authored-By: Sohyun Sim <96299403+sim-so@users.noreply.github.com>
Co-Authored-By: Na Yeon Han <nayeon2.han@gmail.com>
Co-Authored-By: Wonhyeong Seo <wonhseo@kakao.com>
Co-Authored-By: Jungnerd <46880056+jungnerd@users.noreply.github.com>
  • Loading branch information
6 people committed Apr 16, 2023
1 parent 28f26c1 commit 3694670
Show file tree
Hide file tree
Showing 2 changed files with 21 additions and 21 deletions.
12 changes: 6 additions & 6 deletions docs/source/ko/autoclass_tutorial.mdx
Original file line number Diff line number Diff line change
Expand Up @@ -10,7 +10,7 @@ an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express o
specific language governing permissions and limitations under the License.
-->

# AutoClass로 사전 학습된 인스턴스 로드[[Load pretrained instances with an AutoClass]]
# AutoClass로 사전 학습된 인스턴스 로드[[load-pretrained-instances-with-an-autoclass]]

트랜스포머 아키텍처가 매우 다양하기 때문에 체크포인트에 맞는 아키텍처를 생성하는 것이 어려울 있습니다. 라이브러리를 쉽고 간단하며 유연하게 사용하기 위한 Transformer 핵심 철학의 일환으로, `AutoClass`는 주어진 체크포인트에서 올바른 아키텍처를 자동으로 추론하여 로드합니다. `from_pretrained()` 메서드를 사용하면 모든 아키텍처에 대해 사전 학습된 모델을 빠르게 로드할 있으므로 모델을 처음부터 학습하는 시간과 리소스를 투입할 필요가 없습니다.
체크포인트에 구애받지 않는 코드를 생성한다는 것은 코드가 체크포인트에서 작동하면 아키텍처가 다르더라도 다른 체크포인트(유사한 작업에 대해 학습된 경우)에서도 작동한다는 것을 의미합니다.
Expand All @@ -29,7 +29,7 @@ specific language governing permissions and limitations under the License.
* 사전 훈련된 프로세서 로드하기.
* 사전 학습된 모델 로드하기.

## AutoTokenizer
## AutoTokenizer[[autotokenizer]]

거의 모든 NLP 작업은 토크나이저로 시작됩니다. 토크나이저는 사용자의 입력을 모델에서 처리할 있는 형식으로 변환합니다.
[`AutoTokenizer.from_pretrained`]로 토크나이저를 로드합니다:
Expand All @@ -50,7 +50,7 @@ specific language governing permissions and limitations under the License.
'attention_mask': [1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1]}
```

## AutoImageProcessor
## AutoImageProcessor[[autoimageprocessor]]

비전 작업의 경우 이미지 프로세서가 이미지를 올바른 입력 형식으로 처리합니다.

Expand All @@ -61,7 +61,7 @@ specific language governing permissions and limitations under the License.
```


## AutoFeatureExtractor
## AutoFeatureExtractor[[autofeatureextractor]]

오디오 작업의 경우 특징 추출기가 오디오 신호를 올바른 입력 형식으로 처리합니다.

Expand All @@ -75,7 +75,7 @@ specific language governing permissions and limitations under the License.
... )
```

## AutoProcessor
## AutoProcessor[[autoprocessor]]

멀티모달 작업에는 두 가지 유형의 전처리 도구를 결합한 프로세서가 필요합니다. 예를 들어 LayoutLMV2 모델에는 이미지를 처리하는 이미지 프로세서와 텍스트를 처리하는 토크나이저가 필요하며, 프로세서는 이 두 가지를 결합합니다.

Expand All @@ -87,7 +87,7 @@ specific language governing permissions and limitations under the License.
>>> processor = AutoProcessor.from_pretrained("microsoft/layoutlmv2-base-uncased")
```

## AutoModel
## AutoModel[[automodel]]

<frameworkcontent>
<pt>
Expand Down
30 changes: 15 additions & 15 deletions docs/source/ko/training.mdx
Original file line number Diff line number Diff line change
Expand Up @@ -10,7 +10,7 @@ an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express o
specific language governing permissions and limitations under the License.
-->

# 사전 학습된 모델 미세 튜닝하기[[Fine-tune a pretrained model]]
# 사전 학습된 모델 미세 튜닝하기[[finetune-a-pretrained-model]]

[[open-in-colab]]

Expand All @@ -22,7 +22,7 @@ specific language governing permissions and limitations under the License.

<a id='data-processing'></a>

## 데이터셋 준비[[Prepare a dataset]]
## 데이터셋 준비[[prepare-a-dataset]]

<Youtube id="_BZearw7f0w"/>

Expand Down Expand Up @@ -71,7 +71,7 @@ specific language governing permissions and limitations under the License.
<pt>
<Youtube id="nvBXf7s7vTI"/>

## 파이토치 Trainer로 훈련하기[[Train with PyTorch Trainer]]
## 파이토치 Trainer로 훈련하기[[train-with-pytorch-trainer]]

🤗 Transformers는 🤗 Transformers 모델 훈련에 최적화된 [`Trainer`] 클래스를 제공하여 훈련 루프를 직접 작성하지 않고도 쉽게 훈련을 시작할 수 있습니다. [`Trainer`] API는 로깅(logging), 경사 누적(gradient accumulation), 혼합 정밀도(mixed precision) 등 다양한 훈련 옵션과 기능을 지원합니다.

Expand All @@ -90,7 +90,7 @@ specific language governing permissions and limitations under the License.

</Tip>

### 하이퍼파라미터 훈련[[Training hyperparameters]]
### 하이퍼파라미터 훈련[[training-hyperparameters]]

다음으로 정할 수 있는 모든 하이퍼파라미터와 다양한 훈련 옵션을 활성화하기 위한 플래그를 포함하는 [`TrainingArguments`] 클래스를 생성합니다.

Expand All @@ -104,7 +104,7 @@ specific language governing permissions and limitations under the License.
>>> training_args = TrainingArguments(output_dir="test_trainer")
```

### Evaluate
### 평가 하기[[evaluate]]

[`Trainer`]는 훈련 중에 모델 성능을 자동으로 평가하지 않습니다. 평가 지표를 계산하고 보고할 함수를 [`Trainer`]에 전달해야 합니다.
[🤗 Evaluate](https://huggingface.co/docs/evaluate/index) 라이브러리는 [`evaluate.load`](https://huggingface.co/spaces/evaluate-metric/accuracy) 함수로 로드할 수 있는 간단한 [`accuracy`]함수를 제공합니다 (자세한 내용은 [둘러보기](https://huggingface.co/docs/evaluate/a_quick_tour)를 참조하세요):
Expand Down Expand Up @@ -133,7 +133,7 @@ specific language governing permissions and limitations under the License.
>>> training_args = TrainingArguments(output_dir="test_trainer", evaluation_strategy="epoch")
```

### Trainer
### 훈련 하기[[trainer]]

모델, 훈련 인수, 훈련 및 테스트 데이터셋, 평가 함수가 포함된 [`Trainer`] 객체를 만듭니다:

Expand All @@ -158,11 +158,11 @@ specific language governing permissions and limitations under the License.

<Youtube id="rnTGBy2ax1c"/>

## Keras로 텐서플로우 모델 훈련하기[[Train a TensorFlow model with Keras]]
## Keras로 텐서플로우 모델 훈련하기[[train-a-tensorflow-model-with-keras]]

Keras API를 사용하여 텐서플로우에서 🤗 Transformers 모델을 훈련할 수도 있습니다!

### Keras용 데이터 로드[[Loading data for Keras]]
### Keras용 데이터 로드[[loading-data-for-keras]]

Keras API로 🤗 Transformers 모델을 학습시키려면 데이터셋을 Keras가 이해할 수 있는 형식으로 변환해야 합니다.
데이터 세트가 작은 경우, 전체를 NumPy 배열로 변환하여 Keras로 전달하면 됩니다.
Expand Down Expand Up @@ -217,7 +217,7 @@ model.fit(tokenized_data, labels)
토큰화된 배열과 레이블을 메모리에 완전히 로드하고 NumPy는 "들쭉날쭉한" 배열을 처리하지 않기 때문에,
모든 토큰화된 샘플을 전체 데이터셋에서 가장 긴 샘플의 길이만큼 패딩해야 합니다. 이렇게 하면 배열이 훨씬 더 커지고 이 패딩 토큰으로 인해 학습 속도도 느려집니다!

### 데이터를 tf.data.Dataset으로 로드하기[[Loading data as a tf.data.Dataset]]
### 데이터를 tf.data.Dataset으로 로드하기[[loading-data-as-a-tfdatadataset]]

학습 속도가 느려지는 것을 피하려면 데이터를 `tf.data.Dataset`으로 로드할 수 있습니다. 원한다면 직접
`tf.data` 파이프라인을 직접 작성할 수도 있지만, 이 작업을 간편하게 수행하는 수 있는 두 가지 방법이 있습니다:
Expand Down Expand Up @@ -266,7 +266,7 @@ model.fit(tf_dataset)

<a id='pytorch_native'></a>

## 기본 파이토치로 훈련하기[[Train in native PyTorch]]
## 기본 파이토치로 훈련하기[[train-in-native-pytorch]]

<frameworkcontent>
<pt>
Expand Down Expand Up @@ -309,7 +309,7 @@ torch.cuda.empty_cache()
>>> small_eval_dataset = tokenized_datasets["test"].shuffle(seed=42).select(range(1000))
```

### DataLoader[[DataLoader]]
### DataLoader[[dataloader]]

훈련 및 테스트 데이터셋에 대한 'DataLoader'를 생성하여 데이터 배치를 반복할 수 있습니다:

Expand All @@ -328,7 +328,7 @@ torch.cuda.empty_cache()
>>> model = AutoModelForSequenceClassification.from_pretrained("bert-base-cased", num_labels=5)
```

### 옵티마이저 및 학습 속도 스케줄러[[Optimizer and learning rate scheduler]]
### 옵티마이저 및 학습 속도 스케줄러[[optimizer-and-learning-rate-scheduler]]

옵티마이저와 학습 속도 스케줄러를 생성하여 모델을 미세 조정합니다. 파이토치에서 제공하는 [`AdamW`](https://pytorch.org/docs/stable/generated/torch.optim.AdamW.html) 옵티마이저를 사용해 보겠습니다:

Expand Down Expand Up @@ -367,7 +367,7 @@ torch.cuda.empty_cache()

이제 훈련할 준비가 되었습니다! 🥳

### 훈련 루프[[Training loop]]
### 훈련 루프[[training-loop]]

훈련 진행 상황을 추적하려면 [tqdm](https://tqdm.github.io/) 라이브러리를 사용하여 트레이닝 단계 수에 진행률 표시줄을 추가하세요:

Expand All @@ -390,7 +390,7 @@ torch.cuda.empty_cache()
... progress_bar.update(1)
```

### 평가하기[[Evaluate]]
### 평가 하기[[evaluate]]

[`Trainer`]에 평가 함수를 추가한 방법과 마찬가지로, 훈련 루프를 직접 작성할 때도 동일한 작업을 수행해야 합니다. 하지만 이번에는 각 에포크가 끝날 때마다 평가지표를 계산하여 보고하는 대신, [`~evaluate.add_batch`]를 사용하여 모든 배치를 누적하고 맨 마지막에 평가지표를 계산합니다.

Expand All @@ -415,7 +415,7 @@ torch.cuda.empty_cache()

<a id='additional-resources'></a>

## 추가 자료[[Additional resources]]
## 추가 자료[[additional-resources]]

더 많은 미세 튜닝 예제는 다음을 참조하세요:

Expand Down

0 comments on commit 3694670

Please sign in to comment.