Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

🌐 [i18n-KO] Translated peft.md to Korean #25706

Merged
merged 5 commits into from
Aug 29, 2023

Conversation

nuatmochoi
Copy link
Contributor

@nuatmochoi nuatmochoi commented Aug 24, 2023

What does this PR do?

Translated the peft.md file of the documentation to Korean.
Thank you in advance for your review.

Part of #20179

Before reviewing

  • Check for missing / redundant translations (번역 누락/중복 검사)
  • Grammar Check (맞춤법 검사)
  • Review or Add new terms to glossary (용어 확인 및 추가)
  • Check Inline TOC (e.g. [[lowercased-header]])
  • Check live-preview for gotchas (live-preview로 정상작동 확인)

Who can review? (Initial)

Team OSSCA, may you please review this PR? @bolizabeth, @nuatmochoi, @heuristicwave, @mjk0618, @keonju2, @harheem, @HongB1, @junejae, @54data, @Sunmin0520, @seank021, @augustinLib, @sronger, @TaeYupNoh, @kj021, @eenzeenee

Before submitting

  • This PR fixes a typo or improves the docs (you can dismiss the other checks if that's the case).
  • Did you read the contributor guideline,
    Pull Request section?
  • Was this discussed/approved via a Github issue or the forum? Please add a link
    to it if that's the case.
  • Did you make sure to update the documentation with your changes? Here are the
    documentation guidelines, and
    here are tips on formatting docstrings.
  • Did you write any new necessary tests?

Who can review? (Final)

May you please review this PR? @sgugger, @ArthurZucker, @eunseojo

Copy link
Member

@stevhliu stevhliu left a comment

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Super cool, thanks for translating this relatively new doc!

docs/source/ko/peft.md Outdated Show resolved Hide resolved
docs/source/ko/peft.md Outdated Show resolved Hide resolved
@HuggingFaceDocBuilderDev

The docs for this PR live here. All of your documentation changes will be reflected on that endpoint.

Copy link
Contributor

@heuristicwave heuristicwave left a comment

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

@nuatmochoi 리뷰 완료했습니다~ 덕분에 PEFT도 공부할 수 있었네요 🤗

docs/source/ko/peft.md Outdated Show resolved Hide resolved
docs/source/ko/peft.md Outdated Show resolved Hide resolved
docs/source/ko/peft.md Outdated Show resolved Hide resolved
docs/source/ko/peft.md Outdated Show resolved Hide resolved
docs/source/ko/peft.md Outdated Show resolved Hide resolved
docs/source/ko/peft.md Outdated Show resolved Hide resolved
docs/source/ko/peft.md Outdated Show resolved Hide resolved
docs/source/ko/peft.md Outdated Show resolved Hide resolved
Copy link
Contributor

@wonhyeongseo wonhyeongseo left a comment

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

안녕하세요!

🔥 번역에 참여해주신 모든 분들께 정말 감사드립니다. 이렇게 최신 문서를 번역하시다니 100% 고지가 머지않아 보입니다. 훌륭하시며 다음 Hub 스프린트 때에도 활약 기대하겠습니다, 성우님!

리뷰는 일방적인 수용이 아닌 서로간의 대화를 전제로 이루어집니다. 때문에 "어라, 이건 내가 맞아!"라고 주장해주시면 오히려 더 재밌는 리뷰 시간이 될 것입니다. 지금까지 최고의 리뷰를 꾸준히 올려주시는 @heuristicwave 님 🥈 , @sim-so 님 🥉 도 모두 리뷰 자유롭게 올려주세요. 감사합니다. 💯 😆


Adapters trained with PEFT are also usually an order of magnitude smaller than the full model, making it convenient to share, store, and load them.
PEFT로 훈련된 어댑터는 전체 모델 크기보다 일반적으로 한 순서 작으므로 공유, 저장 및 가져오기 편리합니다.
Copy link
Contributor

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Suggested change
PEFT로 훈련된 어댑터는 전체 모델 크기보다 일반적으로 한 순서 작으므로 공유, 저장 가져오기 편리합니다.
PEFT로 훈련된 어댑터는 기존 모델의 전체보다 일반적으로 작으므로 공유, 저장 또는 가져오기 편리합니다.

docs/source/ko/peft.md Outdated Show resolved Hide resolved

[Parameter-Efficient Fine Tuning (PEFT)](https://huggingface.co/blog/peft) methods freeze the pretrained model parameters during fine-tuning and add a small number of trainable parameters (the adapters) on top of it. The adapters are trained to learn task-specific information. This approach has been shown to be very memory-efficient with lower compute usage while producing results comparable to a fully fine-tuned model.
[Parameter-Efficient Fine Tuning (PEFT)](https://huggingface.co/blog/peft) 방법은 사전 훈련된 모델 매개변수를 미세 조정하는 동안 모델 매개변수를 고정하고 그 위에 훈련 가능한 매우 적은 수의 매개변수(어댑터)를 추가합니다. 어댑터는 작업별 정보를 학습하도록 훈련됩니다. 이 접근 방식은 전체로 사전 훈련된 모델과 비교 가능한 결과를 생성하면서 메모리 효율적이며 더 낮은 컴퓨팅 리소스를 사용한다는 것이 입증되었습니다.
Copy link
Contributor

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Suggested change
[Parameter-Efficient Fine Tuning (PEFT)](https://huggingface.co/blog/peft) 방법은 사전 훈련된 모델 매개변수를 미세 조정하는 동안 모델 매개변수를 고정하고 그 위에 훈련 가능한 매우 적은 수의 매개변수(어댑터)를 추가합니다. 어댑터는 작업별 정보를 학습하도록 훈련됩니다. 이 접근 방식은 전체로 사전 훈련된 모델과 비교 가능한 결과를 생성하면서 메모리 효율적이며 더 낮은 컴퓨팅 리소스를 사용한다는 것이 입증되었습니다.
[Parameter-Efficient Fine Tuning (PEFT)](https://huggingface.co/blog/peft) 방법은 사전 훈련된 모델의 매개변수를 미세 조정 중 고정시키고, 그 위에 훈련할 수 있는 매우 적은 수의 매개변수(어댑터)를 추가합니다. 어댑터는 작업별 정보를 학습하도록 훈련됩니다. 이 접근 방식은 전체로 사전 훈련된 모델 대비 준수한 결과를 생성하면서, 메모리 효율적이고 비교적 적은 컴퓨팅 리소스를 사용합니다.


<div class="flex flex-col justify-center">
<img src="https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/peft/PEFT-hub-screenshot.png"/>
<figcaption class="text-center">The adapter weights for a OPTForCausalLM model stored on the Hub are only ~6MB compared to the full size of the model weights, which can be ~700MB.</figcaption>
<figcaption class="text-center">Hub에 저장된 OPTForCausalLM 모델의 어댑터 가중치는 전체 모델 가중치 크기인 ~700MB 대비 약 6MB입니다.</figcaption>
Copy link
Contributor

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Suggested change
<figcaption class="text-center">Hub에 저장된 OPTForCausalLM 모델의 어댑터 가중치는 전체 모델 가중치 크기인 ~700MB 대비 약 6MB입니다.</figcaption>
<figcaption class="text-center">Hub에 저장된 OPTForCausalLM 모델의 어댑터 가중치는 약 6MB로, 전체 모델 가중치 크기인 ~700MB 대비 미미합니다.</figcaption>


```bash
pip install peft
```

If you want to try out the brand new features, you might be interested in installing the library from source:
새로운 기능을 시도할 때 라이브러리를 소스로부터 설치하는 데 관심이 있을 수 있습니다:
Copy link
Contributor

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Suggested change
새로운 기능을 시도할 때 라이브러리를 소스로부터 설치하는 데 관심이 있을 수 있습니다:
새로운 기능을 앞서서 시험해보고 싶다면, 라이브러리를 소스코드에서 직접 설치할 수도 있습니다:

Comment on lines 54 to 57
🤗 Transformers에서 PEFT 어댑터 모델을 가져오고 사용하려면 Hub 저장소나 로컬 디렉터리에 `adapter_config.json` 파일과 어댑터 가중치가 포함되어 있는지 확인하십시오. 그런 다음 `AutoModelFor` 클래스를 사용하여 PEFT 어댑터 모델을 가져올 수 있습니다. 예를 들어 인과 관계 언어 모델용 PEFT 어댑터 모델을 가져오려면 다음 단계를 따르십시오:

1. specify the PEFT model id
2. pass it to the [`AutoModelForCausalLM`] class
1. PEFT 모델 ID를 지정하십시오.
2. [`AutoModelForCausalLM`] 클래스에 전달하십시오.
Copy link
Contributor

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Suggested change
🤗 Transformers에서 PEFT 어댑터 모델을 가져오고 사용하려면 Hub 저장소나 로컬 디렉터리에 `adapter_config.json` 파일과 어댑터 가중치가 포함되어 있는지 확인하십시오. 그런 다음 `AutoModelFor` 클래스를 사용하여 PEFT 어댑터 모델을 가져올 수 있습니다. 예를 들어 인과 관계 언어 모델용 PEFT 어댑터 모델을 가져오려면 다음 단계를 따르십시오:
1. specify the PEFT model id
2. pass it to the [`AutoModelForCausalLM`] class
1. PEFT 모델 ID를 지정하십시오.
2. [`AutoModelForCausalLM`] 클래스에 전달하십시오.
🤗 Transformers에서 PEFT 어댑터 모델을 가져오고 사용하려면, Hub 저장소나 로컬 디렉터리에 `adapter_config.json` 파일과 어댑터 가중치가 아래 사진처럼 있는지 확인하세요. 그렇다면 `AutoModelFor` 클래스로 PEFT 어댑터 모델을 가져올 수 있습니다. 예를 들어 인과적 언어 모델링용 PEFT 어댑터 모델을 가져오려면:
1. PEFT 모델 ID를 지정하세요.
2. [`AutoModelForCausalLM`] 클래스에 전달하세요.

docs/source/ko/peft.md Outdated Show resolved Hide resolved

You can use [`~peft.PeftModel.add_adapter`] to add a new adapter to a model with an existing adapter as long as the new adapter is the same type as the current one. For example, if you have an existing LoRA adapter attached to a model:
기존 어댑터가 있는 모델에 새 어댑터를 추가하려면 [`~peft.PeftModel.add_adapter`]를 사용할 수 있습니다. 새 어댑터가 현재 어댑터와 동일한 유형이면 추가할 수 있습니다. 예를 들어 모델에 연결된 기존 LoRA 어댑터가 있는 경우:
Copy link
Contributor

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Suggested change
기존 어댑터가 있는 모델에 새 어댑터를 추가하려면 [`~peft.PeftModel.add_adapter`]사용할 수 있습니다. 새 어댑터가 현재 어댑터와 동일한 유형이면 추가할 수 있습니다. 예를 들어 모델에 연결된 기존 LoRA 어댑터가 있는 경우:
기존 어댑터가 있는 모델에 새 어댑터를 추가하려면 [`~peft.PeftModel.add_adapter`]사용하세요. 새 어댑터가 현재 어댑터와 동일한 유형이면 추가할 수 있습니다. 예를 들어 모델에 연결된 기존 LoRA 어댑터가 있는 경우:

docs/source/ko/peft.md Outdated Show resolved Hide resolved
Comment on lines 211 to 216
<!--
TODO: (@younesbelkada @stevhliu)
- Link to PEFT docs for further details
- Trainer
- 8-bit / 4-bit examples ?
-->
- PEFT 문서에 대한 링크
- Trainer
- 8비트 / 4비트 예제?
-->
Copy link
Contributor

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Suggested change
<!--
TODO: (@younesbelkada @stevhliu)
- Link to PEFT docs for further details
- Trainer
- 8-bit / 4-bit examples ?
-->
- PEFT 문서에 대한 링크
- Trainer
- 8비트 / 4비트 예제?
-->

Co-authored-by: Wonhyeong Seo <wonhseo@kakao.com>
Co-authored-by: Steven Liu <59462357+stevhliu@users.noreply.github.com>
Co-authored-by: heuristicwave <31366038+heuristicwave@users.noreply.github.com>
@wonhyeongseo
Copy link
Contributor

LGTM! 👍

Copy link
Contributor

@sim-so sim-so left a comment

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

앞서 좋은 리뷰를 많이 해주셔서 새로 리뷰할 부분이 없네요!
좋은 문서를 읽을 수 있어서 좋았습니다. 고생 많으셨습니다 😄

docs/source/ko/peft.md Outdated Show resolved Hide resolved
Co-authored-by: Sohyun Sim <96299403+sim-so@users.noreply.github.com>
@nuatmochoi nuatmochoi marked this pull request as ready for review August 28, 2023 13:14
Copy link
Member

@stevhliu stevhliu left a comment

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Looks great, thanks! 🤗

@stevhliu stevhliu merged commit 173fa7d into huggingface:main Aug 29, 2023
parambharat pushed a commit to parambharat/transformers that referenced this pull request Sep 26, 2023
* docs: ko: peft.mdx

* feat: chatgpt draft

* fix: manual edits

* fix: resolve suggestions

Co-authored-by: Wonhyeong Seo <wonhseo@kakao.com>
Co-authored-by: Steven Liu <59462357+stevhliu@users.noreply.github.com>
Co-authored-by: heuristicwave <31366038+heuristicwave@users.noreply.github.com>

* fix: resolve suggestions

Co-authored-by: Sohyun Sim <96299403+sim-so@users.noreply.github.com>

---------

Co-authored-by: Wonhyeong Seo <wonhseo@kakao.com>
Co-authored-by: Steven Liu <59462357+stevhliu@users.noreply.github.com>
Co-authored-by: heuristicwave <31366038+heuristicwave@users.noreply.github.com>
Co-authored-by: Sohyun Sim <96299403+sim-so@users.noreply.github.com>
blbadger pushed a commit to blbadger/transformers that referenced this pull request Nov 8, 2023
* docs: ko: peft.mdx

* feat: chatgpt draft

* fix: manual edits

* fix: resolve suggestions

Co-authored-by: Wonhyeong Seo <wonhseo@kakao.com>
Co-authored-by: Steven Liu <59462357+stevhliu@users.noreply.github.com>
Co-authored-by: heuristicwave <31366038+heuristicwave@users.noreply.github.com>

* fix: resolve suggestions

Co-authored-by: Sohyun Sim <96299403+sim-so@users.noreply.github.com>

---------

Co-authored-by: Wonhyeong Seo <wonhseo@kakao.com>
Co-authored-by: Steven Liu <59462357+stevhliu@users.noreply.github.com>
Co-authored-by: heuristicwave <31366038+heuristicwave@users.noreply.github.com>
Co-authored-by: Sohyun Sim <96299403+sim-so@users.noreply.github.com>
EduardoPach pushed a commit to EduardoPach/transformers that referenced this pull request Nov 18, 2023
* docs: ko: peft.mdx

* feat: chatgpt draft

* fix: manual edits

* fix: resolve suggestions

Co-authored-by: Wonhyeong Seo <wonhseo@kakao.com>
Co-authored-by: Steven Liu <59462357+stevhliu@users.noreply.github.com>
Co-authored-by: heuristicwave <31366038+heuristicwave@users.noreply.github.com>

* fix: resolve suggestions

Co-authored-by: Sohyun Sim <96299403+sim-so@users.noreply.github.com>

---------

Co-authored-by: Wonhyeong Seo <wonhseo@kakao.com>
Co-authored-by: Steven Liu <59462357+stevhliu@users.noreply.github.com>
Co-authored-by: heuristicwave <31366038+heuristicwave@users.noreply.github.com>
Co-authored-by: Sohyun Sim <96299403+sim-so@users.noreply.github.com>
Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

Successfully merging this pull request may close these issues.

6 participants