From 72c1f0453ecf2f22b7f439a5274fbcdacc8e35a5 Mon Sep 17 00:00:00 2001 From: iLeGend <824040212@qq.com> Date: Wed, 22 Mar 2023 23:44:18 +0800 Subject: [PATCH 1/2] docs(zh-cn): Reviewed Chapter 7/1 --- chapters/zh-CN/chapter7/1.mdx | 16 ++++++++-------- 1 file changed, 8 insertions(+), 8 deletions(-) diff --git a/chapters/zh-CN/chapter7/1.mdx b/chapters/zh-CN/chapter7/1.mdx index c42dda3c3..2fffe5817 100644 --- a/chapters/zh-CN/chapter7/1.mdx +++ b/chapters/zh-CN/chapter7/1.mdx @@ -2,24 +2,24 @@ # 章节简介 [[章节简介]] -在[第三章](/course/chapter3),您了解了如何微调文本分类的模型。在本章中,我们将处理以下常见NLP任务: +在[第三章](/course/chapter3),您了解了如何微调文本分类的模型。在本章中,我们将处理以下常见 NLP 任务: -- 标记(token)分类 -- 遮罩语言建模(如BERT) -- 提取文本摘要 +- 词元(token)分类 +- 掩码语言建模(如 BERT) +- 文本摘要 - 翻译 -- 因果语言建模预训练(如GPT-2) +- 因果语言建模预训练(如 GPT-2) - 问答 {#if fw === 'pt'} -为此,您需要利用[第三章](/course/chapter3)中学到的`Trainer` API 和🤗Accelerate 库、[第五章](/course/chapter5)中的 🤗 Datasets 库以及[第六章](/course/chapter6)中的 🤗 Tokenizers 库的所有知识。我们还会将结果上传到模型中心,就像我们在[第四章](/course/chapter4)中所做的那样,所以这确实是将之前所有内容汇集在一起的章节! +为此,您需要利用[第三章](/course/chapter3)中学到的 `Trainer` API 和 🤗 Accelerate 库、[第五章](/course/chapter5)中的 🤗 Datasets 库以及[第六章](/course/chapter6)中的 🤗 Tokenizers 库的所有知识。我们同样会将结果上传到模型中心,就像我们在[第四章](/course/chapter4)中所做的那样,所以这确实是融会贯通的一章! -每个部分都可以独立阅读,并将向您展示如何使用API或按照您自己的训练循环训练模型,使用🤗 Accelerate 加速。你可以随意跳过其中一部分,把注意力集中在你最感兴趣的那一部分:API可以优化或训练您的模型而无需担心幕后发生了什么,而训练循环使用可以让您更轻松地自定义所需的任何结构。 +每个部分都可以独立阅读,并将向您展示如何使用 `Trainer` API 或按照您自己的训练循环训练模型,并采用 🤗 Accelerate 加速。你可以随意跳过任何一部分,专注于您最感兴趣的部分:`Trainer` API 非常适用于微调(fine-tuning)或训练您的模型,且无需担心幕后发生的事情;而采用 `Accelerate` 的训练循环可以让您更轻松地自定义所需的任何结构。 {:else} -为此,您需要利用[第三章](/course/chapter3)中学到的有关Keras API、[第五章](/course/chapter5)中的 🤗 Datasets 库以及[第六章](/course/chapter6)中的 🤗 Tokenizers 库的所有知识。我们还会将结果上传到模型中心,就像我们在[第四章](/course/chapter4)中所做的那样,所以这确实是将之前所有内容汇集在一起的章节! +为此,您需要利用[第三章](/course/chapter3)中学到的 Keras API、[第五章](/course/chapter5)中的 🤗 Datasets 库以及[第六章](/course/chapter6)中的 🤗 Tokenizers 库的所有知识。我们同样会将结果上传到模型中心,就像我们在[第四章](/course/chapter4)中所做的那样,所以这确实是融会贯通的一章! 每个部分都可以独立阅读。 From b77a8c53d136b3a303c20403cf5d16393af424b5 Mon Sep 17 00:00:00 2001 From: iLeGend <824040212@qq.com> Date: Wed, 22 Mar 2023 23:50:41 +0800 Subject: [PATCH 2/2] Update 1.mdx --- chapters/zh-CN/chapter7/1.mdx | 4 ++-- 1 file changed, 2 insertions(+), 2 deletions(-) diff --git a/chapters/zh-CN/chapter7/1.mdx b/chapters/zh-CN/chapter7/1.mdx index 2fffe5817..53e35918e 100644 --- a/chapters/zh-CN/chapter7/1.mdx +++ b/chapters/zh-CN/chapter7/1.mdx @@ -2,7 +2,7 @@ # 章节简介 [[章节简介]] -在[第三章](/course/chapter3),您了解了如何微调文本分类的模型。在本章中,我们将处理以下常见 NLP 任务: +在[第三章](/course/chapter3),您了解了如何微调文本分类的模型。在本章中,我们将处理以下常见的 NLP 任务: - 词元(token)分类 - 掩码语言建模(如 BERT) @@ -19,7 +19,7 @@ {:else} -为此,您需要利用[第三章](/course/chapter3)中学到的 Keras API、[第五章](/course/chapter5)中的 🤗 Datasets 库以及[第六章](/course/chapter6)中的 🤗 Tokenizers 库的所有知识。我们同样会将结果上传到模型中心,就像我们在[第四章](/course/chapter4)中所做的那样,所以这确实是融会贯通的一章! +为此,您需要利用[第三章](/course/chapter3)中学到的有关 Keras API、[第五章](/course/chapter5)中的 🤗 Datasets 库以及[第六章](/course/chapter6)中的 🤗 Tokenizers 库的所有知识。我们同样会将结果上传到模型中心,就像我们在[第四章](/course/chapter4)中所做的那样,所以这确实是融会贯通的一章! 每个部分都可以独立阅读。