diff --git a/chapters/pt/_toctree.yml b/chapters/pt/_toctree.yml
index 69560b3c7..7ba1a7cfa 100644
--- a/chapters/pt/_toctree.yml
+++ b/chapters/pt/_toctree.yml
@@ -56,3 +56,8 @@
title: Hora de fatiar e dividir os dados
- local: chapter5/4
title: Big data? š¤ Datasets ao resgate
+
+- title: 7. Principais tarefas NLP
+ sections:
+ - local: chapter7/1
+ title: IntroduĆ§Ć£o
diff --git a/chapters/pt/chapter7/1.mdx b/chapters/pt/chapter7/1.mdx
new file mode 100644
index 000000000..b95dc7580
--- /dev/null
+++ b/chapters/pt/chapter7/1.mdx
@@ -0,0 +1,33 @@
+
+
+# IntroduĆ§Ć£o
+
+No [CapĆtulo 3](/course/chapter3), vocĆŖ viu como fazer o ajuste fino (fine-tune) de um modelo de classificaĆ§Ć£o de texto. Neste capĆtulo, abordaremos as seguintes tarefas de NLP (tambĆ©m conhecido como PLN):
+
+- ClassificaĆ§Ć£o dos Tokens
+- Modelagem de linguagem mascarada (como BERT)
+- SumarizaĆ§Ć£o
+- TraduĆ§Ć£o
+- Modelagem de linguagem causal prƩ-treinamento (como GPT-2)
+- Responder perguntas
+
+{#if fw === 'pt'}
+
+Para fazer isso, terĆ” de aproveitar tudo o que aprendeu sobre a API `Trainer` e a biblioteca š¤ Accelerate no [CapĆtulo 3](/course/chapter3), a biblioteca š¤ Datasets no [CapĆtulo 5](/course/chapter5), e a biblioteca š¤ Tokenizers no [CapĆtulo 6](/course/chapter6). TambĆ©m vamos fazer o upload dos nossos resultados para o Model Hub, assim como fizemos no [CapĆtulo 4](/course/chapter4), entĆ£o realmente esse Ć© o capĆtulo onde tudo se junta!
+
+Cada seĆ§Ć£o pode ser lida de forma independente e irĆ” mostrar como treinar um modelo com a API `Trainer` ou com o seu prĆ³prio laƧo de treinamento, utilizando š¤ Accelerate. Sinta-se Ć vontade para pular qualquer parte e se concentrar na que mais lhe interessa: a API `Trainer` Ć© excelente para o ajuste fino ou para treinar o seu modelo sem se preocupar com o que se passa nos bastidores, enquanto que o laƧo de treinamento com `Accelerate` permite personalizar qualquer parte que queira com mais facilidade.
+
+{:else}
+
+Para fazer isso, terĆ” de aproveitar tudo o que aprendeu sobre o treinamento de modelo com a API Keras no [CapĆtulo 3](/course/chapter3), a biblioteca š¤ Datasets no [CapĆtulo 5](/course/chapter5), e a biblioteca š¤ Tokenizers no [CapĆtulo 6](/course/chapter6). TambĆ©m vamos fazer o upload dos nossos resultados para o Model Hub, assim como fizemos no [CapĆtulo 4](/course/chapter4), entĆ£o realmente esse Ć© o capĆtulo onde tudo se junta!
+
+Cada seĆ§Ć£o pode ser lida de forma independente.
+
+{/if}
+
+
+
+
+Se ler as seƧƵes em sequĆŖncia, notarĆ” que elas tĆŖm bastante cĆ³digo e texto em comum. Essa repetiĆ§Ć£o Ć© intencional para que possa mergulhar (ou voltar mais tarde) em qualquer tarefa que lhe interesse e encontrar um exemplo completo.
+
+