diff --git a/chapters/pt/_toctree.yml b/chapters/pt/_toctree.yml index 69560b3c7..7ba1a7cfa 100644 --- a/chapters/pt/_toctree.yml +++ b/chapters/pt/_toctree.yml @@ -56,3 +56,8 @@ title: Hora de fatiar e dividir os dados - local: chapter5/4 title: Big data? šŸ¤— Datasets ao resgate + +- title: 7. Principais tarefas NLP + sections: + - local: chapter7/1 + title: IntroduĆ§Ć£o diff --git a/chapters/pt/chapter7/1.mdx b/chapters/pt/chapter7/1.mdx new file mode 100644 index 000000000..b95dc7580 --- /dev/null +++ b/chapters/pt/chapter7/1.mdx @@ -0,0 +1,33 @@ + + +# IntroduĆ§Ć£o + +No [CapĆ­tulo 3](/course/chapter3), vocĆŖ viu como fazer o ajuste fino (fine-tune) de um modelo de classificaĆ§Ć£o de texto. Neste capĆ­tulo, abordaremos as seguintes tarefas de NLP (tambĆ©m conhecido como PLN): + +- ClassificaĆ§Ć£o dos Tokens +- Modelagem de linguagem mascarada (como BERT) +- SumarizaĆ§Ć£o +- TraduĆ§Ć£o +- Modelagem de linguagem causal prĆ©-treinamento (como GPT-2) +- Responder perguntas + +{#if fw === 'pt'} + +Para fazer isso, terĆ” de aproveitar tudo o que aprendeu sobre a API `Trainer` e a biblioteca šŸ¤— Accelerate no [CapĆ­tulo 3](/course/chapter3), a biblioteca šŸ¤— Datasets no [CapĆ­tulo 5](/course/chapter5), e a biblioteca šŸ¤— Tokenizers no [CapĆ­tulo 6](/course/chapter6). TambĆ©m vamos fazer o upload dos nossos resultados para o Model Hub, assim como fizemos no [CapĆ­tulo 4](/course/chapter4), entĆ£o realmente esse Ć© o capĆ­tulo onde tudo se junta! + +Cada seĆ§Ć£o pode ser lida de forma independente e irĆ” mostrar como treinar um modelo com a API `Trainer` ou com o seu prĆ³prio laƧo de treinamento, utilizando šŸ¤— Accelerate. Sinta-se Ć  vontade para pular qualquer parte e se concentrar na que mais lhe interessa: a API `Trainer` Ć© excelente para o ajuste fino ou para treinar o seu modelo sem se preocupar com o que se passa nos bastidores, enquanto que o laƧo de treinamento com `Accelerate` permite personalizar qualquer parte que queira com mais facilidade. + +{:else} + +Para fazer isso, terĆ” de aproveitar tudo o que aprendeu sobre o treinamento de modelo com a API Keras no [CapĆ­tulo 3](/course/chapter3), a biblioteca šŸ¤— Datasets no [CapĆ­tulo 5](/course/chapter5), e a biblioteca šŸ¤— Tokenizers no [CapĆ­tulo 6](/course/chapter6). TambĆ©m vamos fazer o upload dos nossos resultados para o Model Hub, assim como fizemos no [CapĆ­tulo 4](/course/chapter4), entĆ£o realmente esse Ć© o capĆ­tulo onde tudo se junta! + +Cada seĆ§Ć£o pode ser lida de forma independente. + +{/if} + + + + +Se ler as seƧƵes em sequĆŖncia, notarĆ” que elas tĆŖm bastante cĆ³digo e texto em comum. Essa repetiĆ§Ć£o Ć© intencional para que possa mergulhar (ou voltar mais tarde) em qualquer tarefa que lhe interesse e encontrar um exemplo completo. + +