From aa0fee911fce4cbcf1ac102087cd5041f049c0c4 Mon Sep 17 00:00:00 2001
From: ThibaultLengagne
Date: Thu, 25 Jan 2024 11:26:07 +0100
Subject: [PATCH] doc: Add french link in other docs
Signed-off-by: ThibaultLengagne
---
README.md | 1 +
README_fr.md | 2 +-
README_hd.md | 1 +
README_ja.md | 1 +
README_ko.md | 1 +
README_pt-br.md | 1 +
README_ru.md | 1 +
README_te.md | 1 +
README_zh-hans.md | 1 +
README_zh-hant.md | 1 +
utils/check_copies.py | 8 ++++++++
11 files changed, 18 insertions(+), 1 deletion(-)
diff --git a/README.md b/README.md
index 62249a2ca29e66..817d821cd80cdf 100644
--- a/README.md
+++ b/README.md
@@ -55,6 +55,7 @@ limitations under the License.
Русский |
Рortuguês |
తెలుగు |
+ Français |
diff --git a/README_fr.md b/README_fr.md
index 37d6335e96dba5..6cbbbc200f7e75 100644
--- a/README_fr.md
+++ b/README_fr.md
@@ -300,7 +300,7 @@ Nombre actuel de points de contrôle : ![](https://img.shields.io/endpoint?url=h
1. **[BARTpho](https://huggingface.co/docs/transformers/model_doc/bartpho)** (de VinAI Research) publié dans l'article [BARTpho: Pre-trained Sequence-to-Sequence Models for Vietnamese](https://arxiv.org/abs/2109.09701) de Nguyen Luong Tran, Duong Minh Le et Dat Quoc Nguyen.
1. **[BEiT](https://huggingface.co/docs/transformers/model_doc/beit)** (de Microsoft) publié dans l'article [BEiT: Pré-entraînement BERT des transformateurs d'images](https://arxiv.org/abs/2106.08254) par Hangbo Bao, Li Dong, Furu Wei.
1. **[BERT](https://huggingface.co/docs/transformers/model_doc/bert)** (de Google) publié dans l'article [BERT : Pré-entraînement de transformateurs bidirectionnels profonds pour la compréhension du langage](https://arxiv.org/abs/1810.04805) par Jacob Devlin, Ming-Wei Chang, Kenton Lee et Kristina Toutanova.
-1. **[BERT pour la génération de séquences](https://huggingface.co/docs/transformers/model_doc/bert-generation)** (de Google) publié dans l'article [Leveraging Pre-trained Checkpoints for Sequence Generation Tasks](https://arxiv.org/abs/1907.12461) par Sascha Rothe, Shashi Narayan, Aliaksei Severyn.
+1. **[BERT For Sequence Generation](https://huggingface.co/docs/transformers/model_doc/bert-generation)** (de Google) publié dans l'article [Leveraging Pre-trained Checkpoints for Sequence Generation Tasks](https://arxiv.org/abs/1907.12461) parSascha Rothe, Shashi Narayan, Aliaksei Severyn.
1. **[BERTweet](https://huggingface.co/docs/transformers/model_doc/bertweet)** (de VinAI Research) publié dans l'article [BERTweet : un modèle de langage pré-entraîné pour les Tweets en anglais](https://aclanthology.org/2020.emnlp-demos.2/) par Dat Quoc Nguyen, Thanh Vu et Anh Tuan Nguyen.
1. **[BigBird-Pegasus](https://huggingface.co/docs/transformers/model_doc/bigbird_pegasus)** (de Google Research) publié dans l'article [Big Bird: Transformateurs pour des séquences plus longues](https://arxiv.org/abs/2007.14062) par Manzil Zaheer, Guru Guruganesh, Avinava Dubey, Joshua Ainslie, Chris Alberti, Santiago Ontanon, Philip Pham, Anirudh Ravula, Qifan Wang, Li Yang, Amr Ahmed.
1. **[BigBird-RoBERTa](https://huggingface.co/docs/transformers/model_doc/big_bird)** (de Google Research) publié dans l'article [Big Bird: Transformateurs pour des séquences plus longues](https://arxiv.org/abs/2007.14062) par Manzil Zaheer, Guru Guruganesh, Avinava Dubey, Joshua Ainslie, Chris Alberti, Santiago Ontanon, Philip Pham, Anirudh Ravula, Qifan Wang, Li Yang, Amr Ahmed.
diff --git a/README_hd.md b/README_hd.md
index 1af9b089705728..34e73f4484877c 100644
--- a/README_hd.md
+++ b/README_hd.md
@@ -73,6 +73,7 @@ checkpoint: जाँच बिंदु
日本語 |
हिन्दी |
తెలుగు |
+ Français |
diff --git a/README_ja.md b/README_ja.md
index eab31ef65ea075..da715aede66e65 100644
--- a/README_ja.md
+++ b/README_ja.md
@@ -83,6 +83,7 @@ user: ユーザ
日本語 |
हिन्दी
తెలుగు |
+ Français |
diff --git a/README_ko.md b/README_ko.md
index 4f59397d8d30c0..4912276f07fe29 100644
--- a/README_ko.md
+++ b/README_ko.md
@@ -48,6 +48,7 @@ limitations under the License.
日本語 |
हिन्दी
తెలుగు |
+ Français |
diff --git a/README_pt-br.md b/README_pt-br.md
index 788d0c14cf3c28..f44c17ecb56858 100644
--- a/README_pt-br.md
+++ b/README_pt-br.md
@@ -55,6 +55,7 @@ limitations under the License.
Русский |
Рortuguês |
తెలుగు |
+ Français |
diff --git a/README_ru.md b/README_ru.md
index 2701bd3bbc431c..3c4d33071dda2e 100644
--- a/README_ru.md
+++ b/README_ru.md
@@ -54,6 +54,7 @@ limitations under the License.
हिन्दी |
Русский
తెలుగు |
+ Français |
diff --git a/README_te.md b/README_te.md
index 66ded8dd10781f..7376005faed051 100644
--- a/README_te.md
+++ b/README_te.md
@@ -57,6 +57,7 @@ limitations under the License.
Русский |
Рortuguês |
తెలుగు |
+ Français |
diff --git a/README_zh-hans.md b/README_zh-hans.md
index b324602870ab5b..aeee8b478d5bec 100644
--- a/README_zh-hans.md
+++ b/README_zh-hans.md
@@ -73,6 +73,7 @@ checkpoint: 检查点
日本語 |
हिन्दी
తెలుగు |
+ Français |
diff --git a/README_zh-hant.md b/README_zh-hant.md
index 7ea4765a55470f..588967b2aa673d 100644
--- a/README_zh-hant.md
+++ b/README_zh-hant.md
@@ -85,6 +85,7 @@ user: 使用者
日本語 |
हिन्दी
తెలుగు |
+ Français |
diff --git a/utils/check_copies.py b/utils/check_copies.py
index ea6f2d6591e77f..7001473b9f208e 100644
--- a/utils/check_copies.py
+++ b/utils/check_copies.py
@@ -119,6 +119,14 @@
"अनुसंधान पत्र {paper_title_link} के साथ जारी किया गया"
),
},
+ "README_fr.md": {
+ "start_prompt": "🤗 Transformers fournit actuellement les architectures suivantes",
+ "end_prompt": "1. Vous souhaitez contribuer avec un nouveau modèle ?",
+ "format_model_list": (
+ "**[{title}]({model_link})** (de {paper_affiliations}) publié dans l'article {paper_title_link} par"
+ "{paper_authors}.{supplements}"
+ ),
+ },
}