From aa0fee911fce4cbcf1ac102087cd5041f049c0c4 Mon Sep 17 00:00:00 2001 From: ThibaultLengagne Date: Thu, 25 Jan 2024 11:26:07 +0100 Subject: [PATCH] doc: Add french link in other docs Signed-off-by: ThibaultLengagne --- README.md | 1 + README_fr.md | 2 +- README_hd.md | 1 + README_ja.md | 1 + README_ko.md | 1 + README_pt-br.md | 1 + README_ru.md | 1 + README_te.md | 1 + README_zh-hans.md | 1 + README_zh-hant.md | 1 + utils/check_copies.py | 8 ++++++++ 11 files changed, 18 insertions(+), 1 deletion(-) diff --git a/README.md b/README.md index 62249a2ca29e66..817d821cd80cdf 100644 --- a/README.md +++ b/README.md @@ -55,6 +55,7 @@ limitations under the License. Русский | Рortuguês | తెలుగు | + Français |

diff --git a/README_fr.md b/README_fr.md index 37d6335e96dba5..6cbbbc200f7e75 100644 --- a/README_fr.md +++ b/README_fr.md @@ -300,7 +300,7 @@ Nombre actuel de points de contrôle : ![](https://img.shields.io/endpoint?url=h 1. **[BARTpho](https://huggingface.co/docs/transformers/model_doc/bartpho)** (de VinAI Research) publié dans l'article [BARTpho: Pre-trained Sequence-to-Sequence Models for Vietnamese](https://arxiv.org/abs/2109.09701) de Nguyen Luong Tran, Duong Minh Le et Dat Quoc Nguyen. 1. **[BEiT](https://huggingface.co/docs/transformers/model_doc/beit)** (de Microsoft) publié dans l'article [BEiT: Pré-entraînement BERT des transformateurs d'images](https://arxiv.org/abs/2106.08254) par Hangbo Bao, Li Dong, Furu Wei. 1. **[BERT](https://huggingface.co/docs/transformers/model_doc/bert)** (de Google) publié dans l'article [BERT : Pré-entraînement de transformateurs bidirectionnels profonds pour la compréhension du langage](https://arxiv.org/abs/1810.04805) par Jacob Devlin, Ming-Wei Chang, Kenton Lee et Kristina Toutanova. -1. **[BERT pour la génération de séquences](https://huggingface.co/docs/transformers/model_doc/bert-generation)** (de Google) publié dans l'article [Leveraging Pre-trained Checkpoints for Sequence Generation Tasks](https://arxiv.org/abs/1907.12461) par Sascha Rothe, Shashi Narayan, Aliaksei Severyn. +1. **[BERT For Sequence Generation](https://huggingface.co/docs/transformers/model_doc/bert-generation)** (de Google) publié dans l'article [Leveraging Pre-trained Checkpoints for Sequence Generation Tasks](https://arxiv.org/abs/1907.12461) parSascha Rothe, Shashi Narayan, Aliaksei Severyn. 1. **[BERTweet](https://huggingface.co/docs/transformers/model_doc/bertweet)** (de VinAI Research) publié dans l'article [BERTweet : un modèle de langage pré-entraîné pour les Tweets en anglais](https://aclanthology.org/2020.emnlp-demos.2/) par Dat Quoc Nguyen, Thanh Vu et Anh Tuan Nguyen. 1. **[BigBird-Pegasus](https://huggingface.co/docs/transformers/model_doc/bigbird_pegasus)** (de Google Research) publié dans l'article [Big Bird: Transformateurs pour des séquences plus longues](https://arxiv.org/abs/2007.14062) par Manzil Zaheer, Guru Guruganesh, Avinava Dubey, Joshua Ainslie, Chris Alberti, Santiago Ontanon, Philip Pham, Anirudh Ravula, Qifan Wang, Li Yang, Amr Ahmed. 1. **[BigBird-RoBERTa](https://huggingface.co/docs/transformers/model_doc/big_bird)** (de Google Research) publié dans l'article [Big Bird: Transformateurs pour des séquences plus longues](https://arxiv.org/abs/2007.14062) par Manzil Zaheer, Guru Guruganesh, Avinava Dubey, Joshua Ainslie, Chris Alberti, Santiago Ontanon, Philip Pham, Anirudh Ravula, Qifan Wang, Li Yang, Amr Ahmed. diff --git a/README_hd.md b/README_hd.md index 1af9b089705728..34e73f4484877c 100644 --- a/README_hd.md +++ b/README_hd.md @@ -73,6 +73,7 @@ checkpoint: जाँच बिंदु 日本語 | हिन्दी | తెలుగు | + Français |

diff --git a/README_ja.md b/README_ja.md index eab31ef65ea075..da715aede66e65 100644 --- a/README_ja.md +++ b/README_ja.md @@ -83,6 +83,7 @@ user: ユーザ 日本語 | हिन्दी తెలుగు | + Français |

diff --git a/README_ko.md b/README_ko.md index 4f59397d8d30c0..4912276f07fe29 100644 --- a/README_ko.md +++ b/README_ko.md @@ -48,6 +48,7 @@ limitations under the License. 日本語 | हिन्दी తెలుగు | + Français |

diff --git a/README_pt-br.md b/README_pt-br.md index 788d0c14cf3c28..f44c17ecb56858 100644 --- a/README_pt-br.md +++ b/README_pt-br.md @@ -55,6 +55,7 @@ limitations under the License. Русский | Рortuguês | తెలుగు | + Français |

diff --git a/README_ru.md b/README_ru.md index 2701bd3bbc431c..3c4d33071dda2e 100644 --- a/README_ru.md +++ b/README_ru.md @@ -54,6 +54,7 @@ limitations under the License. हिन्दी | Русский తెలుగు | + Français |

diff --git a/README_te.md b/README_te.md index 66ded8dd10781f..7376005faed051 100644 --- a/README_te.md +++ b/README_te.md @@ -57,6 +57,7 @@ limitations under the License. Русский | Рortuguês | తెలుగు | + Français |

diff --git a/README_zh-hans.md b/README_zh-hans.md index b324602870ab5b..aeee8b478d5bec 100644 --- a/README_zh-hans.md +++ b/README_zh-hans.md @@ -73,6 +73,7 @@ checkpoint: 检查点 日本語 | हिन्दी తెలుగు | + Français |

diff --git a/README_zh-hant.md b/README_zh-hant.md index 7ea4765a55470f..588967b2aa673d 100644 --- a/README_zh-hant.md +++ b/README_zh-hant.md @@ -85,6 +85,7 @@ user: 使用者 日本語 | हिन्दी తెలుగు | + Français |

diff --git a/utils/check_copies.py b/utils/check_copies.py index ea6f2d6591e77f..7001473b9f208e 100644 --- a/utils/check_copies.py +++ b/utils/check_copies.py @@ -119,6 +119,14 @@ "अनुसंधान पत्र {paper_title_link} के साथ जारी किया गया" ), }, + "README_fr.md": { + "start_prompt": "🤗 Transformers fournit actuellement les architectures suivantes", + "end_prompt": "1. Vous souhaitez contribuer avec un nouveau modèle ?", + "format_model_list": ( + "**[{title}]({model_link})** (de {paper_affiliations}) publié dans l'article {paper_title_link} par" + "{paper_authors}.{supplements}" + ), + }, }