From 752ee943e5fe5a7bf20f683d2fb71357b0efff25 Mon Sep 17 00:00:00 2001 From: Ahmed Almaghz <53489256+AhmedAlmaghz@users.noreply.github.com> Date: Sat, 18 Jan 2025 03:02:45 +0300 Subject: [PATCH] Update docs/source/ar/tasks/sequence_classification.md Co-authored-by: Abdullah Mohammed <554032+abodacs@users.noreply.github.com> --- docs/source/ar/tasks/sequence_classification.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/docs/source/ar/tasks/sequence_classification.md b/docs/source/ar/tasks/sequence_classification.md index 135292a193f4..cf4f7010aa94 100644 --- a/docs/source/ar/tasks/sequence_classification.md +++ b/docs/source/ar/tasks/sequence_classification.md @@ -90,7 +90,7 @@ pip install transformers datasets evaluate accelerate tokenized_imdb = imdb.map(preprocess_function, batched=True) ``` -الآن قم بإنشاء دفعة من الأمثلة باستخدام [`DataCollatorWithPadding`]. من الأكثر كفاءة *الحشو الديناميكي* للجمل إلى الطول الأطول في دفعة أثناء التجميع، بدلاً من حشو كل مجموعة البيانات إلى الطول الأقصى. +الآن قم بإنشاء دفعة من الأمثلة باستخدام [`DataCollatorWithPadding`]. الأكثر كفاءة هو استخدام الحشو الديناميكي لجعل الجمل متساوية في الطول داخل كل دفعة، بدلًا من حشو كامل البيانات إلى الحد الأقصى للطول.