diff --git a/docs/source/ar/tasks/token_classification.md b/docs/source/ar/tasks/token_classification.md index 49625306a0e5..3edf99e16ca1 100644 --- a/docs/source/ar/tasks/token_classification.md +++ b/docs/source/ar/tasks/token_classification.md @@ -504,7 +504,7 @@ pip install transformers datasets evaluate seqeval ``` -قم بتقسيم النص إلى رموز وعودة تنسورات TensorFlow: +قسّم النص إلى رموز وأرجع المُوتّرات ب TensorFlow: ```py >>> from transformers import AutoTokenizer