Skip to content

Latest commit

 

History

History
198 lines (154 loc) · 7.79 KB

02-best_practices.md

File metadata and controls

198 lines (154 loc) · 7.79 KB

🛠 Checklist Avancée des Bonnes Pratiques pour l’Ingénierie de Prompt

Optimisée pour tous les modèles de langage basés sur une architecture décodeur : GPT, BERT (mode décodeur), T5, Claude, Mistral, et autres.


📌 Pourquoi une ingénierie de prompt efficace est-elle essentielle ?

L’ingénierie de prompt est l’art de formuler des requêtes optimisées pour obtenir des réponses précises, pertinentes et utiles d’un modèle de langage. Un prompt bien conçu permet de : ✅ Maximiser la qualité des réponses
✅ Réduire les erreurs et les hallucinations
✅ Améliorer la cohérence et la clarté des sorties
✅ Optimiser les performances du modèle pour des tâches spécifiques


🔥 1. Choisir le modèle adapté à la tâche

Tous les modèles ne sont pas conçus pour les mêmes usages. Il est crucial de sélectionner celui qui répond le mieux aux exigences de votre projet.
Tous les modèles ne se valent pas. Un modèle plus récent ou plus volumineux ne signifie pas nécessairement qu'il est le plus adapté à votre tâche.

Évaluez les forces et faiblesses des modèles :

  • GPT-4 / Mistral Large → Meilleur pour la créativité et les tâches complexes
  • GPT-3.5-turbo / LLaMA 2 → Plus rapide et économique, adapté aux conversations fluides
  • T5 / BERT (mode décodeur) → Idéal pour la classification, le résumé et l’extraction d’informations
  • Claude 3 / GPT-o3 → Performants pour la génération de code

Tenez compte de la rapidité et du coût :

  • Les modèles plus grands offrent des résultats plus précis mais sont plus coûteux en ressources.
  • Un modèle plus petit et plus optimisé peut être préférable pour certaines applications.

Mettez à jour votre choix régulièrement :

  • L’évolution rapide des LLMs implique qu’un modèle plus performant peut émerger en quelques mois.

🏗 2. Structurer efficacement son prompt

Un prompt bien structuré est plus compréhensible et donne de meilleurs résultats.

📌 Structure optimale d’un prompt : 1️⃣ Définissez clairement la tâche dès le début
2️⃣ Utilisez des séparateurs (###, """, ---) pour clarifier les différentes parties
3️⃣ Ajoutez du contexte pertinent pour guider la réponse
4️⃣ Spécifiez le format de sortie souhaité

🔍 Exemple : Résumé d’un article
🚫 Prompt vague

Fais un résumé de ce texte.

Prompt structuré et détaillé

### Tâche : Résumer un texte en une liste de points clés.

Texte :
"""
{votre texte ici}
"""

Format attendu :
- Point clé 1
- Point clé 2
- ...

🎯 Pourquoi ? Un prompt structuré réduit l’ambiguïté et améliore la précision du résultat et cela évite que le modèle confonde les instructions et le contenu à traiter.


🔍 3. Soyez précis, détaillé et descriptif

Un prompt trop vague entraîne des réponses imprécises. Plus vous êtes clair, mieux le modèle vous comprendra. Ne laissez aucune place à l’ambiguïté : spécifiez le ton, la structure, la longueur, le format et le style de la réponse.

🚫 Prompt vague

Écris un article sur l’intelligence artificielle.

Prompt détaillé et optimisé

Rédige un article de 500 mots expliquant l’intelligence artificielle à un public débutant.  
Utilise un **ton pédagogique**, des **exemples concrets**, et une **structure claire** avec introduction, développement et conclusion.

Ajoutez des paramètres spécifiques :

Longueur : Définissez un nombre de mots ou de phrases
Ton et style : Technique, humoristique, formel, accessible
Format : Paragraphe, liste, tableau, JSON


🏆 4. Utiliser des exemples de sortie attendue

Les modèles imitent les structures qu’ils voient. Fournir un exemple améliore la qualité de la réponse.

🔍 Exemple : Extraction d’entités nommées
🚫 Prompt imprécis

Tire les entités du texte.

Prompt avec format d’exemple

### Tâche : Identifier les entités nommées dans un texte.

Format attendu :
- **Personnes** : [Liste]
- **Lieux** : [Liste]
- **Organisations** : [Liste]

Texte :
"{votre texte ici}"

🎯 Pourquoi ? L’exemple réduit l’incertitude et augmente la pertinence et le modèle comprend comment structurer sa réponse.


🎯 5. Approche progressive : Zéro-shot → Few-shot → Fine-tuning

📌 Zéro-shot : Demander directement une tâche
📌 Few-shot : Fournir des exemples pour guider le modèle
📌 Fine-tuning : Adapter un modèle à un besoin spécifique

🔍 Exemple : Extraction de mots-clés (Few-shot)

### Tâche : Extraire les mots-clés d’un texte.

Texte 1 : "L’IA transforme le marché de l’emploi et l’innovation."  
Mots-clés : IA, marché de l’emploi, innovation  

Texte 2 : {votre texte ici}  
Mots-clés :

🎯 Pourquoi ? Le modèle s’aligne sur la structure fournie.


6. Éviter les formulations ambiguës

Un prompt imprécis génère des résultats incohérents.

🚫 Trop vague

Décris ce produit.

Précis et ciblé

Rédige une description marketing de 3 phrases, mettant en avant les **bénéfices** et le **public cible** du produit.

7. Favoriser des consignes affirmatives

Les instructions positives fonctionnent mieux que les interdictions.

🚫 Mauvais prompt

Ne donne pas de fausses informations.

Meilleur prompt

Si l’information demandée n’est pas certaine, réponds : "Je ne peux pas confirmer cette information avec certitude."

🎯 Pourquoi ? Les interdictions seules sont moins efficaces que des consignes constructives et le modèle "lis" quand même une instruction négative pouvant l'amener finalement à la suivre si le contexte est trop dilué!


🖥 8. Optimiser la génération de code avec des indices contextuels

Pour générer du code, commencez avec le bon langage.

🚫 Prompt vague

Écris un script pour convertir des miles en kilomètres.

Prompt optimisé

# Fonction Python qui convertit des miles en kilomètres
def convert_miles_to_km(miles):

🎯 Pourquoi ? Le modèle comprend immédiatement qu’il doit écrire en Python.


9. Ajuster les paramètres du modèle

🔧 Paramètres clés :

Paramètre Effet Recommandé pour
Température (0-1) Plus haute = Plus créatif 0.2 → Réponses factuelles / 0.7 → Créativité
Max Tokens Limite la longueur 100 → Résumé court / 500 → Article détaillé
Top-p Contrôle la diversité 0.9 pour diversité, 0.3 pour précision
Stop Sequence Arrête la génération Ex : \n\n pour structurer

📌 Conclusion

L’ingénierie de prompt avancée permet d’optimiser l’utilisation des LLMs en maximisant la pertinence, la précision et la cohérence des résultats. Appliquer ces bonnes pratiques d’ingénierie de prompt maximise la qualité des réponses générées, réduit les biais et améliore l'efficacité des modèles de langage.

Formulez des prompts clairs et précis
Testez différentes formulations et ajustez progressivement vos promptsStructurez votre requête et fournissez des exemples de sortie souhaitée
Utilisez des formats clairs et fournissez des exemples précisTestez et ajustez en fonction des résultats

🚀 Un bon prompt, c'est un prompt structuré, précis et optimisé ! 🚀