Optimisée pour tous les modèles de langage basés sur une architecture décodeur : GPT, BERT (mode décodeur), T5, Claude, Mistral, et autres.
L’ingénierie de prompt est l’art de formuler des requêtes optimisées pour obtenir des réponses précises, pertinentes et utiles d’un modèle de langage. Un prompt bien conçu permet de :
✅ Maximiser la qualité des réponses
✅ Réduire les erreurs et les hallucinations
✅ Améliorer la cohérence et la clarté des sorties
✅ Optimiser les performances du modèle pour des tâches spécifiques
Tous les modèles ne sont pas conçus pour les mêmes usages. Il est crucial de sélectionner celui qui répond le mieux aux exigences de votre projet.
Tous les modèles ne se valent pas. Un modèle plus récent ou plus volumineux ne signifie pas nécessairement qu'il est le plus adapté à votre tâche.
✔ Évaluez les forces et faiblesses des modèles :
- GPT-4 / Mistral Large → Meilleur pour la créativité et les tâches complexes
- GPT-3.5-turbo / LLaMA 2 → Plus rapide et économique, adapté aux conversations fluides
- T5 / BERT (mode décodeur) → Idéal pour la classification, le résumé et l’extraction d’informations
- Claude 3 / GPT-o3 → Performants pour la génération de code
✔ Tenez compte de la rapidité et du coût :
- Les modèles plus grands offrent des résultats plus précis mais sont plus coûteux en ressources.
- Un modèle plus petit et plus optimisé peut être préférable pour certaines applications.
✔ Mettez à jour votre choix régulièrement :
- L’évolution rapide des LLMs implique qu’un modèle plus performant peut émerger en quelques mois.
Un prompt bien structuré est plus compréhensible et donne de meilleurs résultats.
📌 Structure optimale d’un prompt :
1️⃣ Définissez clairement la tâche dès le début
2️⃣ Utilisez des séparateurs (###
, """
, ---
) pour clarifier les différentes parties
3️⃣ Ajoutez du contexte pertinent pour guider la réponse
4️⃣ Spécifiez le format de sortie souhaité
🔍 Exemple : Résumé d’un article
🚫 Prompt vague
Fais un résumé de ce texte.
✅ Prompt structuré et détaillé
### Tâche : Résumer un texte en une liste de points clés.
Texte :
"""
{votre texte ici}
"""
Format attendu :
- Point clé 1
- Point clé 2
- ...
🎯 Pourquoi ? Un prompt structuré réduit l’ambiguïté et améliore la précision du résultat et cela évite que le modèle confonde les instructions et le contenu à traiter.
Un prompt trop vague entraîne des réponses imprécises. Plus vous êtes clair, mieux le modèle vous comprendra. Ne laissez aucune place à l’ambiguïté : spécifiez le ton, la structure, la longueur, le format et le style de la réponse.
🚫 Prompt vague
Écris un article sur l’intelligence artificielle.
✅ Prompt détaillé et optimisé
Rédige un article de 500 mots expliquant l’intelligence artificielle à un public débutant.
Utilise un **ton pédagogique**, des **exemples concrets**, et une **structure claire** avec introduction, développement et conclusion.
✔ Longueur : Définissez un nombre de mots ou de phrases
✔ Ton et style : Technique, humoristique, formel, accessible
✔ Format : Paragraphe, liste, tableau, JSON
Les modèles imitent les structures qu’ils voient. Fournir un exemple améliore la qualité de la réponse.
🔍 Exemple : Extraction d’entités nommées
🚫 Prompt imprécis
Tire les entités du texte.
✅ Prompt avec format d’exemple
### Tâche : Identifier les entités nommées dans un texte.
Format attendu :
- **Personnes** : [Liste]
- **Lieux** : [Liste]
- **Organisations** : [Liste]
Texte :
"{votre texte ici}"
🎯 Pourquoi ? L’exemple réduit l’incertitude et augmente la pertinence et le modèle comprend comment structurer sa réponse.
📌 Zéro-shot : Demander directement une tâche
📌 Few-shot : Fournir des exemples pour guider le modèle
📌 Fine-tuning : Adapter un modèle à un besoin spécifique
🔍 Exemple : Extraction de mots-clés (Few-shot)
### Tâche : Extraire les mots-clés d’un texte.
Texte 1 : "L’IA transforme le marché de l’emploi et l’innovation."
Mots-clés : IA, marché de l’emploi, innovation
Texte 2 : {votre texte ici}
Mots-clés :
🎯 Pourquoi ? Le modèle s’aligne sur la structure fournie.
Un prompt imprécis génère des résultats incohérents.
🚫 Trop vague
Décris ce produit.
✅ Précis et ciblé
Rédige une description marketing de 3 phrases, mettant en avant les **bénéfices** et le **public cible** du produit.
Les instructions positives fonctionnent mieux que les interdictions.
🚫 Mauvais prompt
Ne donne pas de fausses informations.
✅ Meilleur prompt
Si l’information demandée n’est pas certaine, réponds : "Je ne peux pas confirmer cette information avec certitude."
🎯 Pourquoi ? Les interdictions seules sont moins efficaces que des consignes constructives et le modèle "lis" quand même une instruction négative pouvant l'amener finalement à la suivre si le contexte est trop dilué!
Pour générer du code, commencez avec le bon langage.
🚫 Prompt vague
Écris un script pour convertir des miles en kilomètres.
✅ Prompt optimisé
# Fonction Python qui convertit des miles en kilomètres
def convert_miles_to_km(miles):
🎯 Pourquoi ? Le modèle comprend immédiatement qu’il doit écrire en Python.
Paramètre | Effet | Recommandé pour |
---|---|---|
Température (0-1) | Plus haute = Plus créatif | 0.2 → Réponses factuelles / 0.7 → Créativité |
Max Tokens | Limite la longueur | 100 → Résumé court / 500 → Article détaillé |
Top-p | Contrôle la diversité | 0.9 pour diversité, 0.3 pour précision |
Stop Sequence | Arrête la génération | Ex : \n\n pour structurer |
L’ingénierie de prompt avancée permet d’optimiser l’utilisation des LLMs en maximisant la pertinence, la précision et la cohérence des résultats. Appliquer ces bonnes pratiques d’ingénierie de prompt maximise la qualité des réponses générées, réduit les biais et améliore l'efficacité des modèles de langage.
✔ Formulez des prompts clairs et précis
✔ Testez différentes formulations et ajustez progressivement vos prompts
✔ Structurez votre requête et fournissez des exemples de sortie souhaitée
✔ Utilisez des formats clairs et fournissez des exemples précis
✔ Testez et ajustez en fonction des résultats
🚀 Un bon prompt, c'est un prompt structuré, précis et optimisé ! 🚀