--- title: Quand votre prompt part en vrille : guide de terrain des échecs description: Que faire quand l’IA vous sort du déchet au lieu de l’or. Comment diagnostiquer des prompts cassés, réparer ce qui cloche, et savoir quand tout jeter pour repartir de zéro. date: February 5, 2026 author: Robert Soares category: prompt-engineering --- Le curseur clignote. Vous appuyez sur Entrée. L’IA répond par quelque chose qui vous donne envie de refermer votre ordinateur et d’aller marcher. On est tous passés par là. Vous avez demandé un e-mail professionnel et vous avez reçu un essai décousu avec six points d’exclamation. Vous vouliez des conseils précis pour votre situation et vous avez eu des conseils si génériques qu’ils pourraient s’appliquer à littéralement n’importe qui sur Terre. Vous avez demandé un résumé simple et vous avez eu un traité philosophique sur la nature du résumé lui-même. L’instinct naturel, c’est de tout supprimer et de repartir, mais c’est souvent le mauvais réflexe parce que vous jetez l’information de diagnostic juste sous vos yeux. Un mauvais résultat vous dit quelque chose. L’astuce, c’est de comprendre quoi. ## L’art de lire l’échec Un prompt raté est un message de l’IA sur ce qu’elle a compris, ou plus exactement, sur ce qu’elle a mal compris. Quand le résultat part de travers, il suit généralement des schémas reconnaissables, et chaque schéma pointe vers un problème différent dans la façon dont vous avez structuré votre demande. Du générique = contexte manquant. Un mauvais format = spécification floue. À côté de la plaque = formulation ambiguë. Un commentateur de Hacker News a parfaitement capturé la frustration : > "But it essentially never makes what you expect... I've spent many hours on Midjourney" > > [jaqalopes, Hacker News](https://news.ycombinator.com/item?id=33047450) Des heures passées à attendre une chose et à en obtenir une autre. C’est l’expérience universelle quand on travaille avec des systèmes d’IA, et ça ne veut pas dire que vous vous y prenez mal. Ça veut dire que vous apprenez la langue. ## Le flou tue Le mode d’échec le plus fréquent, c’est de demander quelque chose sans définir ce que ce « quelque chose » est, en réalité. « Écris-moi un e-mail marketing » ne donne rien à l’IA pour travailler. Quel public ? Quel produit ? Quel ton ? Quelle longueur ? Qu’est-ce que le lecteur doit faire après lecture ? Sans réponses, l’IA comble les trous avec des valeurs par défaut, et les valeurs par défaut sont, par définition, génériques. La solution, ce n’est pas d’ajouter des mots. Les mauvais prompts ne sont pas trop courts. Ils sont trop flous. Un prompt de dix mots avec trois détails précis battra un prompt de cent mots qui ne fixe jamais rien. Regardez la différence entre ces deux-là : « Aide-moi à écrire un e-mail aux clients au sujet de notre nouvelle fonctionnalité. » contre « Écris un e-mail de 150 mots annonçant notre nouvelle fonctionnalité de planification à des clients existants qui l’ont demandée. Ton : amical, pas trop vendeur. Inclus un appel à l’action clair pour essayer la fonctionnalité. » Le deuxième prompt est plus long, mais la longueur n’est pas le sujet. Chaque mot ajouté sert à quelque chose. Rien n’est du remplissage. Voilà la différence. ## Quand les consignes se battent entre elles Parfois, l’IA n’est pas confuse. C’est vous. « Sois exhaustif mais reste bref. » C’est une contradiction. Vous demandez deux choses incompatibles, et l’IA doit en choisir une, ou pire, essayer de satisfaire les deux et échouer sur les deux. « Sois créatif mais tiens-toi aux faits. » Un autre piège. La créativité implique l’invention ; les faits impliquent la contrainte. Vous pouvez avoir une présentation créative de faits, ou un ancrage factuel avec quelques touches, mais demander les deux sans expliquer comment ça s’articule produit un résultat confus. Ces contradictions sont faciles à écrire et difficiles à repérer dans ses propres prompts, parce que vous savez ce que vous vouliez dire. L’IA n’a pas accès à vos intentions, seulement à vos mots. Relisez votre prompt comme le ferait un interprète hostile. Qu’est-ce qui pourrait être mal compris ? Quelles consignes pourraient entrer en conflit ? Où avez-vous supposé que l’IA devinerait ce que vous vouliez vraiment ? ## Le prompt surchargé Un autre commentateur sur Hacker News a pointé un problème proche qui empoisonne les ingénieurs de prompts qui travaillent sur des systèmes plus gros : > "a 3,000-token system prompt isn't 'logic', it's legacy code that no one wants to touch. It's brittle, hard to test, and expensive to run. It is Technical Debt." > > [steer_dev, Hacker News](https://news.ycombinator.com/item?id=46312737) Ça s’applique aux prompts uniques aussi. Quand vous bourrez trop de choses dans une seule demande, la qualité se dégrade partout. « Écris un article de blog et crée cinq publications pour les réseaux sociaux à partir de ça et suggère des objets d’e-mail et dis-moi aussi quels mots-clés cibler » n’est pas une tâche. C’est quatre tâches qui portent un trench pour se faire passer pour une seule. L’IA va tenter les quatre et n’en réussira aucune. Découpez. Une chose à la fois. Utilisez le résultat de l’étape un comme entrée pour l’étape deux. C’est plus lent, mais ça donne des résultats radicalement meilleurs. ## Ratés de format Vous vouliez une liste à puces. Vous avez eu de la prose. Vous avez demandé du JSON. Vous avez eu une description de ce que le JSON contiendrait. Vous avez demandé 200 mots. Vous en avez eu 800. Les ratés de format arrivent quand vous supposez que l’IA va deviner correctement et qu’elle devine mal. La solution est embarrassante de simplicité : dites quel format vous voulez. Pas « donne-moi des idées » mais « donne-moi 5 idées sous forme de liste numérotée, une phrase chacune ». Pas « résume ceci » mais « résume ceci en 3 puces pour un total de moins de 100 mots ». Quand le format est inhabituel ou complexe, montrez un exemple. Les systèmes d’IA excellent en reconnaissance de motifs, et montrer un modèle de ce que vous voulez est plus clair que de le décrire. ## Le téléphone sans fil Les longues conversations créent un mode d’échec subtil, facile à rater. Vous avez commencé avec un objectif clair. Quinze échanges plus tard, le contexte a dérivé, les consignes initiales se sont estompées, et l’IA s’est accrochée à quelque chose que vous avez mentionné au passage comme si c’était le point principal. C’est le jeu du téléphone sans fil en train de se dérouler en temps réel. L’information se dégrade avec la distance. La parade, c’est de réaffirmer périodiquement le contexte, en rappelant explicitement les paramètres clés tous les quelques échanges dans une conversation longue. « Petit rappel : on écrit pour [audience], on vise [tone], et l’objectif est [specific outcome]. » Ça semble redondant, mais ça empêche la dérive. ## Les erreurs factuelles, c’est différent Quand l’IA invente des trucs, c’est une catégorie de problème entièrement différente. Vous ne pouvez pas vous sortir d’une hallucination en « améliorant le prompt », parce que l’IA n’est pas en train de rater vos consignes. Elle est en train de ne pas savoir. Aucune tournure astucieuse ne la fera se souvenir d’un fait qu’elle n’a jamais appris ou générer des informations exactes sur des événements survenus après la fin de son entraînement. Pour du contenu factuel, l’approche change : vous fournissez les faits. Donnez à l’IA les statistiques, les citations, les points de données, l’information précise qui compte. Laissez-la gérer la structure, le rythme et la présentation, pendant que vous gérez l’exactitude. Demander à une IA « d’inclure des statistiques pertinentes », c’est lui demander de deviner quelles statistiques pourraient être réelles. Lui donner « utilise ces trois statistiques : [données vérifiées] » vous laisse le contrôle de l’exactitude. ## Le diagnostic avant l’intervention Quand le résultat est mauvais, résistez à l’envie de réécrire immédiatement. D’abord, identifiez ce qui a raté. C’est générique ? Cherchez le contexte manquant. Le format est mauvais ? Vérifiez si vous avez précisé le format. À côté de la plaque ? Traquez l’ambiguïté dans votre formulation. Contradictoire ? Examinez vos consignes pour trouver des conflits. Superficiel ? Demandez-vous si vous avez demandé de la profondeur. Chaque type d’échec a une correction différente, et appliquer la mauvaise correction fait perdre du temps tout en ne vous apprenant rien. Cette étape de diagnostic prend trente secondes. La zapper et réécrire depuis zéro prend cinq minutes et recrée souvent le même problème avec des mots différents. ## La boucle d’itération Une fois le type d’échec identifié, faites un seul changement. Testez. Voyez ce qui se passe. Ça a l’air pénible. C’est pénible. C’est aussi plus rapide que de changer cinq choses à la fois et de n’avoir aucune idée de ce qui a aidé ou nui. Le test à variable unique fonctionne en ingénierie des prompts comme il fonctionne en science et en tests A/B. Changez une chose, observez le résultat, ajustez votre hypothèse, répétez. La tentation de tout réécrire vient de la frustration, pas de la stratégie. La frustration produit de l’action sans apprentissage. L’itération systématique produit un apprentissage que vous pouvez appliquer à chaque prompt futur. ## Quand il faut tout jeter Parfois, l’itération ne vous sauvera pas. Si vous avez fait quatre ou cinq corrections ciblées et que rien ne s’améliore, le prompt est peut-être mauvais structurellement. Le cœur de la tâche peut être flou pour vous, pas seulement pour l’IA. Vous demandez peut-être la mauvaise chose, tout simplement. Signes qu’il faut repartir de zéro : L’IA a l’air vraiment perdue sur ce que vous demandez, pas juste en train de donner des réponses médiocres, mais comme si elle traitait une question complètement différente. Vos corrections déplacent le problème au lieu de le résoudre. Vous réalisez en plein débogage que ce que vous avez demandé n’est pas ce dont vous avez besoin. Repartir n’est pas un échec. Parfois, il faut écrire un mauvais prompt pour découvrir à quoi ressemble un bon prompt pour votre vrai objectif. ## La vérité qui dérange L’ingénierie des prompts est souvent frustrante parce qu’on a l’impression que ça devrait être plus simple que ça. Vous écrivez en français courant. L’IA comprend le français. Pourquoi ça ne marche pas, tout simplement ? Parce que le langage naturel est intrinsèquement ambigu, parce que ce qui vous paraît évident ne l’est pas pour un modèle statistique, parce que l’IA est très forte pour produire un résultat plausible qui colle à des motifs présents dans ses données d’entraînement, et moins forte pour comprendre ce dont vous avez précisément besoin. Ça ne va pas disparaître. De meilleurs modèles réduiront une partie de la friction, mais le défi fondamental — communiquer une intention précise avec un langage imprécis — est un problème humain, pas un problème technologique. Apprendre à déboguer des prompts, c’est apprendre à communiquer plus précisément que ne l’exige une conversation normale, et cette compétence se transfère aussi à la communication humaine. L’ingénieur qui écrit de bons prompts écrit des e-mails plus clairs, crée une meilleure documentation, et donne des retours plus utiles. Le curseur clignote. Vous essayez encore. Et, finalement, ça marche. La question, c’est : est-ce que vous avez appris quelque chose dans le processus, ou est-ce que vous avez juste eu de la chance ? Le débogage vous donne l’apprentissage. La réécriture au hasard vous donne la chance. L’un de ces deux-là se cumule avec le temps.