Vous avez vu ces prompts partout. « Agis comme un senior software engineer. » « Tu es un expert marketing avec 20 ans d’expérience. » « Imagine que tu es un professeur d’Harvard spécialisé en économie. »
L’idée est simple : donner un rôle à l’IA, et elle devrait répondre depuis ce point de vue. Comme du method acting, mais pour des modèles de langage.
Des millions de personnes utilisent cette technique. On l’enseigne dans des cours de prompt engineering. On la retrouve dans d’innombrables templates et GPT personnalisés. Mais voilà la question gênante que personne n’a envie d’affronter : est-ce que ça marche vraiment ?
La recherche dit… ça dépend.
Des preuves mitigées
Un article intitulé “Better Zéro-Shot Reasoning with Role-Play Prompting” a montré des gains de précision de 53,5 % à 63,8 % sur des problèmes de mathématiques en langage naturel en utilisant des prompts basés sur des rôles avec GPT-3.5. C’est un gain réel. La technique semblait prometteuse.
Puis les chercheurs ont regardé de plus près.
Une étude initialement intitulée “When ‘A Helpful Assistant’ Is Not Really Helpful” affirmait d’abord que l’ajout de rôles interpersonnels améliore systématiquement les performances du modèle. Mais en octobre 2024, les auteurs ont mis à jour leurs résultats. Après des tests sur 4 familles de modèles et 2 410 questions factuelles, ils ont changé leur conclusion : “personas in system prompts did not improve model performance across a range of questions compared to the control setting.”
Renversement total.
Learn Prompting a fait son propre test. Ils ont essayé 12 personas différentes sur 2 000 questions MMLU avec GPT-4-turbo. Les résultats étaient remarquablement stables, quelle que soit la persona. La persona “idiot” a fait mieux que la persona “genius”. Relisez ça.
Alors… qu’est-ce qui se passe ?
Le problème de la confiance
Sur Hacker News, l’utilisateur GuB-42 a fait un test qui résume bien ce que beaucoup vivent :
“I did a short test prompting ChatGPT do be an ‘average developer, just smart enough not to get fired’, an ‘expert’ and no persona. I got 3 different answers but I couldn’t decide which one was the best.”
Les réponses étaient différentes. Le ton changeait. Mais la qualité réelle ? Difficile à trancher.
GuB-42 a soulevé un point plus profond :
“I fear that but asking a LLM to be an expert, it will get the confidence of an expert rather than the skills of an experts, and a manipulative AI is something I’d rather not have.”
C’est ça, le cœur du problème. Quand vous demandez à une IA de jouer l’expert, elle ne devient pas soudainement plus compétente. Elle ajuste son style pour coller à ce que « sonne expert » dans ses données d’entraînement. Un langage plus affirmé. Moins de prudence. Mais la connaissance de fond reste la même.
Un LLM prompté en « professeur d’Harvard » ne sait pas plus de choses qu’un LLM prompté en « débutant curieux ». Il sonne juste plus autoritaire.
Les nouveaux modèles ont changé la donne
C’est là que ça devient intéressant. En réponse au même thread HN, l’utilisateur bfeynman a eu un avis très direct :
“This used to work but new thinking models made this unnecessary for the most part.”
Ça colle à ce que beaucoup constatent. GPT-4o, Claude 3.5 Sonnet, et les modèles de raisonnement plus récents semblent moins dépendants des rôles que leurs prédécesseurs. L’écart entre « persona d’expert » et « aucune persona » s’est réduit.
Pourquoi ? Les modèles modernes infèrent mieux ce dont vous avez besoin à partir du contexte. Ils captent la nature de votre question sans qu’on leur attribue un rôle explicitement. Posez une question technique de code, ils répondent techniquement. Demandez de l’écriture créative, ils changent de registre automatiquement.
Le préfixe « tu es un expert » était peut-être un échafaudage utile pour des modèles plus anciens et plus petits. Pour les modèles de pointe en 2026, c’est souvent un surplus inutile.
Là où les rôles aident encore
Ça ne veut pas dire qu’il faut abandonner les rôles. Ils marchent bien dans certains cas.
Créatif et ouvert. Si vous voulez une voix ou un style précis, les personas aident. « Écris ça comme un roman noir » donne un résultat différent d’une demande générique. Le modèle a des patterns stylistiques dans lesquels puiser.
Fixer le ton et le registre. « Tu es une maîtresse de maternelle patiente » produit des explications différentes de « tu es un rédacteur de documentation technique ». Pas parce que l’un sait plus, mais parce que l’angle change.
Limiter le périmètre. Parfois, vous voulez que le modèle reste dans un cadre et ne parte pas dans tous les sens. Une persona de support client peut détourner plus naturellement les questions hors-sujet qu’une liste d’instructions.
Jeu de rôle et simulation. Si vous utilisez un LLM pour de l’entraînement au dialogue, des entretiens, ou de la fiction interactive, les personas sont essentielles. C’est le but.
Ce que les rôles ne font pas de façon fiable : rendre le modèle plus intelligent, plus précis, ou plus informé sur des faits auxquels il n’avait pas déjà accès.
Le problème de la spécificité
La recherche d’ExpertPrompting a trouvé quelque chose d’assez surprenant. En comparant le « vanilla prompting » au « vanilla prompting + description statique d’expert », les résultats étaient presque identiques. Les rôles génériques n’apportaient presque rien.
Mais des prompts d’expert détaillés et très orientés tâche, générés par un autre LLM, surperformaient nettement les deux.
Le pattern : les rôles vagues font peu. Les rôles détaillés, adaptés à une tâche précise, peuvent aider. Les personas générées par LLM faisaient souvent mieux que celles écrites par des humains.
Si vous utilisez un rôle, soyez précis. « Tu es un développeur Python spécialisé dans les pipelines de données, avec des opinions tranchées sur la gestion d’erreurs » vaut mieux que « tu es un expert en code ». Le modèle a besoin d’assez de détails pour savoir quels patterns activer.
Genre et représentation dans les données d’entraînement
Il y a un autre détail. Learn Prompting indique que, dans certaines tâches, des rôles masculins performent souvent mieux que des rôles féminins. Des rôles interpersonnels non intimes (ami, superviseur) donnaient de meilleurs résultats que des rôles métiers dans certains contextes.
Ce n’est pas une question d’opinion du modèle. C’est un reflet des déséquilibres dans les données d’entraînement. Si « senior engineer » dans le corpus penche vers certains profils, la conception que le modèle se fait de ce rôle porte ces biais.
À garder en tête. Ça ne change pas radicalement votre stratégie, mais ça rappelle que ces techniques touchent à des couches plus profondes de ce que les modèles apprennent.
Un autre angle : quel output voulez-vous vraiment ?
Le role prompting a toujours été un substitut pour autre chose : dire au modèle quel type de sortie vous voulez.
« Agis comme un expert » veut souvent dire « donne-moi une réponse détaillée et sûre d’elle ». Mais vous pouvez le dire directement. « Fournis une explication technique détaillée avec des exemples précis » marche souvent mieux que d’emballer la demande dans une persona.
« Tu es un écrivain créatif » veut dire « privilégie une prose engageante plutôt qu’une précision sèche ». Vous pouvez aussi le spécifier.
La persona est un raccourci. Parfois utile. Parfois non. Le modèle n’a pas d’identité à endosser. Il a des schémas à faire correspondre et des probabilités à échantillonner. Comprendre ça change la manière de penser le prompting.
Quand vous enlevez la métaphore du jeu de rôle, il reste une question plus simple : quelles caractéristiques de sortie voulez-vous ? Concentrez-vous là-dessus. Soyez direct. Le modèle suivra.
Quelques pistes à tester
Si vous voulez quand même expérimenter avec des rôles, voici des approches qui ont montré du potentiel :
Immersion en deux temps. Au lieu d’un simple « tu es X », certains chercheurs ont obtenu de meilleurs résultats avec une phase d’échauffement : le modèle discute d’abord de ce que ça implique d’être cet expert, puis il fait la tâche. L’article sur le role-play prompting a utilisé ça pour passer de 53,5 % à 63,8 %. Plus de travail, mais potentiellement plus efficace.
Faire générer la persona par le LLM. ExpertPrompting a montré que des descriptions d’experts générées par LLM faisaient mieux que celles écrites par des humains. Si vous avez besoin d’une persona, commencez par demander au modèle de générer le profil d’expert idéal pour votre tâche.
Cadrage par audience. Au lieu de « tu es X », essayez « tu l’expliques à X ». La recherche suggère que ce cadrage marche parfois mieux qu’une assignation d’identité. « Explique l’apprentissage automatique à un enfant curieux de 10 ans » vs « tu es un enseignant. Explique l’apprentissage automatique ».
Évitez-le pour l’accuracy factuelle. Les indices sont assez clairs : pour des questions factuelles, les rôles n’aident pas et peuvent même nuire. Posez une question nette, avec du bon contexte.
Ce que ça change pour votre façon de travailler
Le cadre « act as » n’a jamais été magique. C’était juste une façon de communiquer des préférences. Maintenant que les modèles comprennent mieux des préférences exprimées explicitement, ce cadre compte moins qu’avant.
Dans la plupart des cas, vous avez intérêt à :
- être précis sur ce que vous voulez
- donner le contexte utile
- montrer des exemples de bon output
- décrire le format attendu
Ça bat « tu es un expert » presque à chaque fois.
Mais si vous faites du créatif, construisez un chatbot avec une personnalité, ou avez besoin d’une voix précise, les rôles gardent du sens. Ils ne sont juste pas la technique universelle qu’on vend parfois.
Ça marche le mieux quand vous savez pourquoi vous l’utilisez. Pour façonner le ton ? Oui. Pour la précision factuelle ? Cherchez ailleurs.
Quelle technique de prompting avez-vous trouvée qui change vraiment la donne ? Ça vaudrait peut-être le coup de le tester plus systématiquement que n’importe quel rôle.