--- title: Role prompting: quando "agisci da esperto" funziona davvero (e quando no) description: La ricerca sul role prompting è mista. Ecco cosa sappiamo sui prompt con persona, quando aiutano e perché i modelli più recenti potrebbero non averne bisogno. date: February 5, 2026 author: Robert Soares category: prompt-engineering --- Hai visto questi prompt ovunque. “Agisci come un senior software engineer.” “Sei un esperto di marketing con 20 anni di esperienza.” “Fingi di essere un professore di Harvard specializzato in economia.” L’idea è semplice: dai un ruolo all’AI e lei dovrebbe rispondere da quella prospettiva. Come il method acting, ma per i modelli linguistici. Milioni di persone usano questa tecnica. La insegnano nei corsi di prompt engineering. È incorporata in un numero enorme di modelli e GPT personalizzati. Ma ecco la domanda scomoda che nessuno vuole davvero fare: funziona sul serio? La ricerca dice… dipende. ## Evidenze contrastanti Un paper intitolato "Better Zero-Shot Reasoning with Role-Play Prompting" ha mostrato [miglioramenti di accuratezza dal 53,5% al 63,8% su problemi di matematica “a parole”](https://www.prompthub.us/blog/role-prompting-does-adding-personas-to-your-prompts-really-make-a-difference) usando prompt basati su ruoli con GPT-3.5. È un salto significativo. Sembrava promettente. Poi i ricercatori hanno guardato meglio. Uno studio originariamente intitolato "When 'A Helpful Assistant' Is Not Really Helpful" [aveva inizialmente sostenuto che aggiungere ruoli interpersonali migliorasse in modo consistente le prestazioni](https://www.prompthub.us/blog/role-prompting-does-adding-personas-to-your-prompts-really-make-a-difference). Ma a ottobre 2024 gli autori hanno aggiornato i risultati. Dopo test su 4 famiglie di modelli e 2.410 domande fattuali, hanno cambiato conclusione: "personas in system prompts did not improve model performance across a range of questions compared to the control setting." È un’inversione totale. Learn Prompting ha fatto il suo esperimento. Hanno [testato 12 personas diverse su 2.000 domande MMLU usando GPT-4-turbo](https://www.prompthub.us/blog/role-prompting-does-adding-personas-to-your-prompts-really-make-a-difference). I risultati sono stati sorprendentemente uniformi tra le personas. La persona "idiot" ha superato la persona "genius". Rileggilo. Quindi… che succede? ## Il problema della fiducia Su Hacker News, l’utente GuB-42 [ha fatto un test](https://news.ycombinator.com/item?id=44194325) che cattura bene quello che molti sperimentano: > "I did a short test prompting ChatGPT do be an 'average developer, just smart enough not to get fired', an 'expert' and no persona. I got 3 different answers but I couldn't decide which one was the best." Le risposte erano diverse. Il tono cambiava. Ma la qualità reale? Difficile dirlo. GuB-42 ha espresso una preoccupazione più profonda: > "I fear that but asking a LLM to be an expert, it will get the confidence of an expert rather than the skills of an experts, and a manipulative AI is something I'd rather not have." È un punto importante. Quando chiedi a un’AI di “fare l’esperto”, non diventa improvvisamente più competente. Aggiusta lo stile per assomigliare a quello che nei dati di addestramento “suona da esperto”. Linguaggio più sicuro. Meno cautela. Ma la conoscenza di base è la stessa. Un LLM con prompt “professore di Harvard” non sa più cose di uno con prompt “principiante curioso”. Sembra solo più autorevole. ## I modelli più nuovi hanno cambiato le regole Qui diventa interessante. Rispondendo allo stesso thread su HN, l’utente bfeynman è stato secco: > "This used to work but new thinking models made this unnecessary for the most part." Questo coincide con quello che molti notano. GPT-4o, Claude 3.5 Sonnet e i modelli di ragionamento più recenti sembrano aver bisogno meno dei role prompt rispetto ai predecessori. Il divario tra “persona esperta” e “nessuna persona” si è ridotto. Perché? I modelli moderni sono più bravi a capire cosa ti serve dal contesto. Captano la natura della domanda senza bisogno di assegnazioni esplicite di ruolo. Fai una domanda tecnica di coding e rispondono in modo tecnico. Chiedi scrittura creativa e cambiano registro automaticamente. Il prefisso “sei un esperto” forse era un’impalcatura utile per modelli più vecchi e più piccoli. Per i modelli di frontiera del 2026, spesso è solo sovraccarico. ## Dove i ruoli aiutano ancora Questo non significa buttare via i prompt di ruolo. Funzionano bene in situazioni specifiche. **Creativo e a tema aperto.** Se vuoi una voce o uno stile preciso, le personas aiutano. “Scrivilo come un romanzo noir” produce un output diverso da una richiesta generica. Il modello ha schemi stilistici da cui attingere. **Impostare tono e registro.** “Sei un’insegnante di scuola materna paziente” crea spiegazioni diverse rispetto a “sei un autore di documentazione tecnica”. Non perché uno sappia di più, ma perché incornicia l’informazione in modo diverso. **Limitare l’ambito.** A volte vuoi che il modello resti “in personaggio” e non divaghi. Una persona da assistenza clienti può deviare domande fuori tema più naturalmente di istruzioni esplicite. **Roleplay e simulazione.** Se usi un LLM per esercitarti nei dialoghi, prepararti a un colloquio o scrivere narrativa interattiva, le personas sono essenziali. È il punto. Cosa non fanno in modo affidabile: rendere il modello più intelligente, più accurato o più competente su fatti a cui non aveva già accesso. ## Il problema della specificità La ricerca di [ExpertPrompting](https://www.prompthub.us/blog/role-prompting-does-adding-personas-to-your-prompts-really-make-a-difference) ha trovato qualcosa di inatteso. Quando hanno confrontato “vanilla prompting” con “vanilla prompting + una descrizione statica di esperto”, i risultati erano quasi identici. Le assegnazioni generiche aggiungevano pochissimo. Ma prompt di esperto dettagliati, specifici per il compito, generati da un altro LLM, hanno superato entrambi in modo netto. Lo schema: ruoli vaghi fanno poco. Ruoli dettagliati e su misura possono aiutare. Le personas generate da un LLM spesso battevano quelle scritte da umani. Se usi un ruolo, sii specifico. “Sei uno sviluppatore Python specializzato in pipeline di dati e hai opinioni forti sulla gestione degli errori” batte “sei un esperto di programmazione”. Il modello ha bisogno di dettagli per sapere quali schemi tirare fuori. ## Genere e rappresentazione nei dati di addestramento C’è un’altra complicazione. [Learn Prompting riporta](https://learnprompting.org/docs/advanced/zero_shot/role_prompting) che prompt con ruoli maschili spesso superano quelli con ruoli femminili in certe attività. Ruoli interpersonali non intimi (amico, supervisore) hanno dato risultati migliori rispetto a ruoli professionali in alcuni contesti. Non è una questione di “opinioni” del modello. Riflette squilibri nei dati di addestramento. Se “senior engineer” nel corpus tende verso certe demografie, la concezione del modello di quel ruolo porta con sé quei schemi. Da tenere a mente. Non cambia drasticamente la tua strategia di prompting, ma è un promemoria: queste tecniche si intrecciano con temi più profondi su come i modelli imparano. ## Un’altra prospettiva: che output vuoi davvero? Il role prompting è sempre stato un surrogato per un’altra cosa: dire al modello che tipo di output vuoi. “Agisci da esperto” spesso significa “dammi risposte dettagliate e sicure”. Ma puoi dirlo direttamente. “Fornisci una spiegazione tecnica dettagliata con esempi specifici” spesso funziona meglio che avvolgere la stessa richiesta in una persona. “Sei uno scrittore creativo” significa “prioritizza una prosa coinvolgente rispetto a un’accuratezza fredda”. Anche questo puoi specificarlo. La persona è una scorciatoia. A volte utile. A volte no. Il modello non ha un’identità da assumere. Ha schemi da seguire e probabilità da campionare. Capirlo cambia come pensi al prompting. Quando togli la metafora del roleplay, resta una domanda più semplice: quali caratteristiche di output vuoi? Concentrati su quelle. Sii diretto. Il modello seguirà. ## Alcune cose da provare Se vuoi comunque sperimentare con i ruoli, ecco approcci che hanno mostrato potenziale: **Immersione del ruolo in due fasi.** Invece di un “sei X” statico, alcuni ricercatori hanno avuto successo con una fase di riscaldamento in cui il modello prima discute com’è essere quell’esperto e poi affronta il compito. Lo [studio sul role-play prompting](https://www.prompthub.us/blog/role-prompting-does-adding-personas-to-your-prompts-really-make-a-difference) lo ha usato per ottenere quel salto da 53,5% a 63,8%. Più lavoro, ma forse più efficace. **Fai generare la persona al LLM.** ExpertPrompting ha mostrato che descrizioni di esperti generate da un LLM hanno superato quelle scritte da umani. Se ti serve una persona, considera di chiedere al modello di generare prima il profilo ideale di esperto per il tuo compito. **Inquadramento per pubblico.** Invece di “sei X”, prova “stai spiegando questo a X”. La [ricerca suggerisce](https://learnprompting.org/docs/advanced/zero_shot/role_prompting) che incorniciare per pubblico a volte funziona meglio dell’assegnazione d’identità. “Spiega il machine learning a un bambino curioso di 10 anni” vs “sei un insegnante. Spiega il machine learning”. **Evitalo quando conta l’accuratezza.** Le evidenze sono abbastanza chiare: per domande fattuali, i prompt di ruolo non aiutano e possono peggiorare. Chiedi in modo chiaro con buon contesto. ## Cosa significa per il tuo modo di lavorare La cornice “act as” non è mai stata magia. È sempre stata solo un modo per comunicare preferenze. Ora che i modelli capiscono meglio preferenze espresse in modo diretto, la cornice conta meno di prima. Per la maggior parte dei casi pratici, probabilmente conviene: - essere specifico su cosa vuoi - dare contesto rilevante - mostrare esempi di buon output - descrivere il formato che ti serve Queste cose battono “sei un esperto” quasi sempre. Ma se stai facendo lavoro creativo, costruendo un chatbot con personalità o ti serve una voce specifica, i ruoli hanno ancora senso. Solo che non sono la tecnica universale per cui vengono spesso spacciati. La tecnica funziona meglio quando sai perché la stai usando. Per modellare il tono? Ottimo. Per accuratezza fattuale? Cerca altrove. Che tecnica di prompting hai trovato che fa davvero la differenza? Quella potrebbe valere la pena di essere testata più sistematicamente di qualsiasi assegnazione di ruolo.