Il cursore lampeggia. Premi Invio. L’IA risponde con qualcosa che ti fa venir voglia di chiudere il portatile e fare due passi.
Ci siamo passati tutti.
Hai chiesto un’email professionale e ti è arrivato un saggio sconclusionato con sei punti esclamativi. Volevi consigli specifici per la tua situazione e hai ricevuto consigli così generici che potrebbero valere per chiunque, letteralmente, sulla Terra. Hai chiesto un riassunto semplice e ti è arrivato un trattato filosofico sulla natura stessa del riassunto.
L’istinto naturale è cancellare tutto e ricominciare, ma spesso è la mossa sbagliata perché butta via le informazioni diagnostiche che hai proprio davanti agli occhi. Una risposta scadente ti sta dicendo qualcosa. Il trucco è capire che cosa.
L’arte di leggere il fallimento
Un prompt fallito è un messaggio dell’IA su ciò che ha capito, o più precisamente, su ciò che ha frainteso.
Quando la risposta va storta, di solito rientra in schemi riconoscibili, e ogni schema punta a un problema diverso nel modo in cui hai strutturato la richiesta. Una risposta generica significa contesto mancante. Formato sbagliato significa specifiche poco chiare. Punto mancato significa formulazione ambigua.
Un commentatore su Hacker News ha centrato la frustrazione alla perfezione:
“But it essentially never makes what you expect… I’ve spent many hours on Midjourney”
Ore passate aspettandosi una cosa e ottenendone un’altra. Questa è l’esperienza universale di lavorare con sistemi di IA, e non significa che stai sbagliando. Significa che stai imparando la lingua.
La vaghezza uccide
La modalità di fallimento più comune è chiedere qualcosa senza definire che cosa sia, in concreto, quel qualcosa.
“Scrivimi un’email di marketing” non dà all’IA nulla su cui lavorare. Che pubblico? Che prodotto? Che tono? Che lunghezza? Che cosa dovrebbe fare il lettore dopo averla letta? Senza risposte, l’IA riempie i buchi con i default, e i default, per definizione, sono generici.
La correzione non è aggiungere più parole. I prompt sbagliati non sono troppo corti. Sono troppo vaghi. Un prompt di dieci parole con tre dettagli specifici batterà un prompt di cento parole che non inchioda mai niente.
Guarda la differenza tra questi due:
“Aiutami a scrivere un’email ai clienti sulla nostra nuova funzionalità.”
oppure
“Scrivi un’email di 150 parole per annunciare la nostra nuova funzionalità di pianificazione ai clienti esistenti che l’hanno richiesta. Tono: amichevole, non troppo commerciale. Includi un unico invito all’azione chiaro per provare la funzionalità.”
Il secondo prompt è più lungo, ma la lunghezza non è il punto. Ogni parola in più lavora. Non c’è riempitivo. Questa è la differenza.
Quando le istruzioni si contraddicono
A volte l’IA non è confusa. Lo sei tu.
“Sii esaustivo ma resta breve.” È una contraddizione. Stai chiedendo due cose incompatibili, e l’IA deve sceglierne una, o peggio, provare a soddisfarle entrambe e fallire su entrambe.
“Sii creativo ma resta sui fatti.” Un’altra trappola. La creatività implica invenzione; i fatti implicano vincolo. Puoi avere una presentazione creativa dei fatti, oppure un ancoraggio fattuale con qualche guizzo creativo, ma dire all’IA di essere entrambe le cose senza specificare come interagiscono produce risposte confuse.
Queste contraddizioni sono facili da scrivere e difficili da notare nei propri prompt perché tu sai che cosa intendevi. L’IA non ha accesso alle tue intenzioni, solo alle tue parole.
Rileggi il prompt come lo leggerebbe un interprete ostile. Che cosa potrebbe essere frainteso? Quali istruzioni potrebbero entrare in conflitto? Dove hai dato per scontato che l’IA avrebbe capito che cosa volevi davvero?
Il prompt sovraccarico
Un altro commentatore su Hacker News ha centrato un problema correlato che tormenta chi lavora sui prompt in sistemi più grandi:
“a 3,000-token system prompt isn’t ‘logic’, it’s legacy code that no one wants to touch. It’s brittle, hard to test, and expensive to run. It is Technical Debt.”
Vale anche per i prompt singoli. Quando infili troppe cose in una sola richiesta, la qualità peggiora ovunque.
“Scrivi un post sul blog e crea cinque post per i social e suggerisci degli oggetti per le email e dimmi anche quali parole chiave dovrei puntare” non è un compito solo. Sono quattro compiti con un impermeabile, che fingono di essere un unico compito. L’IA proverà a farli tutti e non ne azzeccherà nessuno.
Spezzalo. Una cosa alla volta. Usa il risultato del primo passo come base per il secondo. È più lento, ma produce risultati nettamente migliori.
I fallimenti di formato
Volevi un elenco puntato. Hai ottenuto prosa. Hai chiesto JSON. Hai ottenuto una descrizione di che cosa conterrebbe il JSON. Hai chiesto 200 parole. Ne hai ottenute 800.
I fallimenti di formato succedono quando dai per scontato che l’IA indovinerà e invece indovina male.
La soluzione è imbarazzantemente semplice: di’ che formato vuoi. Non “dammi qualche idea” ma “dammi 5 idee come elenco numerato, una frase ciascuna.” Non “riassumi questo” ma “riassumi in 3 punti elenco per un totale di meno di 100 parole.”
Quando il formato è insolito o complesso, mostra un esempio. I sistemi di IA sono eccellenti nel riconoscimento di schemi, e un modello di ciò che vuoi è più chiaro che descriverlo.
Il telefono senza fili
Le conversazioni lunghe creano una modalità di fallimento sottile che è facile non vedere.
Hai iniziato con un obiettivo chiaro. Quindici scambi dopo, il contesto è scivolato, le istruzioni iniziali si sono sbiadite e l’IA si è aggrappata a qualcosa che hai detto di sfuggita come se fosse il punto principale.
È il telefono senza fili che si gioca in tempo reale. Le informazioni si degradano con la distanza.
La correzione è la riformulazione periodica del contesto: ricordare esplicitamente all’IA i parametri chiave ogni pochi scambi in una conversazione lunga. “Promemoria veloce: stiamo scrivendo per [pubblico], puntiamo a [tono] e l’obiettivo è [risultato specifico].” Sembra ridondante, ma impedisce la deriva.
I fallimenti fattuali sono diversi
Quando l’IA si inventa le cose, è un’altra categoria di problema.
Non puoi uscire da un’allucinazione con un prompt, perché l’IA non sta fallendo nel capire le istruzioni. Sta fallendo nel sapere le cose. Nessuna formulazione furba la farà ricordare un fatto che non ha mai imparato o generare informazioni accurate su eventi successivi alla data limite del suo addestramento.
Per i contenuti fattuali, l’approccio cambia: fornisci i fatti. Dai all’IA le statistiche, le citazioni, i dati, le informazioni specifiche che contano. Lasciale gestire struttura, flusso e presentazione mentre tu gestisci l’accuratezza.
Chiedere a un’IA di “includere statistiche rilevanti” significa chiederle di indovinare quali statistiche potrebbero essere vere. Darle “usa queste tre statistiche: [dati reali verificati]” ti tiene al comando dell’accuratezza.
Diagnosi prima della chirurgia
Quando il risultato non funziona, resisti alla tentazione di riscrivere subito. Prima, capisci che cosa è fallito.
È generico? Cerca il contesto mancante. Il formato è sbagliato? Controlla se hai specificato il formato. Ha mancato il punto? Vai a caccia dell’ambiguità nella formulazione. È contraddittorio? Esamina le istruzioni in cerca di conflitti. È superficiale? Chiediti se hai davvero chiesto profondità.
Ogni tipo di fallimento ha una correzione diversa, e applicare quella sbagliata fa perdere tempo senza insegnarti niente.
Questo passo diagnostico richiede trenta secondi. Saltarlo e riscrivere da zero richiede cinque minuti e spesso ricrea lo stesso problema con parole diverse.
Il ciclo di iterazione
Una volta identificato il tipo di fallimento, fai una modifica. Provala. Guarda che succede.
Sembra tedioso. È tedioso. Ed è comunque più veloce che cambiare cinque cose in una volta e non avere idea di quale cambiamento abbia aiutato o peggiorato.
Il test a variabile singola funziona nell’ingegneria dei prompt come funziona nella scienza e nei test A/B. Cambia una cosa, osserva il risultato, aggiusta l’ipotesi, ripeti.
La tentazione di riscrivere tutto nasce dalla frustrazione, non dalla strategia. La frustrazione produce azione senza apprendimento. L’iterazione sistematica produce apprendimento che puoi applicare a ogni prompt futuro.
Quando dare fuoco a tutto
A volte l’iterazione non basterà.
Se hai fatto quattro o cinque correzioni mirate e non migliora nulla, il prompt potrebbe essere sbagliato a livello strutturale. Il compito di base potrebbe non essere chiaro a te, non solo all’IA. Potresti stare chiedendo la cosa sbagliata, punto.
Segnali che dovresti ricominciare:
L’IA sembra genuinamente confusa su ciò che stai chiedendo, non solo dà risposte mediocri ma sembra affrontare una domanda completamente diversa. Le tue correzioni continuano a spostare il problema invece di risolverlo. Ti accorgi a metà diagnosi che ciò che hai chiesto non è davvero ciò di cui hai bisogno.
Ricominciare non è un fallimento. A volte devi scrivere un prompt brutto per scoprire che aspetto abbia un buon prompt per il tuo obiettivo reale.
La verità scomoda
L’ingegneria dei prompt è spesso insoddisfacente perché sembra che dovrebbe essere più facile di così.
Stai scrivendo in inglese semplice. L’IA capisce l’inglese. Perché non funziona e basta?
Perché il linguaggio naturale è intrinsecamente ambiguo, perché ciò che è ovvio per te non è ovvio per un modello statistico, perché l’IA è molto brava a produrre testo plausibile che rispecchia schemi nei suoi dati di addestramento e meno brava a capire di che cosa hai bisogno, nello specifico.
Questo non sparirà. Modelli migliori ridurranno un po’ di attrito, ma la sfida fondamentale di comunicare un’intenzione precisa attraverso un linguaggio impreciso è un problema umano, non tecnologico.
Imparare a diagnosticare i prompt significa imparare a comunicare con più precisione di quanto richieda una conversazione normale, e questa abilità si trasferisce anche alla comunicazione tra persone. Chi scrive buoni prompt scrive email più chiare, crea documentazione migliore, dà feedback più utile.
Il cursore lampeggia. Ci riprovi. Alla fine, funziona. La domanda è se hai imparato qualcosa nel processo o se sei solo stato fortunato. La diagnosi ti dà l’apprendimento. La riscrittura casuale ti dà la fortuna. Una di queste cose si accumula nel tempo.