--- title: Mega-prompt vs micro-prompt: quando esagerare e quando restare essenziali description: Meglio scrivere mega-prompt dettagliati o tenerla corta? Scopri quando funziona ciascun approccio e come scegliere la lunghezza giusta del prompt per il tuo compito. date: February 5, 2026 author: Robert Soares category: prompt-engineering --- La settimana scorsa ho passato tre ore a scrivere il prompt perfetto. Tutti i casi limite coperti. Ogni regola di formattazione specificata. Dodici paragrafi di istruzioni dettagliate per un semplice modello di email. Il risultato era peggiore di un prompt di due frasi che avevo buttato giù il giorno prima. Succede più spesso di quanto la gente ammetta. Diamo per scontato che più dettagli significhino un output migliore, che i prompt più lunghi dimostrino più competenza, che la completezza vinca sempre. A volte è così. Ma a volte tutta quella cura finisce solo per confondere il modello o gonfiare la bolletta dell’API senza alcun vantaggio. La vera domanda non è quale approccio sia "giusto". È sapere quando ciascuno dei due aiuta davvero. ## Il paradosso della lunghezza Ecco cosa continua a emergere dalla ricerca: la lunghezza del prompt e la qualità dell’output hanno una relazione complicata. Una [discussione su Hacker News sull’ingegneria dei prompt](https://news.ycombinator.com/item?id=37473992) ha colto bene questa tensione. Ricercatori che cercavano di capire il legame tra lunghezza e prestazioni hanno scoperto qualcosa di controintuitivo: "Prompt length would play a big factor in the performance of this approach. In practice, though, we discovered that it's actually not as big a factor as we predicted." Un prompt da 410 token e uno da 57 token hanno entrambi funzionato abbastanza bene nei loro test. Un prompt da 88 token ha reso peggio. La sola lunghezza non spiegava quasi nulla. Cosa contava davvero? La precisione. Gli stessi ricercatori hanno concluso che "the relationship between performance of the estimation and the prompt structure is less about length, and more about 'ambiguity.'" Le formulazioni troppo aperte peggioravano i risultati a prescindere dal numero di parole. È in linea con ciò che chi lo usa sul campo continua a scoprire. [Secondo un’analisi di Ruben Hassid](https://ruben.substack.com/p/long), "Prompts exceeding 500 words generally show diminishing returns in terms of output quality." E peggiora più vai lungo: "For every 100 words added beyond the 500-word threshold, the model's comprehension can drop by 12%." Quei numeri variano a seconda del modello e del compito. Ma il principio regge. ## Come sono davvero i prompt lunghi Andrew Ng e il suo team di DeepLearning.AI chiamano i prompt dettagliati "mega-prompts". Secondo la loro [ricerca sulla sofisticazione dei prompt](https://staging.deeplearning.ai/the-batch/from-prompts-to-mega-prompts/), sono istruzioni lunghe "1 to 2 pages long", con una guida esplicita che copre ogni aspetto del compito. Ng sostiene che la maggior parte dei team non stia spingendo abbastanza: "I still see teams not going far enough in terms of writing detailed instructions." Un mega-prompt scritto bene potrebbe includere: - Definizione specifica di ruolo e competenze - Contesto di base sulla situazione - Più esempi dell’output desiderato - Regole di formattazione esplicite - Vincoli e cose da evitare - Criteri di qualità per la risposta Ecco come appare davvero uno di questi nella pratica: ``` Sei un copywriter B2B senior specializzato in software enterprise. Il tuo lettore ideale è un VP Marketing in un’azienda di medie dimensioni che si è già scottato con fornitori di IA che promettevano troppo. Scrivi il testo di prodotto per DataSync, una piattaforma di integrazione dati. Differenziante chiave: siamo onesti sui limiti. Il nostro strumento gestisce perfettamente l’80% delle integrazioni e siamo trasparenti sul 20% che richiede lavoro su misura. Requisiti: - Titolo sotto le 12 parole, focalizzato sul beneficio - Sottotitolo che riconosce lo scetticismo del nostro pubblico - Tre punti elenco sulle funzionalità - Un punto elenco sui limiti noti (questo crea fiducia) - CTA focalizzata sul vederlo funzionare, non sul comprare Tono: sicuro di sé ma mai esaltato. Niente "revolutionize" o "transform." ``` Quel prompt lascia poco al caso. L’IA sa esattamente cosa ci si aspetta. ## Come sono davvero i prompt corti All’estremo opposto c’è il micro-prompt. Breve. Focalizzato. Un compito alla volta. ``` Scrivi un titolo per una piattaforma di integrazione dati onesta. Massimo 10 parole. ``` Stesso compito generale. Una frazione delle parole. L’IA riempie tutto il resto con scelte predefinite ragionevoli. Uno sviluppatore su [Hacker News ha descritto la sua evoluzione verso la brevità](https://news.ycombinator.com/item?id=38657029): "I've stopped writing well-formed requests/questions and now I just state things like: 'sed to replace line in a text file?'" Nonostante l’input telegrafico, il modello ha comunque dato risposte utili. Non ogni compito ha bisogno di impalcature elaborate. ## La dimensione dei costi nascosti C’è una cosa di cui si parla di rado quando si discute di lunghezza dei prompt: ogni token costa. Con gli attuali [prezzi dell’API OpenAI](https://pricepertoken.com/pricing-page/provider/openai), GPT-4o costa $2.50 per milione di token in input e $10.00 per milione di token in output. Può sembrare irrilevante per una singola richiesta. Ma scala. Un prompt da 500 parole sta grossomodo sui 650 token. Un prompt da 50 parole sta grossomodo sui 65 token. Se fai 10.000 chiamate API al giorno, la differenza tra mega e micro si accumula in fretta: - prompt da 650 token: 6.5 milioni di token = $16.25/giorno di costi input - prompt da 65 token: 650.000 token = $1.63/giorno di costi input Sono quasi $5.300 l’anno di risparmio solo sui token di input. E senza nemmeno contare l’output più grande che i prompt dettagliati spesso innescano. Anche la latenza si somma. I prompt più lunghi richiedono più tempo per essere elaborati. Se la tua applicazione ha bisogno di risposte rapide, quel prompt di sistema da 500 parole crea un ritardo percepibile a ogni richiesta. Per elaborazioni in blocco o prompt da usare una volta sola, il costo conta meno. Per sistemi in produzione che gestiscono migliaia di richieste, conta enormemente. ## Quando i dettagli fanno male L’idea che "più è meglio" si rompe in modi specifici e prevedibili. Per prima cosa, c’è il problema del lost-in-the-middle. L’[analisi di Ruben Hassid sulla lunghezza dei prompt](https://ruben.substack.com/p/long) lo dice senza giri di parole: "The single greatest threat to output quality is prompt bloat." Quando i prompt diventano lunghi, le informazioni nel mezzo tendono a venire ignorate. Requisiti critici sepolti nel paragrafo otto potrebbero anche non esistere. Secondo, arrivano le contraddizioni. Scrivi abbastanza istruzioni e prima o poi dirai "sii conciso ma completo" oppure "sii creativo ma segui questo formato esatto". Il modello non può soddisfarle entrambe. Ne sceglie una e ignora l’altra, oppure produce un output confuso cercando di stare nel mezzo. Terzo, c’è il sovraccarico cognitivo. Un professionista in un [thread di Hacker News sulle raccolte di prompt](https://news.ycombinator.com/item?id=44182188) ha descritto la sua esperienza: "Sometimes I get the feeling that making super long and intricate prompts reduces the cognitive performance of the model." La sua soluzione? "My usage has converged to making very simple and minimalistic prompts and doing minor adjustments after a few iterations." Il modello non è un collega umano che apprezza il contesto. È un riconoscitore di schemi. Troppi schemi da riconoscere significa, in media, riconoscere peggio. ## Quando i dettagli aiutano davvero Nulla di tutto questo significa che i mega-prompt siano sbagliati. Risolvono problemi reali. Quando l’output va direttamente ai clienti senza revisione, ti serve controllo. Un prompt lasco che ogni tanto produce testo fuori tono può andare bene per bozze. È un disastro per campagne email automatizzate. Quando riuserai il prompt centinaia di volte, l’investimento ripaga. Passare due ore a perfezionare un prompt che eseguirai 5.000 volte è matematica sensata. Passare due ore su una richiesta una tantum no. Quando più parti devono essere coerenti, un prompt unico batte diversi prompt separati. Una landing page ha bisogno di titolo, sottotitolo, corpo e CTA che funzionino insieme. Micro-prompt separati potrebbero essere buoni singolarmente ma stonare quando li combini. Un altro sviluppatore nello [stesso thread su Hacker News](https://news.ycombinator.com/item?id=38657029) ha condiviso il suo approccio: "Some of my best system prompts are >20 lines of text, and _all_ of them are necessary." Il suo metodo per costruire questi prompt era rivelatore: "every time the model does something undesired, even minor I add an explicit rule in the system prompt to handle it." La lunghezza nasceva da bisogni reali, non da una completezza teorica. Questa è la distinzione chiave. I prompt lunghi che crescono in modo organico da fallimenti reali funzionano. I prompt lunghi scritti per coprire casi limite ipotetici spesso aggiungono solo rumore. ## L’alternativa a catena C’è una via di mezzo che evita la trappola del mega-prompt, mantenendo però il controllo che ti serve. [Paul Shirer sostiene nella sua analisi delle strategie di prompting](https://www.linkedin.com/pulse/mega-prompts-hype-chain-better-paul-shirer-hqbmc) che, per la maggior parte dei compiti, i prompt a catena battono i mega-prompt. Il suo ragionamento: "You aren't stuck with the result of a mega prompt that might have gone astray due to an overlooked detail." Con le catene, ogni passaggio è un’istruzione breve e focalizzata: 1. "Genera cinque idee di titolo per questo prodotto." 2. "Prendi il concetto n. 3 e scrivi tre varianti." 3. "Ora scrivi il testo di supporto per la variante migliore." 4. "Aggiungi una CTA coerente con il tono del titolo." Ogni output informa il successivo. Se il passaggio due va storto, lo correggi prima del passaggio tre, non dopo che l’intero mega-prompt è stato eseguito. Come dice Shirer, i prompt a catena funzionano come "inching closer with each shot, adjusting your aim according to where the last arrow landed." Il compromesso è la velocità. Le catene richiedono più andate e ritorni. Per un uso interattivo va benissimo. Per elaborare in blocco migliaia di elementi, il costo in tempo si accumula. ## Leggere i segnali Come fai a capire se il tuo prompt è troppo lungo o troppo corto? Troppo lungo: - L’output ignora istruzioni che avevi inserito apposta - Stai ripetendo lo stesso punto con parole diverse - Ti sorprendi a contraddire sezioni precedenti - La maggior parte delle frasi è "per sicurezza" invece che indispensabile - L’IA sembra confusa su cosa vuoi davvero Troppo corto: - L’output è generico quando ti serviva specificità - Le stesse correzioni successive ogni volta - Assunzioni sbagliate su pubblico, tono o formato - Continui ad aggiungere "includi anche..." come ripensamento Lo schema per la maggior parte dei compiti: parti corto, aggiungi solo ciò che serve in base ai fallimenti reali, fermati quando l’output è abbastanza buono. ## Un metodo che funziona Lascia perdere il dibattito mega-vs-micro. Fatti invece queste domande. Quanto è importante questo output? Gli output critici che finiscono direttamente in produzione giustificano prompt più dettagliati. Bozze ed esplorazioni no. Quanto è riutilizzabile questo prompt? Vent’usi giustificano trenta minuti di lavoro. Un solo uso giustifica due minuti. Puoi fare più tentativi? Se puoi rilanciare facilmente con piccole correzioni, parti corto. Se è un lavoro in blocco che deve riuscire al primo colpo, metti i dettagli subito. Qual è il contesto dei costi? Un uso API ad alto volume significa che ogni token conta. Richieste singole significano che la differenza è trascurabile. Sai esattamente cosa vuoi? La certezza favorisce prompt dettagliati. L’esplorazione favorisce prompt corti con iterazioni rapide. ## Il test della pertinenza Ecco la regola più semplice possibile: guarda ogni frase del tuo prompt e chiediti se toglierla cambierebbe l’output. Se sì, tienila. Il contesto pertinente migliora i risultati. Se no, tagliala. Il riempitivo irrilevante diluisce soltanto l’attenzione. Un professionista in una [discussione sull’ingegneria dei prompt](https://news.ycombinator.com/item?id=44182188) lo ha riassunto perfettamente: "Irrelevant context is worse than no context, but it doesn't mean a long prompt of *relevant* context is bad." Quella distinzione conta più di qualunque linea guida sul numero di parole. Un prompt da 50 parole pieno di fuffa rende peggio di un prompt da 300 parole dove ogni parola si è guadagnata il suo posto. Un prompt da 300 parole pieno di imbottitura rende peggio di un prompt da 50 parole focalizzato. Valuta la pertinenza, non la lunghezza. ## Cosa cambia davvero il comportamento I prompt più efficaci condividono una qualità che non ha nulla a che fare con la lunghezza. Riduccono l’ambiguità. "Scrivi qualcosa di buono" è breve ma inutile. "Scrivi una descrizione prodotto di 100 parole per una borraccia in acciaio inox, rivolta a chi ama l’outdoor, enfatizzando la robustezza" è più lungo, ma ogni parola serve a qualcosa. La ricerca lo conferma. Tornando a quella [analisi su Hacker News](https://news.ycombinator.com/item?id=37473992), l’intuizione centrale era che l’ingegneria dei prompt riguarda la precisione linguistica: "say what you mean in the most linguistically precise way possible." Non più parole. Non meno parole. Le parole giuste. Alcuni compiti hanno bisogno di molte parole giuste. Altri di poche. L’abilità non è schierarsi nel dibattito mega-vs-micro. È imparare a scrivere esattamente quanto basta per ogni situazione, e riconoscere in quale situazione ti trovi davvero. Parti da ciò che il compito richiede. Aggiungi ciò che i tuoi fallimenti ti insegnano. Fermati quando l’output è abbastanza buono. La lunghezza del prompt che ne risulta è la lunghezza del prompt che era giusta.