prompt-engineering
9 min read
View as Markdown

Prompt di sistema: le istruzioni nascoste che plasmano ogni risposta dell’IA

I prompt di sistema sono le regole invisibili che dicono all’IA come comportarsi prima ancora che tu faccia una domanda. Ecco come funzionano, perché contano e come scriverne uno tuo.

Robert Soares

Ogni volta che chatti con ChatGPT, Claude o qualunque altro assistente IA, c’è già stata una conversazione che non hai visto. Prima della tua prima parola, delle istruzioni hanno già deciso come il modello ti risponderà. Queste regole invisibili sono i prompt di sistema.

Sono potenti. Per lo più invisibili agli utenti finali. E se stai costruendo qualcosa con l’IA, devi capirli.

La conversazione prima della tua conversazione

Quando apri ChatGPT e scrivi “scrivimi una poesia”, il modello non parte da zero. OpenAI gli ha già dato pagine di istruzioni su come comportarsi. Essere utile. Non fare danni. Rifiutare certe richieste. Formattare le risposte in un certo modo. Non fingere di avere emozioni che non hai.

Questa pre-conversazione è il prompt di sistema.

Parte prima del tuo input. Plasma tutto ciò che viene dopo. Ogni prodotto IA che hai usato ne ha uno, anche se l’azienda non lo pubblica.

La differenza tra un prompt utente e un prompt di sistema è semplice ma importante. Il tuo prompt è una richiesta. Il prompt di sistema è il contesto che stabilisce come quella richiesta verrà gestita. Tu chiedi “spiegami la fisica quantistica”. Il prompt di sistema ha già deciso se spiegartela come se avessi cinque anni o come se avessi un dottorato, se essere informale o formale, se inserire avvertenze o andare dritto al punto.

Pensa al prompt di sistema come alla combinazione tra retroscena e mansione dell’IA. Non è solo ciò che l’IA sa. È chi l’IA sta fingendo di essere.

Cosa controllano davvero i prompt di sistema

I prompt di sistema possono influenzare quasi tutto di una risposta dell’IA.

Persona e voce. Puoi dire a un’IA di rispondere come un personaggio specifico, con tratti di personalità precisi. Un bot di assistenza clienti suona diverso da un assistente di scrittura creativa. È il prompt di sistema a definire questa cosa.

Formato di uscita. Rispondi sempre a punti elenco. Includi sempre esempi di codice. Non usare mai emoji. Struttura le risposte con intestazioni. Questi vincoli di formattazione vivono nel prompt di sistema.

Confini di comportamento. Quali argomenti evitare. Quali richieste rifiutare. Quando chiedere chiarimenti invece di procedere. Qui ci sono i paletti.

Vincoli di conoscenza. Parla solo di cucina. Fingi di non sapere nulla dei concorrenti. Resta nel personaggio di uno storico medievale che non sa nulla della tecnologia moderna.

Lunghezza e stile della risposta. Sii conciso. Sii esaustivo. Spiega il tuo ragionamento. Non attenuare ogni affermazione. Queste regolazioni di tono arrivano dai prompt di sistema.

minimaxir, a developer who has published extensively about working with AI APIs, shared their experience on Hacker News: “Some of my best system prompts are >20 lines of text, and all of them are necessary to get the model to behave. The examples are also too polite and conversational: you can give more strict commands and in my experience it works better.”

Quell’osservazione combacia con ciò che scopre la maggior parte di chi ci lavora. I prompt brevi danno risultati incoerenti. I prompt dettagliati danno comportamenti affidabili.

Un semplice esempio di prompt di sistema

Ecco un prompt di sistema base per un assistente di assistenza clienti:

Sei un addetto all’assistenza clienti di TechGadget, un’azienda che vende
dispositivi per la casa intelligente. Il tuo tono è cordiale ma professionale.

Quando aiuti i clienti:
- Fai domande di chiarimento se il problema non è chiaro
- Fornisci istruzioni di risoluzione dei problemi passo dopo passo
- Offri di inoltrare a un operatore umano i casi complessi
- Non fare mai promesse sui rimborsi senza l’approvazione di un responsabile

Parli solo dei prodotti TechGadget. Se ti chiedono di concorrenti o
argomenti non pertinenti, reindirizza con cortesia su come puoi aiutare con i
prodotti TechGadget.

Formatta le risposte con intestazioni chiare e passaggi numerati
quando dai istruzioni.

Non è complicato. È specifico. Dice all’IA quale ruolo interpretare, quali vincoli seguire e come formattare le risposte. Ogni prompt di sistema che funziona condivide queste caratteristiche.

La trappola della semplicità

C’è la tentazione di scrivere prompt di sistema minimalisti. Basta dirgli di essere un assistente utile e lasciare che capisca il resto. Funziona nelle demo. Fallisce in produzione.

Senza istruzioni specifiche, i modelli IA tornano alle impostazioni di default del loro addestramento. Quelle impostazioni sono pensate per l’uso generale, non per la tua applicazione. Il risultato sono risposte corrette ma sbagliate per il tuo contesto.

electrondood, another Hacker News commenter, shared an observation about the opposite extreme: “I found that far less prompt is required for something like ChatGPT. I’ve stopped writing well-formed requests/questions and now I just state things like: ‘sed to replace line in a text file?’ … It still just gives me what I need to know.”

Entrambe le osservazioni sono vere, e qui sta il punto. Per un uso personale veloce, i prompt minimalisti vanno bene. Per prodotti in cui ti serve un comportamento coerente e prevedibile su migliaia di interazioni, i prompt dettagliati sono essenziali. È il contesto a decidere quanta struttura ti serve.

Come costruire prompt di sistema efficaci

Parti dal ruolo. Che cosa sta fingendo di essere questa IA? Addetto all’assistenza clienti, tutor di programmazione, partner di scrittura creativa, assistente di ricerca legale. Sii specifico sul personaggio e sul contesto.

Aggiungi i vincoli. Cosa non deve mai fare? Quali argomenti sono vietati? In che formato devono essere le risposte? Che tono? Queste sponde impediscono al modello di scivolare in un territorio inutile.

Includi esempi. Se vuoi risposte in un certo formato, mostra quel formato. Se vuoi un certo livello di dettaglio, dimostralo. I modelli imparano dagli schemi in modo più affidabile che da descrizioni astratte.

Testa i casi limite. Cosa succede quando qualcuno chiede qualcosa fuori dallo scopo? E se prova a far uscire l’IA dal personaggio? E se è deliberatamente ostile? Il tuo prompt di sistema deve gestire questi scenari con grazia.

Itera in base ai fallimenti. Ogni volta che l’IA fa qualcosa di sbagliato, aggiungi una regola per prevenire quel fallimento specifico. È noioso. È anche il modo in cui ottieni un comportamento affidabile.

Quando i prompt di sistema falliscono

Non sono magia. Ci sono limiti reali.

La lunghezza costa token. I prompt di sistema lunghi consumano la tua finestra di contesto. Nelle applicazioni con molte conversazioni, questo conta. Stai pagando quei token a ogni singola chiamata.

Le istruzioni possono entrare in conflitto. Dici a un’IA di essere concisa e anche di essere esaustiva. Dici di essere amichevole ma anche formale. Queste tensioni creano comportamenti imprevedibili. La chiarezza richiede scelte.

Gli utenti furbi possono aggirarli. La storia dei prodotti IA è piena di esempi di utenti che convincono i chatbot a ignorare il prompt di sistema. Il jailbreak è una preoccupazione reale per le applicazioni in produzione.

Il comportamento deriva nelle conversazioni lunghe. Il prompt di sistema sta in cima al contesto. Man mano che la conversazione si allunga, i messaggi più recenti hanno più influenza di quelli più vecchi. Questo si chiama deriva del contesto (context drift), e può far sì che l’IA dimentichi gradualmente le istruzioni.

Gli aggiornamenti del modello possono romperli. Un prompt di sistema che funziona perfettamente con GPT-4 potrebbe comportarsi in modo diverso con GPT-4o. Modelli diversi interpretano le istruzioni in modo diverso. Testare su più modelli è essenziale.

I prompt di sistema nella pratica

Se usi l’IA tramite un’app o un prodotto, qualcuno ha scritto il prompt di sistema. Tu non lo controlli. Ti muovi al suo interno.

Se stai costruendo con le API di IA, controlli il prompt di sistema completamente. È potente, ma richiede attenzione.

Se usi la funzione Custom Instructions di ChatGPT, stai scrivendo un prompt di sistema personale. Parte prima di ogni conversazione e modella il comportamento predefinito delle tue chat.

Per uso personale: scrivi Custom Instructions che descrivano come lavori meglio. Che livello di dettaglio vuoi? Che formato preferisci? Cosa dovrebbe dare per scontato l’IA sul tuo contesto?

Per costruire prodotti: tratta i prompt di sistema come codice di produzione. Mettili sotto controllo versione. Testali. Documenta perché esiste ogni istruzione. Definisci un processo per aggiornarli in base al feedback degli utenti.

Per sperimentare: prova più varianti del prompt di sistema. Misura quali producono risultati migliori. Piccoli cambiamenti possono avere grandi effetti sulla qualità delle risposte.

La competizione invisibile

Ogni grande assistente IA ha un prompt di sistema. La maggior parte delle aziende non li pubblica, anche se ogni tanto ci sono fughe di notizie. Quando Anthropic ha pubblicato il prompt di sistema di Claude, era lungo più di 4.000 parole. I prompt interni di OpenAI sono altrettanto dettagliati.

Questi prompt sono vantaggi competitivi. Sono il prodotto. I modelli sottostanti stanno diventando sempre più intercambiabili. I prompt di sistema, la messa a punto (fine-tuning), il comportamento specializzato: è lì che avviene la differenziazione.

Quando ChatGPT “si sente” diverso da Claude, che “si sente” diverso da Gemini, uno dei motivi principali sono i prompt di sistema. Stessa architettura transformer di base. Istruzioni diverse che modellano il risultato.

Tocca a te

Se non stai sperimentando con i prompt di sistema, stai lasciando capacità sul tavolo.

Inizia semplice. Di’ all’IA quale ruolo sta interpretando. Aggiungi vincoli man mano che scopri le modalità di fallimento. Diventa più specifico nel tempo.

I migliori prompt di sistema emergono attraverso l’iterazione. Non puoi pensare fino ad arrivare a un prompt perfetto. Lo scopri testando, fallendo, rifinendo gradualmente.

L’IA con cui stai parlando in questo momento ha istruzioni che non hai scritto tu. Se vuoi un comportamento diverso, scrivi istruzioni diverse.


DatBot ti permette di salvare prompt personalizzati e applicarli tra conversazioni. Costruisci i tuoi prompt di sistema e riutilizzali ogni volta che ti serve un comportamento IA coerente.

Ready For DatBot?

Use Gemini 2.5 Pro, Llama 4, DeepSeek R1, Claude 4, O3 and more in one place, and save time with dynamic prompts and automated workflows.

Top Articles

Come on in, the water's warm

See how much time DatBot.AI can save you