prompt-engineering
8 min read
View as Markdown

System-Prompts: die unsichtbaren Anweisungen, die jede KI-Antwort formen

System-Prompts sind die unsichtbaren Regeln, die der KI sagen, wie sie sich verhalten soll, bevor du überhaupt eine Frage stellst. So funktionieren sie, warum sie wichtig sind und wie du deine eigenen schreibst.

Robert Soares

Jedes Mal, wenn du mit ChatGPT, Claude oder einem anderen KI-Assistenten chattest, gab es schon ein Gespräch, das du nicht gesehen hast. Noch bevor du das erste Wort tippst, haben Anweisungen geprägt, wie das Modell dir antworten wird. Diese unsichtbaren Regeln sind System-Prompts.

Sie sind mächtig. Für Endnutzer meist unsichtbar. Und wenn du irgendetwas mit KI baust, musst du sie verstehen.

Das Gespräch vor deinem Gespräch

Wenn du ChatGPT öffnest und „schreib mir ein Gedicht“ tippst, startet das Modell nicht bei null. OpenAI hat ihm bereits Seiten voller Anweisungen gegeben, wie es sich verhalten soll. Hilfreich sein. Harmlos sein. Bestimmte Anfragen ablehnen. Antworten auf eine bestimmte Weise formatieren. Nicht so tun, als hätte es Gefühle, die es nicht hat.

Dieses Vorgespräch ist der System-Prompt.

Er läuft vor deiner Eingabe. Er prägt alles, was danach kommt. Jedes KI-Produkt, das du jemals benutzt hast, hat so etwas – auch wenn das Unternehmen es nicht veröffentlicht.

Der Unterschied zwischen einem Nutzerprompt und einem System-Prompt ist simpel, aber wichtig. Dein Prompt ist eine Anfrage. Der System-Prompt ist der Rahmen, der festlegt, wie diese Anfrage behandelt wird. Du fragst „erklär mir Quantenphysik“. Der System-Prompt hat bereits entschieden, ob er es dir erklärt, als wärst du fünf – oder als hättest du einen Doktortitel; ob er locker oder förmlich ist; ob er erst Absicherungen einbaut oder direkt loslegt.

Denk an den System-Prompt als Mischung aus Hintergrundgeschichte und Stellenbeschreibung der KI. Es geht nicht nur darum, was die KI weiß. Sondern darum, wer sie vorgibt zu sein.

Was System-Prompts wirklich steuern

System-Prompts können fast alles an einer KI-Antwort beeinflussen.

Rolle und Tonfall. Du kannst einer KI sagen, sie soll als bestimmte Figur antworten, mit bestimmten Persönlichkeitseigenschaften. Ein Kundendienst-Chatbot klingt anders als ein Schreibassistent. Der System-Prompt legt das fest.

Ausgabeformat. Immer in Stichpunkten antworten. Immer Code-Beispiele liefern. Niemals Emojis benutzen. Antworten mit Überschriften strukturieren. Solche Formatvorgaben wohnen im System-Prompt.

Verhaltensregeln. Welche Themen zu meiden sind. Welche Anfragen abgelehnt werden. Wann nachgefragt wird und wann man einfach loslegt. Die Leitplanken stehen hier.

Wissensgrenzen. Sprich nur über Kochen. Tu so, als würdest du nichts über Wettbewerber wissen. Bleib in der Rolle eines mittelalterlichen Historikers, der keine moderne Technologie kennt.

Länge und Stil. Sei knapp. Sei gründlich. Erkläre deine Überlegungen. Winde dich nicht bei jeder Aussage. Diese Feinjustierung kommt aus System-Prompts.

minimaxir, a developer who has published extensively about working with AI APIs, shared their experience on Hacker News: “Some of my best system prompts are >20 lines of text, and all of them are necessary to get the model to behave. The examples are also too polite and conversational: you can give more strict commands and in my experience it works better.”

Diese Beobachtung deckt sich mit dem, was die meisten Praktiker herausfinden. Kurze Prompts liefern inkonsistente Ergebnisse. Detaillierte Prompts liefern verlässliches Verhalten.

Ein einfaches Beispiel für einen System-Prompt

Hier ist ein einfacher System-Prompt für einen Kundendienst-Assistenten:

Du bist ein Kundendienstmitarbeiter für TechGadget, ein Unternehmen, das
Smart-Home-Geräte verkauft. Dein Ton ist freundlich, aber professionell.

Wenn du Kunden hilfst:
- Stelle klärende Fragen, wenn das Problem unklar ist
- Gib Schritt-für-Schritt-Anleitungen zur Fehlerbehebung
- Biete an, komplexe Fälle an den menschlichen Support zu eskalieren
- Mache niemals Zusagen zu Rückerstattungen ohne Freigabe durch den Manager

Du sprichst nur über TechGadget-Produkte. Wenn du nach Wettbewerbern oder
fachfremden Themen gefragt wirst, leite höflich darauf zurück, wie du bei
TechGadget-Produkten helfen kannst.

Formatiere deine Antworten mit klaren Überschriften und nummerierten
Schritten, wenn du Anleitungen gibst.

Das ist nicht kompliziert. Es ist konkret. Es sagt der KI, welche Rolle sie spielen soll, welche Grenzen gelten und wie Antworten formatiert sein sollen. Jeder erfolgreiche System-Prompt hat diese Eigenschaften.

Die Einfachheitsfalle

Es ist verlockend, minimale System-Prompts zu schreiben. Sag einfach, sie soll ein hilfreicher Assistent sein, und lass sie den Rest selbst herausfinden. Für Demos funktioniert das. In der Praxis scheitert es.

Ohne konkrete Anweisungen fallen KI-Modelle auf ihre Trainings-Standardwerte zurück. Diese Standardwerte sind für den allgemeinen Gebrauch gebaut, nicht für deine konkrete Anwendung. Das Ergebnis sind Antworten, die korrekt sind – aber für deinen Kontext falsch.

electrondood, another Hacker News commenter, shared an observation about the opposite extreme: “I found that far less prompt is required for something like ChatGPT. I’ve stopped writing well-formed requests/questions and now I just state things like: ‘sed to replace line in a text file?’ … It still just gives me what I need to know.”

Beide Beobachtungen stimmen, und genau das ist das Rätsel. Für den schnellen persönlichen Einsatz funktionieren Minimal-Prompts völlig okay. Für Produkte, bei denen du über Tausende Interaktionen hinweg konsistentes, vorhersagbares Verhalten brauchst, sind detaillierte Prompts unverzichtbar. Der Kontext bestimmt, wie viel Struktur du brauchst.

Wirksame System-Prompts schreiben

Starte mit der Rolle. Was soll diese KI sein? Kundendienstmitarbeiter, Programmier-Tutor, Schreibpartner, Assistent für juristische Recherche. Sei konkret – Figur und Kontext.

Dann kommen die Grenzen. Was darf sie niemals tun? Welche Themen sind tabu? Welches Format sollen Antworten haben? Welcher Ton? Diese Leitplanken verhindern, dass das Modell in unhilfreiche Richtung driftet.

Pack Beispiele dazu. Wenn du ein bestimmtes Format willst, zeig dieses Format. Wenn du eine bestimmte Detailtiefe willst, demonstriere sie. Modelle lernen Muster zuverlässiger als abstrakte Beschreibungen.

Teste Grenzfälle. Was passiert, wenn jemand etwas außerhalb des Rahmens fragt? Was, wenn jemand versucht, die KI aus der Rolle zu reißen? Was, wenn jemand absichtlich feindselig ist? Dein System-Prompt muss solche Situationen sauber abfangen.

Iteriere anhand von Fehlern. Jedes Mal, wenn die KI etwas falsch macht, füge eine Regel hinzu, die genau diesen Fehler künftig verhindert. Das ist mühsam. Und genau so bekommst du verlässliches Verhalten.

Wenn System-Prompts scheitern

Sie sind keine Magie. Es gibt echte Grenzen.

Länge kostet Tokens. Lange System-Prompts fressen sich in dein Kontextfenster. In Anwendungen mit viel Dialog ist das wichtig. Du bezahlst diese Tokens bei jedem einzelnen Aufruf.

Anweisungen können sich widersprechen. Sag einer KI, sie soll knapp sein – und gleichzeitig gründlich. Sag ihr, sie soll freundlich sein – und gleichzeitig förmlich. Solche Spannungen erzeugen unvorhersagbares Verhalten. Klarheit verlangt Entscheidungen.

Clevere Nutzer können sie aushebeln. Die Geschichte von KI-Produkten ist voll von Beispielen, in denen Nutzer Chatbots dazu bringen, ihre System-Prompts zu ignorieren. Jailbreaking ist in Produktumgebungen ein echtes Risiko.

Verhalten driftet in langen Gesprächen. Der System-Prompt steht ganz oben im Kontext. Wenn Gespräche länger werden, haben neue Nachrichten mehr Einfluss als alte. Das nennt man Kontextdrift – und sie kann dazu führen, dass die KI ihre Anweisungen nach und nach „vergisst“.

Modell-Updates können sie brechen. Ein System-Prompt, der mit GPT-4 perfekt funktioniert, kann sich mit GPT-4o anders verhalten. Verschiedene Modelle interpretieren Anweisungen unterschiedlich. Tests über mehrere Modelle hinweg sind Pflicht.

System-Prompts in der Praxis

Wenn du KI über eine App oder ein Produkt nutzt, hat jemand anderes den System-Prompt geschrieben. Du kontrollierst ihn nicht. Du arbeitest darin.

Wenn du mit KI-APIs baust, kontrollierst du den System-Prompt komplett. Das ist mächtig – aber es braucht Sorgfalt.

Wenn du ChatGPTs „Custom Instructions“-Funktion nutzt, schreibst du deinen persönlichen System-Prompt. Er läuft vor jedem Gespräch und prägt das Standardverhalten deiner Chats.

Für den persönlichen Einsatz: Schreib Custom Instructions, die beschreiben, wie du am besten arbeitest. Welche Detailtiefe willst du? Welches Format bevorzugst du? Was soll die KI über deinen Hintergrund annehmen?

Für Produkte: Behandle System-Prompts wie Produktionscode. Pack sie in Versionskontrolle. Teste sie. Dokumentiere, warum jede Anweisung existiert. Etabliere einen Prozess, um sie anhand von Nutzerfeedback weiterzuentwickeln.

Für Experimente: Teste mehrere Varianten von System-Prompts. Miss, welche bessere Ergebnisse liefern. Kleine Änderungen können große Effekte auf die Antwortqualität haben.

Der unsichtbare Wettbewerb

Jeder große KI-Assistent hat einen System-Prompt. Die meisten Unternehmen veröffentlichen sie nicht – auch wenn es Leaks gibt. Als Anthropic Claudes System-Prompt veröffentlichte, war er über 4.000 Wörter lang. OpenAIs interne Prompts sind ähnlich detailliert.

Diese Prompts sind Wettbewerbsvorteile. Sie sind das Produkt. Die zugrundeliegenden Modelle werden zunehmend zur Ware. System-Prompts, Feinabstimmung, spezialisiertes Verhalten: dort passiert die Differenzierung.

Wenn sich ChatGPT anders anfühlt als Claude, und Claude anders als Gemini, sind System-Prompts ein großer Grund. Gleiche grundlegende Transformer-Architektur. Andere Anweisungen, die die Ausgabe formen.

Du bist dran

Wenn du nicht mit System-Prompts experimentierst, lässt du Fähigkeiten liegen.

Starte einfach. Sag der KI, welche Rolle sie spielt. Ergänze Grenzen, sobald du Fehlermuster entdeckst. Werde mit der Zeit konkreter.

Die besten System-Prompts entstehen durch Iteration. Du kannst dir keinen perfekten Prompt „ausdenken“. Du entdeckst ihn durch Tests, durch Scheitern, durch schrittweise Verfeinerung.

Die KI, mit der du gerade sprichst, hat Anweisungen, die du nicht geschrieben hast. Wenn du anderes Verhalten willst, schreib andere Anweisungen.


Mit DatBot kannst du eigene Prompts speichern und über Gespräche hinweg anwenden. Baue deine eigenen System-Prompts und nutze sie wieder, wann immer du konsistentes KI-Verhalten brauchst.

Ready For DatBot?

Use Gemini 2.5 Pro, Llama 4, DeepSeek R1, Claude 4, O3 and more in one place, and save time with dynamic prompts and automated workflows.

Top Articles

Come on in, the water's warm

See how much time DatBot.AI can save you