ai-strategy
12 min read
View as Markdown

Wohin Ihre Daten gehen, wenn Sie KI-Werkzeuge nutzen

Was tatsächlich mit Informationen passiert, die Sie mit KI-Systemen teilen. Schutz für Unternehmen, Risiken für Verbraucher und wie Regelkonformität in der Praxis wirklich aussieht.

Robert Soares

Samsung-Ingenieure haben beim Debuggen vertraulichen Quellcode in ChatGPT hineinkopiert. Sie brauchten Hilfe. Stattdessen bekamen sie eine Krise der Regelkonformität. Später verbot das Unternehmen das Werkzeug komplett, nachdem es den Abfluss entdeckt hatte. Das war keine Bosheit. Es war Bequemlichkeit, die Vorsicht schlägt – und genau so passieren die meisten Datenschutzvorfälle mit KI tatsächlich.

Wenn Sie etwas in ein KI-Werkzeug tippen: Wohin geht es? Die Antwort hängt stark davon ab, welches Werkzeug Sie verwenden, ob Sie auf einem Verbraucher- oder Unternehmens-Tarif sind und ob überhaupt jemand in Ihrer Organisation die Nutzungsbedingungen wirklich gelesen hat – was laut Forschung so gut wie niemand in sinnvoller Tiefe tut.

Der Datenweg, den die meisten nie bedenken

Jeder Prompt, den Sie an ein KI-System senden, wird zu Daten, die irgendwo verarbeitet werden. Bei cloudbasierten KI-Werkzeugen wie ChatGPT, Claude oder Gemini wandert Ihre Eingabe zu entfernten Servern. Sie wird gespeichert. Sie kann geprüft werden. Sie könnte zum Training zukünftiger Modelle beitragen. Die Details unterscheiden sich je nach Anbieter, aber das Grundmuster bleibt.

Verbraucherversionen dieser Werkzeuge laufen typischerweise unter Bedingungen, die eine breitere Nutzung Ihrer Eingaben erlauben. Ein Hacker-News-Kommentator mit dem Handle l33tman sagte es direkt: “OpenAI explicitly say that your Q/A on the free ChatGPT are stored and sent to human reviewers.” Ein anderer Kommentator, jackson1442, ergänzte den Kontext: “Their contractors can (and do!) see your chat data to tune the model.”

Das sind keine Vorwürfe. Das sind Beschreibungen davon, wie die Produkte funktionieren. Die Gratisstufe finanziert sich über den Wert der Daten, die Sie liefern.

Unternehmensversionen funktionieren anders. Als OpenAI ChatGPT Enterprise gestartet hat, merkte der Hacker-News-User ajhai an, warum das wichtig ist: “Explicitly calling out that they are not going to train on enterprise’s data and SOC2 compliance is going to put a lot of the enterprises at ease.” Dieser Unterschied ist enorm für Organisationen, die mit sensiblen Informationen arbeiten.

Welche Datentypen Risiko erzeugen

Nicht alle Daten haben das gleiche Gewicht in Sachen Regelkonformität. Personenbezogene Informationen über identifizierbare Menschen lösen unter GDPR und CCPA die strengsten Anforderungen aus. Dazu gehören Namen, E-Mail-Adressen, Telefonnummern und Kaufhistorien. Aber auch weniger offensichtliche Kategorien wie IP-Adressen, Gerätekennungen und Verhaltensmuster, die jemanden in Kombination mit anderen Daten identifizieren könnten.

Professor Uri Gal von der University of Sydney fasst das Trainingsdaten-Problem drastisch zusammen: “ChatGPT was fed some 300 billion words systematically scraped from the internet: books, articles, websites and posts, including personal information obtained without consent.” Er ergänzt, was das aus Rechteperspektive besonders problematisch macht: “OpenAI offers no procedures for individuals to check whether the company stores their personal information, or to request it be deleted.”

Wenn Sie Kundendaten in ein KI-Werkzeug für Verbraucher hineinkopieren, fügen Sie diese Informationen womöglich Trainingsdatensätzen hinzu – ohne jede Möglichkeit, sie später wiederzufinden oder zu entfernen. Die Daten fließen in eine Richtung. Es gibt keinen Undo-Button, der tatsächlich bis in die Modellgewichte zurückreicht.

GDPR-Anforderungen in Klartext

Die Datenschutz-Grundverordnung beruht auf einem einfachen Prinzip, das komplexe Pflichten erzeugt. Sie brauchen eine Rechtsgrundlage, bevor Sie personenbezogene Daten verarbeiten. Einwilligung ist die häufigste Grundlage, aber sie muss freiwillig, spezifisch, informiert und eindeutig sein. Eine Klausel zur „Weitergabe“ von KI-Daten in Absatz 47 Ihrer Nutzungsbedingungen zu verstecken, zählt nicht.

Speziell für KI schafft GDPR mehrere Reibungspunkte. Artikel 22 schränkt vollautomatisierte Entscheidungen ein, die Menschen erheblich betreffen. Wenn ein KI-System entscheidet, wer einen Kredit bekommt, wer Stellenanzeigen sieht oder welchen Preis jemand zahlt, kann eine menschliche Prüfung erforderlich sein. Die betroffene Person kann eine Erklärung der zugrunde liegenden Logik verlangen.

Das Recht auf Löschung bringt technische Probleme mit sich, für die viele KI-Systeme nie gebaut wurden. Wenn jemand die Löschung seiner Daten verlangt, sollte sich das auf Trainingsdatensätze erstrecken – aber den Einfluss einer einzelnen Person aus einem Modell zu entfernen, das auf Millionen Beispielen trainiert wurde, ist nicht trivial. Manche argumentieren, dass es mit heutiger Technik praktisch unmöglich ist.

Eine Hacker-News-Diskussion aus 2018 drehte sich darum, ob GDPR maschinelles Lernen illegal machen würde. User ThePhysicist stellte klar, was tatsächlich verlangt wird: “automated decision making is allowed under the GDPR, it just gives the data subject the right to demand a manual assessment.” Das Gesetz verbietet KI nicht. Es fordert Verantwortlichkeit. Ein anderer Kommentator, bobcostas55, benannte den Kernkonflikt: “Our most accurate models are unintelligible, and our most intelligible models are inaccurate. There’s a trade-off.”

Durchsetzung hat Zähne. Die kumulierten GDPR-Bußgelder haben 5,88 Milliarden Euro überschritten. Italiens Datenschutzbehörde verhängte 2025 ein Bußgeld von 15 Millionen Euro gegen OpenAI wegen ChatGPTs Datenerhebungspraktiken und verlangte eine sechsmonatige öffentliche Aufklärungskampagne zu Datenschutzschutzmaßnahmen.

CCPA geht anders vor

Kaliforniens Datenschutzgesetz startet von einer anderen Prämisse. GDPR verlangt Opt-in-Einwilligung vor der Verarbeitung. CCPA erlaubt Verarbeitung standardmäßig, gibt Verbrauchern aber das Recht, dem Verkauf oder der Weitergabe von Daten zu widersprechen. Der praktische Effekt: Europäische Unternehmen brauchen zuerst Erlaubnis, während Unternehmen in Kalifornien funktionierende Widerspruchsmechanismen brauchen.

Bei KI-Werkzeugen macht der Begriff „Weitergabe“ Schwierigkeiten. Wenn Sie eine KI eines Drittanbieters nutzen, um Kundendaten zu analysieren, kann das unter CCPA als Weitergabe gelten – und damit die Widerspruchspflicht auslösen. Ihre Kunden könnten ein gesetzliches Recht haben, zu verhindern, dass ihre Informationen in KI-Systeme fließen, die Sie für geschäftliche Zwecke nutzen.

Ab Januar 2026 kommt in Kalifornien mit neuen Automated Decision-Making Technology-Regeln eine weitere Ebene hinzu. Verbraucher erhalten das Recht, ADMT bei bedeutenden Entscheidungen abzuwählen, die Gesundheit, Beschäftigung, Wohnen, Kredit, Bildung oder Versicherung betreffen. Marketing-Anwendungen fallen meistens nicht darunter, aber die Grenze ist nicht immer klar.

Die California Privacy Protection Agency verhängte 2025 Rekordbußgelder von über 1,3 Millionen Dollar. Die Durchsetzung nimmt zu, sie flacht nicht ab.

Unternehmenslösungen vs. Verbraucherversionen

Die Lücke zwischen KI-Produkten für Unternehmen und für Verbraucher geht nicht nur um Funktionen. Es geht um Datenhandling, Haftung und darum, was passiert, wenn es schiefgeht.

ChatGPT für Verbraucher hat Ende 2024 die Möglichkeit entfernt, dass Gratis- und Plus-Nutzer den Chatverlauf deaktivieren können. Alles, was Sie tippen, wird behalten, sofern Sie es nicht manuell löschen. Enterprise- und Team-Abonnenten können widersprechen; die Daten werden dann nach 30 Tagen gelöscht. Das ist kein kleiner Unterschied. Das ist ein grundlegender Wechsel darin, wer Ihre Informationen kontrolliert.

Hacker-News-User paxys brachte den Unterschied auf den Punkt: “There’s a huge difference between trusting a third party service with strict security agreements in place vs one that can legally do whatever they want.” User _jab stellte sogar die Unternehmens-Schutzmaßnahmen infrage: “‘all conversations are encrypted … at rest’ - why do conversations even need to exist at rest?”

Unternehmens-Tarife enthalten typischerweise SOC-2-Konformität, SAML Single Sign-On, rollenbasierte Zugriffskontrollen und Administrationskonsolen zur Nutzungsüberwachung. User ttul merkte den operativen Vorteil an: “If your organization is SOC2 compliant, using other services that are also compliant is a whole lot easier.”

Der Preisunterschied ist weniger wichtig als der Haftungsunterschied. Wenn ein Mitarbeiter vertrauliche Informationen in ChatGPT für Verbraucher hineinkopiert, hat Ihre Organisation möglicherweise keine Handhabe. Passiert dasselbe in einer Unternehmensumgebung mit ordentlichen Datenverarbeitungsvereinbarungen, haben Sie zumindest vertragliche Schutzmechanismen und klarere Verantwortlichkeitsketten.

Das Schatten-KI-Problem

Formale Richtlinien bedeuten nichts, wenn Mitarbeitende sie umgehen. Und das tun sie. Ständig.

Ein Bericht aus 2025 fand heraus, dass 77 % der Mitarbeitenden Unternehmensinformationen mit ChatGPT geteilt hatten, wobei sensible Daten 34,8 % der Eingaben ausmachten. Das sind nicht zwingend Richtlinienverstöße, weil viele Organisationen noch gar keine klaren KI-Richtlinien haben. Das sind Menschen, die versuchen, Arbeit schneller zu erledigen.

Ein Hacker-News-Kommentator, w_for_wumbo, beschrieb die Management-Herausforderung: “You can’t just tell people not to use it, or to use it responsibly. Because there’s too much incentive for them to use it.” Wenn KI-Werkzeuge echte Produktivitätsgewinne bringen, erzeugt ein Verbot einen Regelkonformitätsdruck, der irgendwann bricht.

User cuuupid, der sich als Bundesauftragnehmer bezeichnete, beschrieb eine strengere Umgebung: “We block ChatGPT, as do most federal contractors. I think it’s a horrible exploit waiting to happen.” Aber selbst eine Sperre an der Firewall löst nur einen Angriffsweg. Mobile Geräte in privaten Netzen umgehen Unternehmens-Kontrollen komplett.

Die realistische Antwort ist nicht Verbot. Es ist, freigegebene Alternativen bereitzustellen, die sowohl Nutzbarkeit als auch Regelkonformität erfüllen. Wenn Mitarbeitende Zugriff auf Unternehmens-KI-Werkzeuge haben, die gut funktionieren, sinkt die Versuchung, Verbraucheralternativen zu nutzen – auch wenn sie nie ganz verschwindet.

Wie Regelkonformität in der Praxis aussieht

Regelkonformität ist keine Checkbox-Übung. Es ist ein fortlaufender Prozess aus Datenflüsse kartieren, Risiken bewerten, Kontrollen umsetzen und auf Veränderungen reagieren. Speziell bei KI heißt das: mehrere konkrete Tätigkeiten.

Erfassen Sie Ihre KI-Werkzeuge. Jedes System, das personenbezogene Daten verarbeitet, braucht Dokumentation. Dazu gehören offensichtliche Werkzeuge wie ChatGPT und Claude, aber auch KI-Funktionen, die in anderer Software stecken. Die prädiktive Lead-Bewertung in Ihrem CRM ist ein KI-System. Die Sendezeit-Optimierung Ihrer E-Mail-Plattform ist ein KI-System. Das Attributionsmodell Ihres Analysewerkzeugs könnte ein KI-System sein.

Kartieren Sie Ihre Datenflüsse. Für jedes Werkzeug verfolgen Sie, welche Informationen hineingehen, woher sie kommen, wo sie gespeichert werden und wer Zugriff hat. Diese Übung bringt überraschend oft Dinge ans Licht. Personenbezogene Daten landen häufig an Orten, die niemand explizit freigegeben hat – weil es bequem war und niemand die harten Fragen gestellt hat.

Legen Sie Rechtsgrundlagen fest. Unter GDPR können berechtigte Interessen manche KI-Verarbeitung rechtfertigen, aber Sie brauchen dokumentierte Abwägungen, die zeigen, dass Ihre Interessen die Rechte der Einzelnen nicht überwiegen. Unter CCPA müssen Sie verstehen, wann Widerspruchsmechanismen greifen müssen. Dokumentieren Sie Ihre Begründung, damit Sie sie später erklären können, wenn Aufsichtsbehörden fragen.

Aktualisieren Sie Ihre Datenschutzhinweise. Allgemeine Sprache über Cookies und Analysen deckt KI-Verarbeitung nicht ab. Ihre Datenschutzerklärung sollte erklären, welche KI-Systeme Sie nutzen, wie personenbezogene Daten durch sie fließen und wie Menschen ihre Rechte ausüben können. User thomassmith65 auf Hacker News kritisierte ChatGPTs Oberflächendesign: “turning ‘privacy’ on is buried in the UI; turning it off again requires just a single click.” Ihre eigenen Hinweise sollten geradliniger sein.

Schulen Sie Ihr Team. Jeder, der Kundendaten in ein KI-Werkzeug hineinkopieren könnte, muss verstehen, was er darf und was nicht. Diese Schulung sollte praktisch sein, nicht theoretisch. Zeigen Sie, welche Werkzeuge freigegeben sind. Zeigen Sie, was passiert, wenn sie nicht freigegebene Alternativen nutzen. Machen Sie die richtige Entscheidung zur einfachen Entscheidung.

Bereiten Sie sich auf Betroffenenanfragen vor. Wenn jemand sein Recht auf Auskunft oder Löschung ausübt, muss Ihre Antwort KI-Systeme abdecken, nicht nur klassische Datenbanken. Das ist operativ schwieriger, weil KI-Systeme oft keine sauberen Mechanismen haben, um Daten einzelner Personen abzurufen oder zu entfernen.

Das tiefere Problem, das niemand gelöst hat

Rahmenwerke zur Regelkonformität gehen davon aus, dass Sie wissen, welche Daten Sie haben und wohin sie gehen. KI-Systeme machen beide Annahmen komplizierter.

Trainingsdaten schaffen einen dauerhaften Datensatz, der sich nicht leicht ändern lässt. Wenn ein Modell Muster aus personenbezogenen Informationen gelernt hat, die eigentlich gelöscht werden sollten, bleibt der Einfluss bestehen – selbst wenn die Originaldaten weg sind. Uns fehlen technische Mechanismen für gezieltes Entlernen, die Aufsichtsbehörden als echte Löschung akzeptieren würden.

Abgeleitete Daten schaffen neue Kategorien personenbezogener Informationen aus vorhandenen Daten. KI-Systeme verarbeiten nicht nur, was Sie ihnen geben. Sie leiten Erkenntnisse, Vorhersagen und Profile ab, die selbst personenbezogene Daten sein können und damit Datenschutzrechten unterliegen. Der rechtliche Status dieser KI-generierten Schlussfolgerungen ist weiterhin umstritten.

User ChatGTP auf Hacker News beschrieb das systemische Risiko: “We cannot live in a world where basically all commercial information, all secrets are being submitted to one company.” Die Konzentration von Daten bei wenigen KI-Anbietern schafft Abhängigkeiten, die über individuelle Datenschutzfragen hinausgehen – hin zu Fragen wirtschaftlicher Macht und Wettbewerbsdynamiken.

User strus wies auf die Regelkonformitätsfolgen hin: “Proven leak of source code may be a reason to revoke certification. Which can cause serious financial harm to a company.” Die Konsequenzen sind nicht hypothetisch. Organisationen haben Zertifizierungen, Verträge und Marktzugang verloren, weil sie Daten nicht sauber behandelt haben.

Die entstehende Regulierungslandschaft

Regeln entwickeln sich weiter – schneller, als die meisten Regelkonformitätsprogramme sich anpassen können. Der EU AI Act bringt ab August 2026 neue Anforderungen für Hochrisiko-KI-Systeme, überlappend mit, aber nicht ersetzend für GDPR-Pflichten. Drei weitere US-Bundesstaaten-Datenschutzgesetze traten 2026 in Kraft; zusätzlich zu den acht aus 2025, jeweils mit leicht unterschiedlichen Anforderungen.

Eine Executive Order aus Dezember 2025 legte eine Bundespolitik fest, die KI-Regulierungen der Bundesstaaten aushebeln soll, wenn sie die nationale Wettbewerbsfähigkeit behindern. Wie Gerichte das auslegen, ist unklar. Vorerst gehen vorsichtige Organisationen davon aus, dass sie sowohl staatliche als auch bundesweite Anforderungen erfüllen müssen – bis eine konkrete Vorwirkung tatsächlich greift.

User amelius auf Hacker News hob eine praktische Hürde hervor, vor der viele Organisationen stehen: “Except many companies deal with data of other companies, and these companies do not allow the sharing of data.” Verpflichtungen gegenüber Dritten gehen oft über gesetzliche Mindestanforderungen hinaus. Ihre Verträge können KI-Verarbeitung verbieten, die das Gesetz technisch erlauben würde.

Wo wir damit stehen

Die Samsung-Ingenieure, die Quellcode in ChatGPT hineinkopiert haben, waren keine nachlässigen Menschen, die leichtfertig handelten. Es waren Fachleute, die ein Werkzeug nutzten, das für ihre Arbeit vernünftig wirkte. Das Regelkonformitätsversagen war nicht wirklich ihres. Es war organisatorisch: eine Lücke zwischen verfügbaren Werkzeugen und etablierten Richtlinien, die sie ohne Leitplanken zu Ermessensentscheidungen zwang.

Die meisten Datenschutzvorfälle mit KI folgen diesem Muster. Es sind keine Datenschutzverletzungen im klassischen Sinn – keine Hacker, die Informationen stehlen, keine Insider, die Geheimnisse verkaufen. Es sind Bequemlichkeitsentscheidungen von Menschen, die nicht vollständig verstanden haben, wohin ihre Daten gehen oder was mit ihnen passiert, wenn sie dort ankommen.

User libraryatnight auf Hacker News brachte die zugrunde liegende Angst auf den Punkt: “We’re just waiting for some company’s data to show up remixed into an answer for someone else.” Ob dieses konkrete Szenario eintritt, ist weniger wichtig als die Unsicherheit, die es ausdrückt. Wenn Daten in KI-Systeme fließen, mit unklarer Aufbewahrung, unklarer Trainingsnutzung und unklaren Löschmöglichkeiten, werden die langfristigen Folgen tatsächlich unvorhersehbar.

Regelkonformität in dieser Umgebung heißt zu akzeptieren, dass perfekte Kontrolle nicht erreichbar ist. Daten werden in unerwartete Richtungen fließen. Mitarbeitende werden nicht freigegebene Werkzeuge nutzen. Regeln werden sich schneller ändern, als Richtlinien sich anpassen können. Organisationen, die das erfolgreich navigieren, erreichen Regelkonformität nicht als Ziel. Sie halten sie als Praxis aufrecht und passen sich kontinuierlich an neue Informationen darüber an, wohin Daten gehen und was passiert, wenn sie dort ankommen.

Die Frage ist nicht, ob KI und Datenschutz koexistieren können. Das tun sie bereits – unvollkommen, mit Reibung, Unsicherheit und laufender Verhandlung zwischen Bequemlichkeit und Kontrolle. Die Frage ist, ob Ihre Organisation ihre Position in dieser Verhandlung gut genug versteht, um informierte Entscheidungen darüber zu treffen, wo die Grenzen liegen sollten.

Ready For DatBot?

Use Gemini 2.5 Pro, Llama 4, DeepSeek R1, Claude 4, O3 and more in one place, and save time with dynamic prompts and automated workflows.

Top Articles

Come on in, the water's warm

See how much time DatBot.AI can save you