Oliver Schilke führte 13 Experimente durch. Über 5.000 Teilnehmende. Die Ergebnisse waren jedes einzelne Mal konsistent.
“In each experiment, we found that, when someone disclosed using AI, trust declined significantly,” said Schilke, a professor at the University of Arizona’s Eller College of Management. Sein Forschungsteam maß Vertrauensverluste von 16 % bei Studierenden, die Professoren bewerteten, 18 % bei Investoren, die Werbung sahen, und 20 % bei Kunden, die Grafikdesigner beurteilten.
Die Konsequenzen sind unangenehm. Ehrlichkeit kostet dich.
Die Zahlen erzählen eine Geschichte, die niemand hören wollte
Hier ist, was die Forschung tatsächlich fand. Studierende, die wussten, dass ihr Professor KI zur Unterstützung beim Bewerten nutzte, vertrauten diesem Professor 16 % weniger als Studierende, die es nicht wussten. Die Noten waren identisch. Die Qualität des Feedbacks war gleich. Der einzige Unterschied war die Offenlegung.
Investoren verhielten sich ähnlich. Wenn ihnen gesagt wurde, dass eine Anzeige KI in ihrer Erstellung beinhaltete, sank ihr Vertrauen in den Werbenden um 18 %. Wieder: Die Anzeige selbst war unverändert. Nur das Etikett änderte sich.
Kunden im Grafikdesign zeigten den stärksten Rückgang. Wenn Designer KI-Unterstützung zugaben, fiel das Vertrauen der Kunden um 20 %. Zwanzig Prozent. Für dieselbe Arbeit.
Martin Reimann, ein weiterer Forscher im Arizona-Team, fand etwas noch Auffälligeres: “Even with people who were very familiar with AI and used it frequently, the erosion of trust was there.” Technikaffine Zielgruppen waren nicht immun. Sie bestraften die Offenlegung trotzdem.
Die Forschenden nennen das ein „Transparenzdilemma“. Du willst ehrlich sein. Ehrlichkeit sorgt dafür, dass man dir weniger vertraut.
Aber erwischt zu werden ist schlimmer
Schilkes Team testete auch, was passiert, wenn der KI-Einsatz von jemand anderem aufgedeckt wird. Ein Dritter nutzt einen Detektor. Ein Kollege erwähnt es. Der Kunde findet es über irgendeinen anderen Kanal heraus.
“Trust drops even further if somebody else exposes you after using an AI detector or finding out about it some other way,” Schilke explained.
Also hat Verschweigen sein eigenes Risiko. Das Schlimmste ist nicht die freiwillige Offenlegung. Das Schlimmste ist, erwischt zu werden.
Das bringt dich in eine unmögliche Lage. Sagst du es Kunden sofort, verlierst du etwas Vertrauen. Verschweigst du es, riskierst du viel mehr Vertrauen zu verlieren, wenn es auffliegt. Es gibt keinen Weg, der volle Glaubwürdigkeit bewahrt.
Der ehrliche Weg kostet weniger. Aber er kostet trotzdem.
Währenddessen nehmen dir Regierungen die Entscheidung ab
Der EU AI Act tritt gestaffelt bis 2027 in Kraft. Transparenzpflichten nach Artikel 50 verlangen von Unternehmen, Nutzer zu informieren, wenn sie mit KI-Systemen interagieren. Deepfakes müssen als künstlich erzeugt gekennzeichnet werden. Systeme zur Emotionserkennung erfordern Offenlegung. Von KI erzeugter Text für Zwecke öffentlicher Information muss markiert werden.
Kaliforniens AI Transparency Act trat im Januar 2026 in Kraft. Colorado folgt mit eigenen Anforderungen. Illinois schreibt Offenlegung vor, wenn KI bei Einstellungsentscheidungen eingesetzt wird. New York verlangt von Werbetreibenden, synthetische Darsteller in Werbespots zu kennzeichnen.
Die FTC hat klar gemacht, dass täuschende Praktiken rund um KI gegen bestehendes Verbraucherrecht verstoßen. Sie startete Operation AI Comply, um diese Position durchzusetzen. Verstöße können $51.744 pro Vorfall erreichen.
Also: Offenlegung schadet Vertrauen, aber Nicht-Offenlegung könnte je nach Rechtsraum, Branche und Art der KI-Nutzung bald illegal sein. Die Psychologie sagt das eine. Die Regulierung sagt etwas anderes.
Das Problem mit dem beruflichen Ruf
Eine separate Forschungsrichtung der Duke University legt noch eine Schicht oben drauf. Jessica Reif, Richard Larrick und Jack Soll befragten in vier Experimenten 4.400 Teilnehmende. Sie wollten wissen, wie Kolleginnen und Kollegen Menschen wahrnehmen, die bei der Arbeit KI nutzen.
Das Ergebnis: Menschen, die KI nutzen, werden als „weniger kompetent in ihrem Job, faul, weniger unabhängig, weniger selbstsicher und weniger gewissenhaft“ gesehen.
Diese Wahrnehmung blieb bestehen, unabhängig von Alter, Geschlecht oder Beruf. Sie hielt sogar dann, wenn Teilnehmenden gesagt wurde, dass die KI die Qualität der Arbeit verbessert. Führungskräfte waren weniger bereit, Kandidaten einzustellen, die den Einsatz von KI zugaben.
Eine Ausnahme trat hervor. Führungskräfte, die selbst KI nutzten, bewerteten Kandidaten, die KI nutzten, positiver. Eigene Erfahrung veränderte die Rechnung.
Aber hier ist die praktische Folge: Fachkräfte glauben, dass Offenlegung von KI-Nutzung ihren Ruf beschädigt. Und sie liegen nicht falsch. Die Duke-Forschung bestätigt, dass Kolleginnen und Kollegen KI-Nutzer tatsächlich negativ beurteilen. Das erzeugt organisatorischen Druck gegen Transparenz.
Wie der Zeitpunkt der Offenlegung alles verändert
Nicht jede Offenlegung ist gleich. Wann du offenlegst, ist fast so wichtig wie ob du offenlegst.
Forschung zur Offenlegungszeit in der Kundenbetreuung fand: Der Wechsel von einer sofortigen Ankündigung zu Beginn hin zur Offenlegung nach dem Aufbau einer ersten Beziehung verdoppelte die Zahl der Anrufe, die zu sinnvollen Gesprächen wurden. Der Inhalt der Offenlegung war derselbe. Nur der Zeitpunkt änderte sich.
Psychologisch ergibt das Sinn. Eine Offenlegung ganz am Anfang löst Abwehrverarbeitung aus. Der Kunde sortiert die Interaktion sofort als „mit einem Bot zu tun haben“ ein statt als „mein Problem lösen“. Erwartungen verschieben sich. Geduld wird kürzer. Bereitschaft, sich einzulassen, sinkt.
Offenlegung nach dem Aufbau einer ersten Vertrauensbasis fühlt sich anders an. Das Gespräch hat bereits begonnen. Ein Stück Wert wurde bereits ausgetauscht. Die Offenlegung wird zur Erklärung statt zur Warnung.
Das wirft ethische Fragen auf. Ist verzögerte Offenlegung manipulativ? Oder ist es schlicht gute Kommunikation? Die Antwort hängt wahrscheinlich davon ab, wie lange die Verzögerung ist und was in dieser Zeit passiert.
Die Rechtslage ist ständig in Bewegung
KI-Regeln auf Bundesstaatenebene in den USA bleiben uneinheitlich. Kalifornien verlangt Offenlegung, wenn Verbraucher mit generativen KI-Systemen interagieren. Colorado schreibt Offenlegung vor, wenn KI Entscheidungen trifft, die Verbraucher betreffen. Utah verlangt Offenlegung nur auf Anfrage. Einige Staaten verlangen eine Offenlegung im Voraus „unless obvious to a reasonable person.“
Was zählt als offensichtlich? Die Vorschriften definieren es nicht. Ein Chatbot mit Roboter-Avatar könnte qualifizieren. Ein Chatbot namens „Alex“ wahrscheinlich nicht.
Die FCC schlug 2024 Regeln vor, nach denen ausgehende KI-Anrufe eine Offenlegung „at the outset“ erfordern sollen. Aber die genaue Sprache bleibt unklar. Was heißt „the outset“? Die erste Sekunde? Der erste Satz? Nach der Begrüßung?
Unternehmen, die in mehreren Rechtsräumen arbeiten, stehen vor Rätseln zur Regelkonformität. Was in Kalifornien erforderlich ist, ist in Texas vielleicht nicht erforderlich. Was in der EU erforderlich ist, kann strenger sein als überall sonst in den USA. Und all das kann sich ändern, während Aufsichtsbehörden ihre Rahmenwerke weiterentwickeln.
Was tatsächlich hilft
Die Arizona-Forschung identifizierte einen Faktor, der die Vertrauensstrafe reduzierte. Wenn die Nützlichkeit der KI ausdrücklich anerkannt wurde, nahmen negative Wahrnehmungen ab. Die Einordnung zählt.
Vergleiche diese zwei Offenlegungen:
“Dieser Inhalt wurde von KI erzeugt.”
“Unsere KI hat 200 Datenpunkte analysiert, um die Muster zu identifizieren, die für deine Situation am relevantesten sind. Ein Teammitglied hat die finale Ausgabe geprüft.”
Die erste klingt wie ein Warnhinweis. Die zweite klingt wie eine Fähigkeitsbeschreibung. Gleiche zugrunde liegende Wahrheit. Andere psychologische Wirkung.
Christopher Penn, der über KI-Offenlegung zum Zweck des Urheberrechtsschutzes schreibt, nennt einen anderen Grund für Transparenz: Rechtsstrategie. US-Gerichte haben entschieden, dass KI-generierte Inhalte keinen Urheberrechtsschutz erhalten können. Von Menschen geschaffene Arbeit kann es. Indem klar gekennzeichnet wird, welche Elemente KI-gemacht versus menschengemacht sind, stärken Urheber ihre Ansprüche auf die menschlichen Teile.
“You shouldn’t claim work you didn’t actually do,” Penn argues. Aber über Ethik hinaus gibt es einen praktischen Nutzen: Offenlegung klärt, was dir gehört.
Die Ausnahme im Kundendienst
In manchen Kontexten kehrt sich die Transparenzstrafe komplett um.
Grant, ein E-Commerce-Koordinator bei Arcade Belts, teilte die Erfahrung seines Teams mit KI-gestütztem Kundendienst: “A lot of times, I’ll receive the response, ‘Wow, I didn’t know that was AI.’”
Seine Kunden waren nicht verärgert. Sie waren beeindruckt. Die KI war schnell, präzise und verfügbar. Offenlegung schadete nicht. Wenn überhaupt, zeigte sie Kompetenz.
In diesem Kontext ergibt das Sinn. Kundendienst geht um Problemlösung. Geschwindigkeit zählt. 24-Stunden-Verfügbarkeit zählt. Wenn KI diese Vorteile liefert, wird die Offenlegung zum Merkmal statt zum Makel.
Die Forschung zur Vertrauensstrafe fokussierte Kontexte, in denen KI wie Abkürzen wirken kann. Inhaltserstellung. Benotung. Designarbeit. Bereiche, in denen menschlicher Aufwand Teil des wahrgenommenen Werts ist.
Kundenservice ist anders. Niemand schätzt langsame Antworten oder eingeschränkte Verfügbarkeit. KI löst reale Schmerzpunkte. Offenlegung macht das sichtbar.
Markenpositionierung ändert die Rechnung
Wenn ein Technologieunternehmen KI-Nutzung offenlegt, stärkt das seine Identität. Wenn eine Handwerksbrauerei KI-Nutzung offenlegt, widerspricht das ihrer Identität. Kontext formt alles.
Unternehmen, die sich als innovativ und hochmodern positionieren, erleiden geringere Vertrauensverluste durch KI-Offenlegung. Ihre Kunden erwarten technologische Raffinesse. KI passt zum Markenversprechen.
Unternehmen, die sich um Authentizität, Handwerk oder menschliche Nähe herum positionieren, zahlen höhere Strafen. KI passt nicht zur Geschichte, die sie erzählt haben.
Das deutet darauf hin, dass die Offenlegungsstrategie zur Markenstrategie passen sollte. Für manche Unternehmen ergibt volle Transparenz Sinn. Für andere ergibt die minimal rechtlich erforderliche Offenlegung mehr Sinn. Keiner der Ansätze ist per se ethischer. Es sind unterschiedliche Passungen für unterschiedliche Situationen.
Das unbequeme Mittelfeld
Die meisten Unternehmen leben im Mittelfeld. Sie sind keine Technologieunternehmen, bei denen KI erwartet wird. Sie sind keine Manufakturen, bei denen KI irritierend wirkt. Sie sind normale Unternehmen, die Kunden effizient bedienen wollen.
Für sie legt die Forschung ein paar Prinzipien nahe:
Mit Nutzen beginnen. Lege KI-Nutzung im Kontext dessen offen, was sie für den Kunden tut, nicht als isolierte Tatsache.
Sachlich bleiben. Nicht entschuldigen. Nicht übererklären. Sag, was passiert ist, und geh weiter.
Menschliche Beteiligung betonen. „KI-gestützt, von Menschen geprüft“ funktioniert besser als „KI-generiert“. Wenn Menschen beteiligt sind, sag es.
Intensität an die Tragweite anpassen. Entscheidungen mit hoher Tragweite verdienen klare, auffällige Offenlegung. Interaktionen mit niedriger Tragweite können leichter behandelt werden.
Nicht länger verzögern als nötig. Frühe Offenlegung hilft Kunden, Erwartungen zu kalibrieren. Späte Offenlegung fühlt sich wie eine Enthüllung an.
Wie die Zukunft wahrscheinlich aussieht
Die regulatorische Richtung ist klar. Mehr Offenlegungspflichten, nicht weniger. Mehr Rechtsräume, die Regeln einführen. Mehr Genauigkeit darüber, was gesagt werden muss und wann.
Auch die psychologische Forschung ist klar. Offenlegung hat Kosten. Diese Kosten könnten mit der Zeit sinken, wenn KI normaler wird. Bis jetzt sind sie es nicht.
Praktisch heißt das: Unternehmen werden mehr offenlegen müssen als heute, und sie müssen gut darin werden, so offenzulegen, dass der Schaden minimal bleibt. Die Unternehmen, die das zuerst herausfinden, gewinnen einen Vorteil. Die Unternehmen, die es nicht tun, werden sowohl regulatorische Strafen als auch fortlaufende Vertrauensverluste erleben.
Die Transparenzfalle löst sich nicht von selbst. Kunden werden Offenlegern weiterhin weniger vertrauen und gleichzeitig mehr Offenlegung verlangen. Regeln werden sich weiter verschärfen, während psychologische Forschung die Strafe weiter bestätigt. Die Lücke bleibt.
Innerhalb dieser Lücke handlungsfähig zu werden, ist die eigentliche Fähigkeit.
Weiterführende Lektüre: AI Data Privacy Compliance behandelt GDPR- und CCPA-Anforderungen. AI Copyright Ownership Issues beleuchtet die urheberrechtlichen Folgen von KI-generierten Inhalten.