Das ethische Argument dafür, Menschen zu sagen, wenn KI im Spiel ist
Wenn KI die Informationen beeinflusst, die jemand erhält, eine Entscheidung mitprägt, die ihn betrifft, oder an die Stelle einer Person tritt, mit der er zu tun zu haben glaubt — hat er dann ein Recht, das zu erfahren?
Teil Eins ist in fünf Minuten gelesen. Teil Zwei liefert die Belege für alle, die tiefer einsteigen wollen.
Teil Eins: Das ethische Argument dafür, Menschen zu sagen, wenn KI im Spiel ist
Ende 2025 veröffentlichte McDonald's Niederlande einen vollständig mit generativer KI produzierten Weihnachtswerbespot. Sie erwähnten dies nicht. Die sozialen Medien identifizierten es innerhalb von Stunden, brandmarkten es als «AI slop», und das Unternehmen zog die Werbung innerhalb von drei Tagen zurück. Etwa zur gleichen Zeit schaltete Coca-Cola ebenfalls KI-generierte Weihnachtswerbung, die ebenfalls kontrovers war — aber Coca-Cola ging offen mit der Rolle der KI bei der Produktion um — in Pressematerialien, Hintergrundberichten und der öffentlichen Kommunikation. Die Rezeption war bei Weitem nicht durchweg positiv, aber die Stimmung war messbar besser. Der Unterschied lag nicht in der Qualität des Kreativmaterials. Es war die Transparenz.
Ein Unternehmen war ehrlich darüber, wie die Arbeit entstanden war. Das andere nicht. Diese eine Entscheidung — offenzulegen oder nicht — prägte die gesamte öffentliche Reaktion.
Dieses Muster wiederholt sich branchenübergreifend und wirft eine Frage auf, die über Marketing oder Compliance hinausgeht: Wenn KI die Informationen beeinflusst, die jemand erhält, eine Entscheidung mitprägt, die ihn betrifft, oder an die Stelle einer Person tritt, mit der er zu tun zu haben glaubt — hat er dann ein Recht, das zu erfahren?
Die Antwort sollte eindeutig sein. Ja, hat er.
Die Kluft zwischen dem, was Unternehmen tun, und dem, was Menschen erwarten
Die Forschungslage dazu ist bemerkenswert konsistent. Zwischen sieben und acht von zehn Verbrauchern sagen, sie wollen wissen, wenn KI eingesetzt wird. Eine grosse Mehrheit gibt an, dafür den Anbieter wechseln zu würden. Und die Vertrauenszahlen in der DACH-Region sind besonders deutlich — nur etwa jeder fünfte deutsche Verbraucher sagt, er vertraue KI-Unternehmen, und ungefähr ebenso viele vertrauen der KI selbst.
Das sind keine hypothetischen Präferenzen. Wenn Unternehmen dabei erwischt werden, KI ohne Offenlegung einzusetzen, sind die Konsequenzen greifbar und unverhältnismässig. Der Anteil grosser Unternehmen, die KI als wesentliches Risiko offenlegen, ist in nur zwei Jahren von etwa einem Zehntel auf fast drei Viertel gestiegen — ein Signal, dass Verwaltungsräte und Investoren den nicht offengelegten KI-Einsatz inzwischen als echte Bedrohung für Reputation und Unternehmenswert betrachten. Die Kosten der Entdeckung sind durchweg höher als die Kosten einer proaktiven Offenlegung. Jedes Mal.
Und dennoch bleibt Offenlegung die Ausnahme. Unter grossen europäischen Unternehmen verfügt nur etwa jedes fünfte über eine formelle KI-Richtlinie. Die Kluft zwischen dem, was Menschen erwarten, und dem, was Organisationen tatsächlich tun, ist enorm — und sie schliesst sich nicht schnell genug.
Die übliche Erklärung lautet, dass Unternehmen auf die Regulierung warten, die ihnen sagt, was sie zu tun haben. Die Transparenzanforderungen des EU AI Act erreichen ihre volle Anwendbarkeit erst im August 2026. Deutschland hat noch nicht einmal seine nationalen Behörden benannt. Die Schweiz hat ein umfassendes KI-Gesetz ausdrücklich abgelehnt und setzt stattdessen auf einen sektorspezifischen Ansatz. Das Argument lautet also: Warum handeln, bevor man muss?
Weil es hier eigentlich nicht um Regulierung geht. Es geht darum, ob Ihre Organisation die Art von Organisation ist, die Menschen die Wahrheit darüber sagt, wie Entscheidungen getroffen werden, die sie betreffen.
Was Offenlegung tatsächlich bedeutet — und was nicht
Einer der Gründe, warum Unternehmen zögern, ist, dass «KI-Offenlegung» so klingt, als müsste man etwas gestehen. Das ist nicht der Fall. Es bedeutet, transparent darüber zu sein, wie Ihre Organisation Technologie einsetzt, die die Menschen betrifft, mit denen Sie zusammenarbeiten — Kunden, Mitarbeitende, Partner.
Es gibt hier eine wichtige Unterscheidung. Nicht alles muss offengelegt werden. Rechtschreibprüfung, Spamfilter, interne Recherchehilfen — das sind Hintergrundprozesse, bei denen die KI-Beteiligung unerheblich ist. Niemand erwartet ein Etikett auf jeder automatisch korrigierten E-Mail. Aber wenn KI direkt mit einem Kunden interagiert, wenn sie Einstellungsentscheidungen oder Kreditbewertungen beeinflusst, wenn sie Inhalte generiert, die Menschen erreichen, ohne dass eine substanzielle menschliche Prüfung stattgefunden hat — das sind Situationen, in denen die betroffene Person ein berechtigtes Interesse daran hat, es zu wissen.
Die Forschung bietet tatsächlich einen nützlichen Rahmen, um darüber nachzudenken. Es läuft auf drei Fragen hinaus. Erstens: Könnte die Ausgabe der KI die Rechte, Finanzen oder das Wohlergehen einer Person wesentlich beeinflussen? Wenn ja, offenlegen. Zweitens: Würde eine vernünftige Person bei dieser Interaktion menschliche Beteiligung erwarten? Wenn ja, offenlegen. Drittens: Würde die Entdeckung eines nicht offengelegten KI-Einsatzes mehr Reputationsschaden verursachen als eine proaktive Offenlegung? Wenn ja — und die Antwort ist fast immer ja — offenlegen.
Interessant ist, dass die Forschung auch zeigt, dass das Wie der Offenlegung genauso wichtig ist wie das Ob. Rein mechanische Kennzeichnungen — «dies wurde von KI generiert» — können das Vertrauen eher verringern als aufbauen. Eine Studie ergab, dass einzeilige Offenlegungen durchweg besser abschneiden als detaillierte Erklärungen, die zu Informationsüberflutung führen. Eine andere stellte fest, dass KI-Labels paradoxerweise die Glaubwürdigkeit wahrer Informationen verringern und gleichzeitig die Glaubwürdigkeit falscher Behauptungen erhöhen können.
Die Lehre ist nicht, Offenlegung zu vermeiden. Sie ist, sie nicht schlecht umzusetzen. Eine kurze, ehrliche Aussage darüber, wie KI eingesetzt wurde, kombiniert mit Klarheit über die menschliche Aufsicht, funktioniert besser als entweder erschöpfende Kennzeichnung oder Schweigen. Die europäische Datenschutzerfahrung mit Cookie-Bannern — bei denen gesetzlich vorgeschriebene Offenlegungen zu bedeutungslosen Ritual-Klicks wurden — ist ein warnendes Beispiel dafür, was passiert, wenn Offenlegung auf rechtliche Vollständigkeit statt auf menschliches Verständnis ausgelegt wird.
Der Titelseiten-Test
Es gibt ein nützliches Gedankenexperiment, das auf jede Organisation zutrifft, die KI einsetzt. Wenn morgen öffentlich würde, dass Ihr Unternehmen KI auf diese bestimmte Weise eingesetzt hat, ohne es jemandem mitzuteilen — wären Sie damit einverstanden zu erklären, warum Sie es nicht offengelegt haben?
Wenn die Antwort nein lautet, sollten Sie jetzt offenlegen.
Die Beispiele häufen sich. Eine Fluggesellschaft setzte einen Chatbot ein, der einem Kunden falsche Informationen über Trauerfall-Tarife gab — und als das angefochten wurde, versuchte das Unternehmen zu argumentieren, der Chatbot sei eine separate juristische Person. Eine Recruiting-Plattform wies mit ihrer KI automatisch Bewerber aufgrund des Alters ab und einigte sich auf einen Vergleich von 365'000 Dollar Schadenersatz. Anlageberater wurden bestraft, weil sie KI-gesteuerte Prozesse behaupteten, die gar nicht existierten. In jedem Fall tat die Technologie das, wofür sie gebaut worden war. Was versagte, war die Bereitschaft der Organisation, ehrlich darüber zu sein, was sie tat — und die Konsequenzen waren schlimmer, weil die Offenlegung nicht vom Unternehmen selbst kam.
Das Muster ist konsistent genug, um als Prinzip zu gelten: Die Organisationen, die mit KI in Schwierigkeiten geraten, sind selten die, die zu viel offengelegt haben. Es sind die, die zu wenig und zu spät offengelegt haben.
Offenlegung ist der Anfang — nicht das Ende
Es gibt die Versuchung, Offenlegung als erledigtes Problem zu betrachten, sobald man die richtigen Labels angebracht hat. Wir haben es ihnen gesagt. Erledigt. Aber Offenlegung ohne Feedback-Kanal ist ein Monolog, keine Konversation. Und die Menschen, die von KI-gesteuerten Entscheidungen betroffen sind, kennen den Unterschied.
Stellen Sie sich vor, was passiert, wenn ein Kunde eine KI-generierte Antwort erhält, die falsch ist — ein Chatbot, der falsche Preise nennt, eine Empfehlungsmaschine, die etwas Irrelevantes vorschlägt, eine automatisierte Bewertung, die seinen Antrag falsch klassifiziert. Wenn das Einzige, was Sie getan haben, die Offenlegung der KI-Beteiligung ist, haben Sie ihm gesagt, wem er die Schuld geben soll, aber nicht, was er dagegen tun kann. Die Frustration betrifft nicht nur den Fehler. Es geht um das Fehlen eines offensichtlichen Wegs, ihn zu beheben.
Ein einfacher Meldemechanismus — eine Möglichkeit für Kunden, Mitarbeitende oder Partner zu melden, wenn KI-generierte Inhalte oder Entscheidungen falsch, unfair oder schädlich erscheinen — verändert die Dynamik grundlegend. Er bewegt sich von «wir haben es euch gesagt» zu «wir hören zu». Er gibt Menschen Handlungsfähigkeit gegenüber Technologie, die sie betrifft. Und er gibt der Organisation etwas, das sie dringend braucht: ein Signal, wenn KI-Systeme auf eine Weise versagen, die interne Überwachung möglicherweise nicht erkennt. Die Menschen, die die Ausgabe erleben, bemerken oft als Erste, wenn etwas schiefgelaufen ist.
Das muss nicht aufwändig sein. Eine dedizierte E-Mail-Adresse. Ein Melde-Button neben KI-generierten Inhalten. Eine Zeile in der Offenlegung selbst: «Diese Antwort wurde mit Unterstützung von KI erstellt. Wenn etwas nicht stimmt, können Sie es uns hier mitteilen.» Worauf es ankommt, ist nicht der Mechanismus — es ist die Botschaft dahinter. Sie sagen den Menschen, dass ihre Erfahrung wichtiger ist als die Effizienz Ihrer Automatisierung und dass ein Mensch sich ansehen wird, was sie melden.
Der EU AI Act verlangt für Hochrisikosysteme tatsächlich etwas Ähnliches — Nutzer müssen in der Lage sein, KI-Ausgaben zu verstehen, zu interpretieren und gegebenenfalls anzufechten. Aber auf die Regulierung zu warten, die es vorschreibt, verfehlt den Punkt. Wenn Sie glauben, dass Menschen es verdienen zu wissen, wenn KI im Spiel ist, dann ist der nächste logische Schritt, ihnen eine Stimme zu geben, wenn etwas schiefgeht.
Wie das in der Praxis aussieht
Für ein KMU in der DACH-Region erfordert der Aufbau einer ethischen Offenlegungspraxis keine Compliance-Abteilung und kein KI-Ethik-Gremium. Es erfordert eine Entscheidung — getroffen von der Führung, kommuniziert an jedes Team — darüber, was Ihre Organisation als angemessene Transparenz betrachtet, und die Bereitschaft, von den betroffenen Menschen Rückmeldung zu erhalten.
Diese Entscheidung hat zwei realistische Wege.
Offenlegen aus Prinzip. Entscheiden Sie jetzt, bevor jemand fragt und bevor die Regulierung es erzwingt, welche Offenlegungsstandards Ihre Organisation hat. Erfassen Sie, wo KI eingesetzt wird — die meisten Unternehmen, die das tun, entdecken weit mehr KI-Tools im Einsatz als erwartet. Ein dokumentierter Fall fand 23 KI-Tools in einem 85-Personen-Unternehmen, darunter 17 separate ChatGPT-Konten. Etablieren Sie einen einfachen, klaren Rahmen: Immer offenlegen, wenn KI Kunden berührt oder folgenreiche Entscheidungen trifft; Offenlegung in Betracht ziehen, wenn KI Kundenlieferungen mitgestaltet, auch bei menschlicher Prüfung; keine Offenlegung nötig für interne Produktivitätstools mit vollständiger menschlicher Aufsicht. Bauen Sie von Anfang an einen Feedback-Kanal auf — geben Sie den von Ihrer KI betroffenen Menschen eine Möglichkeit, Ihnen mitzuteilen, wenn etwas schiefgeht, und stellen Sie sicher, dass ein Mensch die Eingaben prüft. Kommunizieren Sie all das an Ihre Teams. Machen Sie es zum Teil Ihrer Arbeitsweise, nicht zu einem Kästchen, das Sie ankreuzen.
Offenlegen nach Frist. Warten Sie auf den Durchsetzungstermin des EU AI Act im August 2026. Versuchen Sie hektisch herauszufinden, welche KI Ihre Teams einsetzen. Gleichen Sie es mit den regulatorischen Anforderungen ab. Bauen Sie Offenlegungspraktiken unter Zeitdruck auf, wahrscheinlich mit externer Hilfe. Fügen Sie einen Meldemechanismus hinzu, weil die Regulierung ihn für Hochrisikosysteme verlangt. Am Ende haben Sie etwas, das technisch konform ist, aber sich genau so anfühlt, wie es ist — eine Reaktion auf eine Frist, kein Bekenntnis zu den Menschen, denen Sie dienen.
Der erste Weg kostet etwa 60 bis 80 Stunden verteilten Aufwand über 90 Tage, basierend auf dokumentierten Implementierungsfällen. Er erfordert keine zusätzlichen Stellen. Er erfordert Führungsaufmerksamkeit und ein echtes Bekenntnis zur Ehrlichkeit gegenüber den Menschen, denen Ihre Organisation dient.
Der zweite Weg kostet mehr — an Beratungsgebühren, an übereilter Umsetzung und an der Glaubwürdigkeitslücke zwischen Organisationen, die sich für Transparenz entschieden haben, und Organisationen, die dazu gebracht wurden.
Warum das im DACH-Markt besonders wichtig ist
Deutsche Verbraucher gehören zu den KI-skeptischsten Bevölkerungen in Europa. Das Vertrauen in KI-Unternehmen liegt bei etwa 21%. Das Vertrauen in KI selbst ist ungefähr gleich hoch. In einem Markt, in dem fast neun von zehn Unternehmen das Herkunftsland ihres KI-Anbieters für wichtig halten und die überwältigende Mehrheit davon deutsche Lösungen bevorzugt, ist Vertrauenswürdigkeit kein Nice-to-have. Sie ist eine Voraussetzung für Geschäftstätigkeit.
Diese Skepsis wird manchmal als Hindernis für die KI-Einführung dargestellt. Genauer betrachtet ist sie ein Qualitätsfilter. DACH-Käufer — ob Verbraucher oder B2B-Beschaffungsteams — lehnen KI nicht ab. Sie lehnen KI ab, der sie nicht vertrauen können. Und Vertrauen beginnt mit Ehrlichkeit darüber, was man tut.
Österreich hat bereits gehandelt und Anfang 2024 eine eigene KI-Servicestelle innerhalb seiner Telekommunikationsregulierungsbehörde eingerichtet — eine der ersten operativen KI-Informations- und Aufsichtsstellen der EU — und eine verpflichtende KI-Kennzeichnung in staatlichen Diensten eingeführt. Deutschland holt auf, mit Gesetzesentwürfen zur Benennung nationaler Behörden. Die Schweiz hat sich zwar ausserhalb des EU-Rahmens positioniert, bindet ihre Unternehmen aber extraterritorial, wenn sie KI-Systeme in europäische Märkte verkaufen. Die regulatorische Richtung ist eindeutig. Aber die ethische Richtung hätte schon lange vor der Regulierung klar sein müssen.
Das Fazit
Die Frage, die jedes Führungsteam stellen sollte, ist nicht, ob es gesetzlich verpflichtet ist, den KI-Einsatz offenzulegen. Sondern ob es ihnen recht wäre, wenn ihre Kunden, ihre Mitarbeitenden und ihre Partner es selbst herausfinden würden.
Offenlegung ist keine Belastung. Schweigen schon. Und Offenlegung ohne eine Möglichkeit für Menschen zu reagieren, ist keine Transparenz — es ist eine Einbahnkommunikation. Die Organisationen, die im nächsten Jahrzehnt das grösste Vertrauen geniessen werden, sind die, die den Menschen die Wahrheit gesagt und ihnen dann eine Stimme gegeben haben, wenn etwas schiefging. Nicht weil es vorgeschrieben war, sondern weil es richtig war. Und in einem so vertrauenssensiblen Markt wie der DACH-Region ist dieses Bekenntnis nicht nur ethisch. Es ist das Fundament, auf dem alles andere aufgebaut wird.
Diskussion
Legt Ihre Organisation offen, wenn KI im Spiel ist — oder warten Sie darauf, dass die Regulierung das für Sie entscheidet? Ich würde gerne hören, wie Sie damit umgehen — beteiligen Sie sich an der Diskussion auf LinkedIn.
Alles in Teil Eins basiert auf konkreter Forschung. Dieser Abschnitt legt die Daten offen für alle, die die Behauptungen überprüfen, die Zahlen hinterfragen oder das Ganze mit Quellen versehen ihrem Verwaltungsrat vorlegen möchten.
Teil Zwei: Die Evidenz
Was Verbraucher und Geschäftskunden tatsächlich erwarten
Die Nachfrage nach KI-Offenlegung ist nicht spekulativ — sie ist gemessen, konsistent und wächst in jeder grossen Umfrage, die 2025 und 2026 durchgeführt wurde.
Capgeminis Konsumtrend-Studie 2026 — mit 12'000 Verbrauchern in 12 Ländern — ergab, dass 76% klare Regeln dafür wollen, wann KI-Assistenten in ihrem Namen handeln dürfen [1]. 71% äusserten Bedenken darüber, wie generative KI-Tools ihre Daten nutzen, und zwei Drittel sagten, sie vertrauen KI mehr, wenn sie ihre Entscheidungen erklärt [1]. Eine Emplifi-Umfrage unter häufigen Social-Media-Nutzern ergab, dass 83% eine Offenlegung wünschen, wenn KI eingesetzt wird, wobei etwa die Hälfte angab, ein «KI-gestützt»-Label würde ihr Vertrauen in die Marke erhöhen [2].
Die Konsequenzen, wenn diese Erwartungen nicht erfüllt werden, sind gravierend. Die Umfrage von Relyance AI vom Dezember 2025 ergab, dass 82% der Verbraucher den Kontrollverlust über ihre Daten in KI-Systemen als ernsthafte persönliche Bedrohung betrachten. Noch kritischer: 84% sagten, sie würden handeln — indem sie ein Unternehmen meiden oder ihre Nutzung einschränken — wenn dieses Unternehmen nicht erklären kann, wie ihre Daten verwendet werden [3]. 57% sagten, sie würden das Produkt ganz aufgeben [3].
Die B2B-Erwartungen spiegeln die Verbraucherdaten wider. Aktuelle Forschung zeigt, dass 71% der B2B-Entscheidungsträger Lieferanten ohne klare, transparente Informationen meiden, und 66% der B2B-Käufer inzwischen KI-Tools für die Lieferantenrecherche nutzen — was bedeutet, dass Ihre Transparenzpraktiken für Beschaffungsteams zunehmend sichtbar sind, bevor sie Sie überhaupt kontaktieren [4]. Der Stanford Foundation Model Transparency Index 2025 stellte fest, dass B2B-orientierte Unternehmen wie IBM (mit 95 von 100 Punkten) Transparenz als Differenzierungsmerkmal nutzen, obwohl der Branchendurchschnitt bei nur 41 von 100 liegt [4].
Das DACH-Vertrauensdefizit — und die Chance der Offenlegung
Der DACH-Markt verstärkt diese Dynamiken. Das Nürnberg Institut für Marktentscheidungen (NIM), das jeweils 1'000 Befragte in den USA, Grossbritannien und Deutschland befragte, stellte fest, dass nur 21% der deutschen Verbraucher KI-Unternehmen und deren Versprechen vertrauen und nur 20% der KI selbst [5]. Das gehört zu den niedrigsten Vertrauenswerten in jedem grösseren europäischen Markt.
Bitkoms Umfrage 2025 unter 604 deutschen Unternehmen bestätigt dies von der Unternehmensseite: 88% halten das Herkunftsland ihres KI-Anbieters für wichtig, und 93% davon bevorzugen deutsche Lösungen [6]. Diese Präferenz betrifft nicht nur Datensouveränität — sie ist ein Stellvertreter für Vertrauenswürdigkeit. In einem Markt mit diesem Grad an Skepsis ist Transparenz eine wettbewerbliche Voraussetzung, kein Differenzierungsmerkmal.
Die Forschung von Glass Lewis 2025 zur europäischen Corporate Governance ergab, dass nur 20,7% der grossen europäischen Unternehmen formelle KI-Richtlinien hatten, wobei 61,3% überhaupt keine KI-Richtlinie offenlegten [7]. Die Schweiz führte mit 40% Adoptionsrate — bemerkenswert angesichts ihrer Entscheidung, kein umfassendes KI-Gesetz zu verfolgen. Die Kluft zwischen Verbrauchererwartungen (über 80% wollen Offenlegung) und Unternehmensbereitschaft (etwa 20% haben Richtlinien) stellt die grösste Vertrauensasymmetrie in der europäischen Technologielandschaft dar.
Die McDonald's-Lektion und das Paradox des Offenlegungsdesigns
Der Fall McDonald's Niederlande vom Dezember 2025 ist einer der klarsten Datenpunkte dafür, wie mangelnde Offenlegung nach hinten losgeht. Das Unternehmen veröffentlichte einen 45-sekündigen KI-generierten Weihnachtswerbespot, ohne die KI-Beteiligung offenzulegen. Die sozialen Medien identifizierten es innerhalb von Stunden, brandmarkten es als «AI slop», und McDonald's zog die Werbung innerhalb von drei Tagen zurück [8]. Im gleichen Zeitraum schaltete Coca-Cola KI-generierte Weihnachtskampagnen, die ebenfalls kontrovers waren — aber das Unternehmen war offen über die Rolle der KI in Pressematerialien und öffentlicher Kommunikation. Die Stimmungsdaten zeigten eine messbar positivere Rezeption, wobei eine Analyse 61% positive Stimmung verzeichnete [9].
Der Unterschied war nicht die Qualität. Es war die Ehrlichkeit. Aber die Forschung zum Offenlegungsdesign fügt eine wichtige Nuance hinzu, die verhindert, dass dies eine einfache «einfach offenlegen»-Geschichte wird.
Die Studie von Schilke und Reimann 2025 in Organizational Behavior and Human Decision Processes — über 13 präregistrierte Experimente mit über 3'000 Teilnehmern — identifizierte das sogenannte «Transparency Dilemma». Akteure, die den KI-Einsatz freiwillig offenlegen, wird zunächst weniger vertraut als solchen, die es nicht tun, vermittelt durch eine reduzierte Wahrnehmung der Legitimität. Allerdings — und das ist der entscheidende Befund — hat die Aufdeckung durch Dritte eines nicht offengelegten KI-Einsatzes einen noch stärkeren negativen Effekt als die freiwillige Offenlegung [10]. Die Implikation ist nicht, dass Unternehmen Offenlegung vermeiden sollten, sondern dass die Rahmung darüber entscheidet, ob sie Vertrauen aufbaut oder untergräbt.
Eine Studie von 2026 zur KI-Offenlegung in Nachrichteninhalten ergab, dass detaillierte Offenlegungen durch Informationsüberflutung zu reduziertem Vertrauen führten, während einzeilige Offenlegungen diesen negativen Effekt nicht produzierten — sie hielten das Vertrauen auf einem Niveau vergleichbar mit gar keiner Offenlegung [11]. Eine separate Studie, veröffentlicht im Journal of Science Communication, stellte fest, dass KI-Labels paradoxerweise die Glaubwürdigkeit wahrer Informationen verringern und gleichzeitig die Glaubwürdigkeit falscher Behauptungen erhöhen können — ein «Wahrheits-Falschheits-Crossover-Effekt», angetrieben durch negative Einstellungen gegenüber KI [12].
Diese Erkenntnisse führen zu einer praktischen Schlussfolgerung: Offenlegung muss kurz, verhältnismässig und auf menschliches Verständnis ausgelegt sein. Die europäische Datenschutzerfahrung mit Cookie-Bannern — bei denen gesetzlich vorgeschriebene Offenlegungen zu bedeutungslosen Ritual-Klicks wurden — ist das warnende Beispiel. Das AI Transparency and Disclosure Framework des IAB vom Januar 2026 begegnet dem mit einem Wesentlichkeitstest: Offenlegung ist nur dann erforderlich, wenn KI «Authentizität, Identität oder Darstellung wesentlich beeinflusst, in einer Weise, die irreführend sein könnte» [13]. Nicht alles braucht ein Label. Aber das, was ein Label braucht, braucht ein gutes.
Die Rechtslandschaft — Fälle, die den Präzedenz schaffen
Mehrere Durchsetzungsmassnahmen und Gerichtsurteile haben festgestellt, dass die Nichtoffenlegung von KI-Einsatz reale finanzielle und rechtliche Konsequenzen hat.
Im Februar 2024 entschied das British Columbia Civil Resolution Tribunal, dass Air Canada für falsche Informationen über Trauerfall-Tarife haftbar ist, die ihr KI-Chatbot gegeben hatte. Das Argument der Fluggesellschaft, der Chatbot sei eine «separate juristische Person», wurde zurückgewiesen — das Tribunal hielt das Unternehmen für vollständig verantwortlich für Informationen, die seine KI-Tools den Kunden liefern [14].
Die US Equal Employment Opportunity Commission legte ihren ersten KI-Diskriminierungsfall bei, als iTutorGroup sich bereit erklärte, 365'000 Dollar zu zahlen, nachdem ihre KI-Recruiting-Software automatisch Bewerber über 55 (Frauen) und 60 (Männer) abgelehnt hatte und mehr als 200 qualifizierte Kandidaten aufgrund des Alters aussortiert wurden [15]. Im März 2024 verhängte die SEC Geldstrafen von insgesamt 400'000 Dollar gegen zwei Anlageberater wegen falscher Behauptungen KI-gesteuerter Anlageprozesse — die erste «AI Washing»-Durchsetzungsmassnahme der Behörde [16].
Der S&P 500 hat reagiert. Laut The Conference Board und ESGAUGE legen 72% der S&P-500-Unternehmen inzwischen mindestens ein wesentliches KI-Risiko in ihren 10-K-Berichten offen, gegenüber nur 12% im Jahr 2023. Reputationsrisiko ist die Hauptsorge, genannt von 38% der offenlegenden Unternehmen [17]. Der Anstieg von 12% auf 72% in zwei Jahren signalisiert, dass Verwaltungsräte und Investoren den nicht offengelegten KI-Einsatz inzwischen als wesentliches Governance-Risiko betrachten.
Der regulatorische Zeitplan für die DACH-Region
Der EU AI Act (Verordnung 2024/1689) trat am 1. August 2024 in Kraft, mit schrittweiser Umsetzung. Verbotene KI-Praktiken und Anforderungen an die KI-Kompetenz wurden am 2. Februar 2025 durchsetzbar. Die Transparenzpflichten nach Artikel 50 — die verlangen, dass KI-Systeme, die mit Menschen interagieren, Nutzer darüber informieren, dass sie mit KI kommunizieren, dass KI-generierte Inhalte maschinenlesbar gekennzeichnet werden und dass Deepfakes und KI-generierte Texte zu Themen von öffentlichem Interesse offengelegt werden — erreichen ihre volle Anwendbarkeit am 2. August 2026 [18]. Strafen bei Nichteinhaltung reichen bis zu 35 Millionen Euro oder 7% des weltweiten Jahresumsatzes für Verstösse gegen verbotene Praktiken, wobei KMU proportional niedrigere Bussgelder erhalten [18].
Österreich richtete seine KI-Servicestelle innerhalb der RTR-Telekommunikationsregulierungsbehörde im Januar 2024 ein — eine der ersten operativen KI-Aufsichtsstellen der EU [19]. Deutschlands Entwurf des KI-MIG benennt die Bundesnetzagentur als zentrale Marktüberwachungsbehörde, obwohl das Land die Benennungsfrist vom August 2025 teilweise aufgrund der Bundestagswahl 2025 verpasste. Die Schweiz lehnte am 12. Februar 2025 ausdrücklich ein umfassendes horizontales KI-Gesetz zugunsten eines sektorspezifischen Regulierungsansatzes ab, obwohl Schweizer Unternehmen, die KI-Systeme in europäische Märkte verkaufen, den EU AI Act extraterritorial einhalten müssen [20].
Praktische Umsetzung — was es tatsächlich braucht
Die Befürchtung, KI-Governance sei für KMU zu aufwändig, wird durch die Implementierungsdaten nicht gestützt. Ein ResultSense-Blueprint für KMU-KI-Governance beschreibt einen vierphasigen Rahmen, der in 60 bis 80 Stunden über 90 Tage erreichbar ist, verteilt auf IT-, Management-, Rechts- und Betriebsteams, ohne zusätzliche Stellen [21].
ISO/IEC 42001:2023 — der weltweit erste zertifizierbare Standard für KI-Managementsysteme — bietet ein formelles Gerüst für Organisationen, die eine externe Validierung ihrer Governance-Praktiken wünschen, mit 38 Kontrollen in 9 Zielbereichen einschliesslich Transparenz, Risikomanagement und Datengovernance [22]. Der EU AI Act selbst enthält KMU-Erleichterungen: vorrangiger kostenloser Sandbox-Zugang, vereinfachte Dokumentationsanforderungen, verhältnismässige Gebühren für Konformitätsbewertungen und dedizierte Kommunikationskanäle für die Einhaltung [18].
Die OECD AI Principles, aktualisiert im Mai 2024, stellen fest, dass «Offenlegung im Verhältnis zur Bedeutung der Interaktion erfolgen sollte» — und anerkennen ausdrücklich, dass die zunehmende Allgegenwart von KI die Durchführbarkeit der Offenlegung in einigen Fällen beeinflussen kann [23]. Dieser Verhältnismässigkeitsansatz stimmt mit dem wesentlichkeitsbasierten Rahmen überein: Immer offenlegen, wenn KI Menschen wesentlich betrifft, Offenlegung in Betracht ziehen, wenn sie Lieferergebnisse mitgestaltet, kein Label nötig für routinemässige Hintergrundtools.
References
| Ref | Source | Published | Used for |
|---|---|---|---|
| 1 | Capgemini — What Matters to Today's Consumer 2026 | January 2026 | 76% wollen klare KI-Regeln, 71% besorgt über Datennutzung, zwei Drittel vertrauen KI mehr mit Erklärungen |
| 2 | Emplifi — AI in Social Media 2025: What Consumers Want | 2025 | 83% wollen KI-Offenlegung, ~50% sagen, ein «KI-gestützt»-Label erhöht ihr Vertrauen |
| 3 | Relyance AI — AI Data Ultimatum Consumer Survey | December 2025 | 82% sehen Datenkontrollverlust als ernste Bedrohung, 84% würden Unternehmen meiden oder einschränken wegen KI-Intransparenz |
| 4 | Stanford HAI — Foundation Model Transparency Index 2025 | December 2025 | IBM erreicht 95/100, Branchendurchschnitt 41/100; B2B-Transparenz als Differenzierungsmerkmal |
| 5 | NIM — Transparency Without Trust | 2025 | 21% der deutschen Verbraucher vertrauen KI-Unternehmen, 20% vertrauen der KI selbst |
| 6 | Bitkom — Breakthrough in Artificial Intelligence 2025 | 2025 | 88% der deutschen Unternehmen halten Herkunftsland des KI-Anbieters für wichtig, 93% bevorzugen deutsche Lösungen |
| 7 | Glass Lewis — Board AI Policies and Oversight in Europe 2025 | 2025 | 20,7% der europäischen Grossunternehmen haben formelle KI-Richtlinien; Schweiz führt mit 40% |
| 8 | NBC News — McDonald's AI-generated Christmas advert pulled after backlash | December 2025 | McDonald's Niederlande KI-Werbung innerhalb von drei Tagen nach Veröffentlichung zurückgezogen |
| 9 | Decision Marketing — Coke AI ad triggers mass debate but most still love it | 2025 | Coca-Cola KI-Weihnachtswerbung erhielt 61% positive Stimmung bei offener KI-Kommunikation |
| 10 | Schilke & Reimann — The Transparency Dilemma: How AI Disclosure Erodes Trust, OBHDP | May 2025 | 13 Experimente, 3'000+ Teilnehmer: Freiwillige Offenlegung reduziert Vertrauen, aber Aufdeckung durch Dritte reduziert es stärker |
| 11 | Full Disclosure, Less Trust? AI Disclosure in News Writing | January 2026 | Detaillierte KI-Offenlegungen reduzieren Vertrauen; einzeilige Offenlegungen halten Vertrauensniveau |
| 12 | Lin — Visible sources and invisible risks, JCOM | 2026 | KI-Labels verringern Glaubwürdigkeit wahrer Informationen, erhöhen Glaubwürdigkeit falscher Behauptungen |
| 13 | IAB — AI Transparency and Disclosure Framework | January 2026 | Wesentlichkeitstest: Offenlegung erforderlich, wenn KI Authentizität, Identität oder Darstellung wesentlich beeinflusst |
| 14 | ABA — BC Tribunal Confirms Companies Liable for AI Chatbot Information | February 2024 | Air Canada haftbar für Chatbot-Fehlinformationen; Argument der «separaten juristischen Person» abgewiesen |
| 15 | EEOC — iTutorGroup Settlement | August 2023 | 365'000 Dollar Vergleich wegen KI-Altersdiskriminierung bei der Einstellung; über 200 Bewerber abgelehnt |
| 16 | SEC — AI Washing Enforcement Action | March 2024 | 400'000 Dollar Gesamtstrafe wegen falscher Behauptungen KI-gesteuerter Anlageprozesse |
| 17 | Fortune / Conference Board — S&P 500 AI Risk Disclosure | October 2025 | 72% der S&P 500 legen wesentliches KI-Risiko offen (von 12% in 2023); Reputationsrisiko von 38% genannt |
| 18 | EU AI Act — Article 50: Transparency Obligations | Ongoing | Transparenzanforderungen nach Artikel 50 anwendbar ab 2. August 2026; Sanktionsrahmen |
| 19 | RTR — KI-Servicestelle | January 2024 | Österreichs KI-Servicestelle im Januar 2024 innerhalb der RTR eingerichtet |
| 20 | Swiss Federal Council — Sector-Specific AI Regulatory Approach | February 2025 | Schweiz lehnte umfassendes KI-Gesetz am 12. Februar 2025 ab; sektorspezifischer Ansatz gewählt |
| 21 | ResultSense — Shadow AI Governance Framework for SMEs | October 2025 | 60–80 Stunden Umsetzung über 90 Tage; vierphasiger KMU-Governance-Blueprint |
| 22 | ISO — ISO/IEC 42001:2023 AI Management Systems | December 2023 | Weltweit erster zertifizierbarer KI-Managementsystem-Standard; 38 Kontrollen in 9 Zielbereichen |
| 23 | OECD — AI Principles | May 2024 (updated) | Offenlegung im Verhältnis zur Bedeutung der Interaktion; berücksichtigt Machbarkeitseinschränkungen |
Dieser Artikel ist Teil der Strategic-Insights-Reihe auf alexandrebally.ch, in der wir die operativen Realitäten hinter Unternehmenstransformation und KI-Adoption für KMU in der DACH-Region beleuchten.
Kommentare sind noch nicht konfiguriert.