Reading time: 6 min
Suzanne Nossel, Mitglied des unabhängigen Oversight Board von Meta und Lester Crown Senior Fellow beim Chicago Council on Global Affairs, zieht die Lehren aus zwei Jahrzehnten Social-Media-Versagen – und fordert, dass KI-Unternehmen externe Rechenschaftspflicht akzeptieren, bevor die nächste Welle an Schäden eintrifft. Ihre Warnung kommt zu einem Zeitpunkt, an dem Europas eigenes KI-Regelwerk vor einer Durchsetzungskrise steht, Washington in einer Blockade verharrt und die Selbstregulierungsversprechen der Branche Woche für Woche dünner werden.
Was Nossel tatsächlich fordert
Nossels Argumentation, dargelegt in einem im März 2026 im Guardian veröffentlichten Gastbeitrag sowie einem längeren gemeinsamen Artikel mit dem Co-Vorsitzenden des Oversight Board, Paolo Carozza, der im Dezember 2025 bei TechPolicy.Press erschien, beginnt mit einer strukturellen Beobachtung: Anders als bei Radio, Kernenergie oder dem frühen Internet treibt keine Regierung die Entwicklung künstlicher Intelligenz voran. Private Unternehmen bauen Systeme, die sie selbst nicht vollständig verstehen, stellen sie Milliarden Nutzern zur Verfügung – und unterliegen keinem Marktzulassungsverfahren, das mit den Prüfungen der FDA für Arzneimittel oder der Nuclear Regulatory Commission für Reaktoren vergleichbar wäre. Unternehmen sind weder verpflichtet, gefährliche Sicherheitsvorfälle noch Unfälle offenzulegen. Keine Bundesbehörde in den USA verfügt über die Befugnis, die Mittel oder das Mandat, daran etwas zu ändern.
Die konkreten Beispiele in ihrer Argumentation sind alles andere als hypothetisch. Die Familie von Sewell Setzer III, einem 14-Jährigen aus Orlando, Florida, verklagte Character.AI, nachdem sich der Junge das Leben genommen hatte – nach monatelanger Interaktion mit einem Chatbot, den er für einen romantischen Partner hielt. Das Unternehmen berief sich auf den Ersten Verfassungszusatz, doch US-Bezirksrichterin Anne Conway wies dieses Argument im Mai 2025 zurück: Sie sei nicht bereit, Chatbot-Ausgaben als geschützte Meinungsäußerung einzustufen, wie die Associated Press berichtete. Google und Character.AI einigten sich im Januar 2026 auf einen Vergleich, so ABC News. Die veröffentlichte Nutzungsrichtlinie von Meta AI umfasst gerade einmal gut drei Seiten, schrieben Nossel und Carozza bei TechPolicy.Press – verglichen mit rund 80 Seiten Community-Standards für die Social-Media-Plattformen des Konzerns. OpenAIs Nutzungsrichtlinien kommen auf etwa 1.000 Wörter. Das sind die Leitplanken für Systeme, mit denen täglich Hunderte Millionen Menschen interagieren.
Das Anthropic-Problem
In einer im Februar 2026 auf der Website des Oversight Board veröffentlichten Analyse mit dem Titel „Claude’s Constitution Needs a Bill of Rights and Oversight” nahm Nossel Anthropic direkt ins Visier – jenes Unternehmen, das weithin als das sicherheitsbewussteste unter den führenden KI-Firmen gilt. Sie untersuchte die sogenannte „Verfassung” von Claude, ein Rahmenwerk, das das Verhalten des Modells steuert, indem es angewiesen wird, sich vorzustellen, wie ein umsichtiger leitender Anthropic-Mitarbeiter Nützlichkeit gegen potenzielle Schäden abwägen würde. Nossel argumentierte, dass diesem Ansatz – wie gut gemeint er auch sein mag – die entscheidende Zutat fehlt, die Governance zum Funktionieren bringt: externe Kontrolle. Ohne unabhängige Aufsicht drohe Anthropic, den gleichen Weg wie die sozialen Medien zu gehen, wo vollmundige Versprechen von vermeidbaren Schäden und verspäteter Regulierung gefolgt wurden. Diese Kritik wiegt umso schwerer, da das Unternehmen kürzlich von allen Bundessystemen ausgeschlossen wurde, nachdem das Pentagon es als Sicherheitsrisiko eingestuft hatte – was die Frage aufwirft, wie weit Selbstregulierung ein Unternehmen tragen kann, wenn sich der politische Wind dreht.
Europas Durchsetzungsproblem
Die Europäische Union verfügt über das weltweit einzige umfassende KI-Gesetz. Der AI Act trat im August 2024 in Kraft, verbotene Praktiken sind seit Februar 2025 durchsetzbar, und die entscheidenden Regeln für Hochrisiko-Systeme sollen am 2. August 2026 greifen – so der Umsetzungszeitplan der Europäischen Kommission. Theoretisch verschafft das Europa einen regulatorischen Vorsprung gegenüber allen anderen Jurisdiktionen. In der Praxis ist die Durchsetzungsinfrastruktur jedoch nicht bereit.
Die Europäische Kommission verpasste ihre eigene Frist für die Veröffentlichung von Leitlinien zu Hochrisiko-KI-Systemen, wie die International Association of Privacy Professionals berichtete. CEN und CENELEC, die beiden Normungsgremien, die mit der Entwicklung technischer Standards für die KI-Compliance beauftragt sind, verfehlten eine Frist im Jahr 2025 und peilen nun Ende 2026 an, so IAPP. Branchenlobbygruppen, darunter die Chamber of Progress, forderten Aufschübe mit dem Argument, Unternehmen könnten keine Regeln einhalten, wenn die Standards, die Compliance definieren, noch gar nicht existieren. Im November 2025 reagierte die Kommission mit ihrem Digital-Omnibus-Paket, das vorschlägt, bestimmte Durchsetzungsfristen für Hochrisiko-Systeme bis Dezember 2027 zu verschieben – allerdings nur, wenn harmonisierte Standards und Compliance-Tools weiterhin fehlen, wie aus der Analyse von OneTrust hervorgeht. Europäisches Parlament und Rat verhandeln das Paket; die formelle Verabschiedung wird noch in diesem Jahr erwartet. Die Strafen bei Nichteinhaltung sind erheblich: bis zu 35 Mio. € oder 7 Prozent des weltweiten Jahresumsatzes für verbotene Praktiken und bis zu 15 Mio. € oder 3 Prozent für Hochrisiko-Verstöße – gemäß der abgestuften Sanktionsstruktur des AI Act.
Washingtons Nicht-Antwort
Die Vereinigten Staaten haben kein umfassendes Bundes-KI-Gesetz. Präsident Donald Trump unterzeichnete am 11. Dezember 2025 eine Executive Order, die darauf abzielt, einzelstaatliche KI-Regulierung zugunsten eines nationalen Rahmens zu übersteuern – so eine Analyse von Sidley Austin –, doch der Kongress zeigt keinerlei Anzeichen, die dafür nötige Gesetzgebung zu verabschieden. Das Ergebnis: ein regulatorisches Vakuum auf Bundesebene und ein Flickenteppich aus über 260 Gesetzesinitiativen, die 2025 allein in 40 Bundesstaaten eingebracht wurden, wie Tracking-Daten von Mintz zeigen. Colorados AI Act, der eine angemessene Sorgfaltspflicht zur Vermeidung algorithmischer Diskriminierung vorschreibt, soll am 30. Juni 2026 in Kraft treten, so der Regulierungsausblick von Wilson Sonsini. Kalifornien hat Transparenzpflichten für KI-generierte Inhalte erlassen, die 2026 wirksam werden. New York Citys Local Law 144 schreibt Bias-Audits für automatisierte Einstellungstools vor. Tennessee hat Schutzmaßnahmen gegen KI-Stimmimitation verabschiedet, und Utah hat eine eigene KI-Aufsichtsbehörde geschaffen. Nichts davon ergibt einen kohärenten nationalen Ansatz – und die Executive Order kritisiert ausdrücklich mindestens ein Landesgesetz wegen seiner potenziellen Wirkung, falsche Ergebnisse zu erzwingen.
Was die Öffentlichkeit längst weiß
Eine YouGov-Umfrage unter 1.287 US-Erwachsenen vom Dezember 2025 ergab, dass 77 Prozent der Amerikaner besorgt sind, KI könne eine Bedrohung für die Menschheit darstellen – 39 Prozent davon „sehr besorgt”. Nur 5 Prozent gaben an, KI-Systemen „sehr” zu vertrauen. Kein Wirtschaftssektor erzielte einen netto-positiven Vertrauenswert; Finanzen und Gesundheitswesen schnitten mit 19 bzw. 23 Prozent am schlechtesten ab. In einer separaten Umfrage des Pew Research Center vom Juni 2025 bewerteten 57 Prozent der Amerikaner die gesellschaftlichen Risiken von KI als hoch oder sehr hoch, und 50 Prozent zeigten sich eher besorgt als begeistert über die wachsende Rolle von KI im Alltag – gegenüber 37 Prozent im Jahr 2021. Die Warnung des IWF, dass 40 Prozent der europäischen Arbeitsplätze von KI-Disruption bedroht sind, macht die Sache nicht besser.
Nossels Argument lautet nicht, dass Regulierung allein das Problem löst. Ihr Punkt ist, dass die KI-Branche akzeptieren muss, was Meta für soziale Medien schließlich akzeptiert hat: externe Gremien mit echter Befugnis, Entscheidungen zu überprüfen, Regeln durchzusetzen und Unternehmen zur Verantwortung zu ziehen, wenn die von ihnen gebauten Systeme Schaden anrichten. Meta selbst hat diese Logik bisher nicht auf seine eigenen KI-Produkte übertragen. 26 große KI-Anbieter, darunter Microsoft, Google, Amazon, OpenAI und Anthropic, unterzeichneten im August 2025 den GPAI Code of Practice der EU – Meta verweigerte die Unterschrift und sieht sich infolgedessen verschärfter regulatorischer Prüfung ausgesetzt, wie der Tracker von axis-intelligence.com zeigt. Das Oversight Board kündigte in seinem Wirkungsbericht vom Dezember 2025, wie Engadget berichtete, an, 2026 pilotweise Überprüfungsbefugnisse auf Kontoebene einzuführen und damit seinen Zuständigkeitsbereich über einzelne Inhaltsentscheidungen hinaus auszuweiten. Ob sich dieses Modell von sozialen Medien auf KI übertragen lässt, bleibt offen. Doch die Alternative – darauf zu vertrauen, dass Unternehmen sich selbst mit dreiseitigen Nutzungsrichtlinien und internen Verfassungen kontrollieren – hat eine Erfolgsbilanz. Und die ist nicht gut.