Reading time: 7 min
Suzanne Nossel, membre du Conseil de surveillance indépendant de Meta et Lester Crown Senior Fellow au Chicago Council on Global Affairs, s’appuie sur les leçons de deux décennies d’échecs des réseaux sociaux pour affirmer que les entreprises d’IA ont besoin d’une responsabilité externe avant que la prochaine vague de dommages ne déferle. Son avertissement tombe alors que le cadre réglementaire européen sur l’IA traverse une crise d’application, que Washington reste dans l’impasse et que les promesses d’autorégulation de l’industrie s’effritent semaine après semaine.
Ce que Nossel dit réellement
L’argumentation de Nossel, développée dans une tribune publiée par The Guardian début mars 2026 et dans un article plus approfondi cosigné avec le coprésident du Conseil de surveillance Paolo Carozza dans TechPolicy.Press en décembre 2025, part d’un constat structurel. Contrairement à la radio, au nucléaire ou aux débuts d’internet, aucun gouvernement ne pilote le développement de l’intelligence artificielle. Des entreprises privées construisent des systèmes qu’elles ne comprennent pas entièrement, les mettent à disposition de milliards d’utilisateurs, sans être soumises à aucun régime de tests préalable comparable à celui de la FDA pour les médicaments ou de la Nuclear Regulatory Commission pour les réacteurs nucléaires. Aucune obligation de signaler les failles dangereuses ou les accidents n’existe. Aux États-Unis, aucune agence fédérale ne dispose de l’autorité, du financement ni du mandat pour changer cette situation.
Les faits qu’elle avance ne relèvent pas de l’hypothèse. La famille de Sewell Setzer III, un adolescent de 14 ans originaire d’Orlando, en Floride, a poursuivi Character.AI après que le garçon s’est donné la mort à la suite de mois d’échanges avec un chatbot qu’il considérait comme un partenaire amoureux. L’entreprise a invoqué le Premier Amendement pour sa défense, mais la juge fédérale Anne Conway a rejeté cet argument en mai 2025, estimant qu’elle n’était pas disposée à considérer que les réponses d’un chatbot relèvent de la liberté d’expression, comme l’a rapporté l’Associated Press. Google et Character.AI sont parvenus à un accord à l’amiable en janvier 2026, selon ABC News. La politique d’utilisation publiée par Meta AI ne fait qu’un peu plus de trois pages, ont relevé Nossel et Carozza dans TechPolicy.Press, contre environ 80 pages de règles communautaires encadrant ses plateformes de réseaux sociaux. Les directives d’utilisation d’OpenAI se résument à quelque 1 000 mots. Voilà les garde-fous pour des systèmes avec lesquels des centaines de millions de personnes interagissent quotidiennement.
Le problème Anthropic
Dans une analyse de février 2026 intitulée « Claude’s Constitution Needs a Bill of Rights and Oversight », publiée sur le site du Conseil de surveillance, Nossel a directement visé Anthropic, largement considérée comme l’entreprise d’IA de pointe la plus soucieuse de la sécurité. Elle a examiné ce que la société appelle la « constitution » de Claude — un cadre qui oriente le comportement du modèle en lui demandant d’imaginer comment un employé senior réfléchi d’Anthropic arbitrerait entre utilité et risque potentiel. Selon Nossel, cette approche, aussi bien intentionnée soit-elle, est dépourvue de l’ingrédient essentiel qui fait fonctionner toute gouvernance : la responsabilité externe. Sans contrôle indépendant, a-t-elle averti, Anthropic risque de reproduire la trajectoire des réseaux sociaux, où les discours ambitieux ont été suivis de dommages évitables et d’une régulation tardive. Cette critique a d’autant plus de poids que l’entreprise a récemment perdu l’accès à tous les systèmes fédéraux après avoir été désignée comme risque pour la sécurité nationale par le Pentagone — ce qui interroge sur les limites de l’autorégulation lorsque le vent politique tourne.
Le casse-tête de l’application en Europe
L’Union européenne dispose de la seule législation globale sur l’IA au monde. L’AI Act est entré en vigueur en août 2024, les pratiques interdites étant applicables depuis février 2025 et les règles cruciales sur les systèmes à haut risque devant s’appliquer à partir du 2 août 2026, selon le calendrier de mise en œuvre de la Commission européenne. En théorie, cela confère à l’Europe une longueur d’avance réglementaire sur toutes les autres juridictions. Dans les faits, l’infrastructure d’application n’est pas prête.
La Commission européenne n’a pas respecté son propre délai de publication des orientations sur les systèmes d’IA à haut risque, comme l’a rapporté l’International Association of Privacy Professionals. Le CEN et le CENELEC, les deux organismes de normalisation chargés d’élaborer les standards techniques de conformité, ont manqué l’échéance de 2025 et visent désormais la fin 2026, selon l’IAPP. Des groupes de lobbying industriels, dont la Chamber of Progress, ont réclamé des reports, arguant que les entreprises ne peuvent se conformer à des règles dont les normes de conformité n’existent pas encore. En novembre 2025, la Commission a répondu avec son paquet « Digital Omnibus », qui propose de repousser certaines échéances d’application pour les systèmes à haut risque jusqu’à décembre 2027, mais uniquement si les normes harmonisées et les outils de conformité ne sont toujours pas disponibles, comme l’a relevé l’analyse d’OneTrust. Le Parlement européen et le Conseil négocient ce paquet, dont l’adoption formelle est attendue dans le courant de l’année. Les sanctions en cas de non-conformité, lorsque l’application sera effective, sont substantielles : jusqu’à 35 millions d’euros ou 7 % du chiffre d’affaires annuel mondial pour les pratiques interdites, et jusqu’à 15 millions d’euros ou 3 % pour les infractions relatives aux systèmes à haut risque, selon la structure d’application par paliers de l’AI Act.
L’impasse de Washington
Les États-Unis ne disposent d’aucune loi fédérale globale sur l’IA. Le président Donald Trump a signé un décret exécutif le 11 décembre 2025, visant à primer sur les réglementations étatiques au profit d’un cadre national, selon une analyse de Sidley Austin, mais le Congrès ne montre aucun signe de volonté d’adopter la législation nécessaire à sa concrétisation. Résultat : un vide réglementaire au niveau fédéral et un patchwork de plus de 260 projets de loi déposés dans 40 États rien qu’en 2025, selon les données de suivi de Mintz. Le Colorado AI Act, qui impose une diligence raisonnable pour prévenir les discriminations algorithmiques, doit entrer en vigueur le 30 juin 2026, d’après l’analyse réglementaire de Wilson Sonsini. La Californie a adopté des exigences de transparence pour les contenus générés par l’IA, applicables en 2026. La ville de New York, avec sa Local Law 144, impose des audits de biais pour les outils de recrutement automatisé. Le Tennessee a voté des protections contre l’usurpation vocale par IA. L’Utah a créé un bureau dédié à la supervision de l’IA. Aucune de ces initiatives ne constitue une approche nationale cohérente, et le décret exécutif critique explicitement au moins une loi d’État pour son risque de « contraindre à des résultats erronés ».
Ce que le public sait déjà
Un sondage YouGov de décembre 2025, mené auprès de 1 287 adultes américains, révèle que 77 % des Américains s’inquiètent de la menace potentielle de l’IA pour l’humanité, dont 39 % se disent très préoccupés. Seuls 5 % déclarent faire « beaucoup » confiance aux systèmes d’IA. Aucun secteur d’activité n’obtient un score de confiance net positif, la finance et la santé affichant les résultats les plus bas, à respectivement 19 et 23 %. Une enquête distincte du Pew Research Center, réalisée en juin 2025, montre que 57 % des Américains jugent les risques sociétaux de l’IA élevés ou très élevés, tandis que 50 % se disent plus inquiets qu’enthousiastes face au rôle croissant de l’IA dans la vie quotidienne, contre 37 % en 2021. L’alerte du FMI selon laquelle 40 % des emplois européens sont menacés par l’IA n’arrange rien.
L’argument de Nossel ne repose pas sur l’idée que la régulation seule résoudra tout. Il repose sur la conviction que l’industrie de l’IA doit accepter ce que Meta a fini par accepter pour les réseaux sociaux : des organismes externes dotés d’une véritable autorité pour examiner les décisions, faire appliquer les règles et obliger les entreprises à rendre des comptes lorsque les systèmes qu’elles développent causent des dommages. Meta elle-même n’a pas encore étendu cette logique à ses propres produits d’IA. Vingt-six grands fournisseurs d’IA, dont Microsoft, Google, Amazon, OpenAI et Anthropic, ont signé le Code de pratique GPAI de l’UE en août 2025, mais Meta a refusé, s’exposant de ce fait à un examen réglementaire renforcé, selon le suivi d’axis-intelligence.com. Le Conseil de surveillance a annoncé dans son rapport d’impact de décembre 2025, comme l’a rapporté Engadget, qu’il testera en 2026 des pouvoirs d’examen au niveau des comptes, élargissant ainsi son périmètre au-delà des décisions portant sur des contenus individuels. La question de savoir si ce modèle peut se transposer des réseaux sociaux à l’IA reste ouverte. Mais l’alternative — faire confiance aux entreprises pour se contrôler elles-mêmes avec des politiques d’utilisation de trois pages et des constitutions internes — a un bilan. Et il n’est pas brillant.