Reading time: 5 min
Le gouvernement britannique modifie le projet de loi Crime and Policing pour exiger légalement des plateformes technologiques qu’elles retirent les images intimes non consensuelles — y compris les deepfakes générés par IA — dans les 48 heures suivant un signalement unique. Les entreprises qui ne se conforment pas risquent des amendes allant jusqu’à 10% de leur chiffre d’affaires mondial qualifiant ou le blocage de leurs services en Grande-Bretagne. Cette mesure fait suite à la crise Grok qui a produit environ trois millions d’images sexualisées en onze jours, dont environ 2% semblaient représenter des mineurs.
La règle des 48 heures
Le Premier ministre Keir Starmer a annoncé cet amendement le 18 février aux côtés d’un éditorial dans The Guardian déclarant la violence contre les femmes et les filles comme une urgence nationale. Ce mécanisme est conçu pour mettre fin à ce que Starmer a décrit comme une expérience de “coup de marteau sur une taupe” pour les victimes, qui doivent actuellement poursuivre les suppressions site par site pour voir les images réapparaître ailleurs en quelques heures.
Sous ce nouveau cadre, les victimes signalent une image une seule fois. Les plateformes doivent alors supprimer le contenu partout où il apparaît et empêcher sa remise en ligne. Le régulateur Ofcom envisage un système d’étiquetage numérique qui détecterait et bloquerait automatiquement les images signalées — reproduisant l’infrastructure de correspondance de hachage déjà utilisée pour supprimer le matériel d’abus sexuel d’enfants (CSAM) et le contenu terroriste. Le Département des Sciences, de l’Innovation et de la Technologie publiera séparément des directives pour les fournisseurs d’accès internet sur le blocage d’accès aux “sites web voyous” qui échappent au champ d’application de l’Online Safety Act.
La secrétaire technologique Liz Kendall a explicitement cadré ce changement : aucune femme ne devrait avoir à poursuivre plateforme après plateforme en attendant des jours qu’une image soit supprimée. La ministre pour la Violence contre les Femmes et les Filles Alex Davies-Jones a ajouté que la loi signifie que les plateformes technologiques ne peuvent plus “traîner des pieds” lorsqu’un contenu nuisible est signalé.
Le déclencheur Grok
Le timing est indissociable de la crise qui a éclaté fin décembre 2025, lorsque le chatbot Grok d’Elon Musk — intégré dans X — a commencé à répondre aux demandes d’utilisateurs de déshabiller numériquement des femmes et des filles. Un rapport du Centre for Countering Digital Hate a révélé que Grok a produit approximativement trois millions d’images sexualisées en à peine onze jours, avec environ 2% de celles analysées semblant représenter des mineurs. Ofcom a pris contact d’urgence avec X, et la fonction de “nudification” a finalement été supprimée.
Juste quelques semaines avant l’annonce des 48 heures, Starmer a confirmé que les chatbots IA — incluant Grok de xAI, Gemini de Google, et ChatGPT d’OpenAI — seront explicitement inclus dans le champ d’application de l’Online Safety Act. Le gouvernement ferme également les failles juridiques qui permettaient aux chatbots de générer des images de nus deepfake, et planifie des restrictions supplémentaires sur les plateformes de médias sociaux. En 2025, environ huit millions d’images deepfake ont été partagées mondialement, contre 500 000 il y a seulement deux ans.
Des poursuites à la politique
L’investissement personnel de Starmer dans cette question précède sa carrière politique. En tant que Directeur des Poursuites Publiques dirigeant le Crown Prosecution Service, il a travaillé directement avec des victimes de viol, de violence domestique et de violence sexuelle. Cette expérience a façonné le document stratégique du gouvernement de décembre 2025 — un cadre intergouvernemental de 91 pages soutenu par plus d’1 milliard de livres d’investissement, avec l’objectif explicite de réduire de moitié la violence contre les femmes et les filles en une décennie.
La stratégie repose sur trois piliers : prévention et intervention précoce ciblant les causes profondes chez les hommes et garçons, poursuite agressive des auteurs, et soutien systémique pour les victimes. La règle de suppression de 48 heures est le mécanisme d’application pour la dimension en ligne de cette stratégie — convertissant ce qui était un engagement volontaire de l’industrie en une obligation légale avec des sanctions financières matérielles.
Réponse de l’industrie et des militants
Les militants ont accueilli favorablement l’annonce mais ont questionné si le calendrier va assez loin. Hanna Basha, l’avocate qui a représenté la personnalité télévisée Georgia Harrison dans son affaire civile de pornographie vengeresse, a demandé pourquoi la date limite n’était pas de 24 ou même 12 heures, arguant que chaque heure où les images restent en ligne aggrave le préjudice. Elle a également soulevé un problème structurel : beaucoup de victimes ne peuvent pas trouver où ou comment signaler du contenu abusif en premier lieu.
L’End Violence Against Women Coalition, la Revenge Porn Helpline, et #NotYourPorn — qui ont ensemble remis une pétition de 73 000 signatures à Downing Street — ont qualifié l’annonce de victoire de campagne tout en restant lucides sur l’ampleur du défi. Le volume industriel de production de deepfakes, rendu possible par des outils d’IA de plus en plus accessibles, signifie que la législation doit rivaliser avec une technologie qui évolue plus rapidement que tout calendrier parlementaire.
Musk a répondu aux mesures britanniques antérieures de sécurité en ligne en qualifiant le gouvernement de “fasciste” sur X en janvier 2026 — un commentaire qui souligne la friction diplomatique susceptible d’accompagner l’application. Que la fenêtre de 48 heures représente un véritable transfert de responsabilité des victimes vers les plateformes, ou simplement codifie ce que les entreprises responsables devraient déjà faire, dépendra entièrement de la volonté et de la capacité d’Ofcom à l’appliquer.