05.01.2026
Temps de lecture : 3 min

Le régulateur britannique interroge X sur des allégations de génération d’images ‘sexualisées’ d’enfants par l’IA

UK regulator asks X about reports its AI makes 'sexualised images of children'

Face à des rapports alarmants, Ofcom a contacté de manière urgente l’entreprise d’Elon Musk, xAI, concernant son application d’IA, Grok, qui serait capable de créer des ‘images sexualisées d’enfants’ et de déshabiller numériquement des femmes.

Un représentant de l’organisme de régulation a confirmé qu’ils enquêtaient sur les problèmes entourant la production d’images ‘déshabillées’ mettant en scène des individus.

De nombreux cas sur la plateforme X ont émergé, montrant des utilisateurs demandant au chatbot de manipuler de véritables photographies, ce qui a conduit à des femmes apparaissant en maillots de bain sans leur consentement, ainsi qu’à des mises en scène explicites.

Bien qu’une demande de commentaire adressée à X soit restée sans réponse, la plateforme a averti ses utilisateurs dimanche, les conseillant de ne pas utiliser Grok pour générer du contenu illégal, y compris des matériaux liés à l’exploitation sexuelle des enfants.

Elon Musk a également pris la parole sur les réseaux sociaux, affirmant que ceux qui incitent l’IA à créer du contenu illégal feraient face à des conséquences similaires à celles de ceux qui téléchargent directement de tels matériaux.

Les lignes directrices sur l’utilisation acceptable établies par XAI interdisent explicitement de ‘représenter des individus dans un contexte pornographique’.

Néanmoins, Grok a été utilisé par des utilisateurs pour retirer des vêtements d’individus sur des images sans obtenir leur consentement ou même les informer.

Ce assistant IA est proposé gratuitement, avec des fonctionnalités premium optionnelles qui répondent aux questions taguées dans les publications par des utilisateurs sur X.

Samantha Smith, une journaliste ayant découvert que des utilisateurs avaient généré des images d’elle en maillot de bain, a déclaré se sentir ‘déshumanisée et réduite à un stéréotype sexuel’ lors d’une interview.

« Bien que ce ne soit pas moi qui figurais en état de dénudement, cela me ressemblait, et c’était tout aussi violent que si quelqu’un avait partagé une photo dénudée ou en maillot de bain de moi », a-t-elle commenté.

Selon la loi sur la sécurité en ligne, Ofcom souligne que créer ou distribuer des images intimes ou sexuellement explicites—comme les ‘deepfakes’ générés par l’IA—sans le consentement du sujet est illégal.

De plus, les entreprises technologiques doivent mettre en œuvre des ‘mesures adéquates’ pour réduire le risque que les utilisateurs britanniques rencontrent ce type de contenu et doivent agir rapidement pour le retirer une fois alertées.

Un porte-parole du ministère de l’Intérieur a déclaré qu’une législation était en cours pour interdire les outils de nudification, soulignant que quiconque fournissant une telle technologie pourrait faire face à des peines de prison et à des amendes considérables en vertu d’une nouvelle loi pénale.

Pour rester informé des dernières avancées technologiques, envisagez de vous abonner à notre newsletter Tech Decoded.

Commentaires

Laisser un commentaire