Les vidéos d’IA montrant des abus sexuels sur des enfants ont augmenté en 2025 alors que Grok fait l’objet d’une enquête
Les vidéos générées par l'intelligence artificielle illustrant des abus sexuels sur des enfants ont augmenté de plus de 26 000 % en 2025, dans un contexte d'inquiétude croissante concernant Grok, un chatbot IA qui fait actuellement l'objet d'une enquête pour avoir produit un contenu similaire. Le procureur général de Californie, Rob Bonta, a annoncé une enquête officielle sur Grok et sa société mère, xAI.
L'Internet Watch Foundation, ou IWF, basée au Royaume-Uni, a signalé avoir identifié 3 440 vidéos de ce type générées par l'IA en 2025, contre seulement 13 l'année précédente, avec plus de la moitié des vidéos tombant dans la « catégorie A », la classification des formes d'abus les plus graves, a rapporté CBS News.
Le chatbot Grok, développé par xAI d'Elon Musk et intégré à la plateforme X, est devenu un point central de controverse en décembre après que Copyleaks, une société de détection de contenu, a découvert qu'il générait une image sexualisée non consensuelle par minute, selon ses estimations.
En réponse, xAI a déclaré avoir mis en œuvre des modifications pour empêcher les utilisateurs de générer des images de personnes portant des vêtements minimaux via Grok, à la suite d'un examen minutieux des régulateurs de l'Union européenne et des agences de protection des consommateurs aux États-Unis.
« Nous prenons des mesures pour supprimer les contenus violants hautement prioritaires, y compris les contenus pédopornographiques (CSAM) et la nudité non consensuelle, en prenant les mesures appropriées contre les comptes qui enfreignent nos règles X », indique un communiqué de la société. « Nous signalons également les comptes recherchant du matériel sur l'exploitation sexuelle des enfants aux autorités chargées de l'application de la loi, si nécessaire. »
« Nous avons mis en place des mesures technologiques pour empêcher [@]Grok compte sur X à l'échelle mondiale en permettant l'édition d'images de personnes réelles dans des vêtements révélateurs tels que des bikinis. Cette restriction s'applique à tous les utilisateurs, y compris les abonnés payants.
Le Centre national sur l'exploitation sexuelle a envoyé une déclaration au Christian Post affirmant que Grok avait créé des dizaines de milliers d'images sexualisant des femmes et des enfants sans leur consentement. Le groupe a appelé le Congrès à agir rapidement pour réglementer les outils basés sur l'IA.
« Les images deepfakes sexuellement explicites sont utilisées pour harceler, déshumaniser et faire taire les gens, en particulier les femmes », a déclaré Dani Pinter, directeur juridique du NCOSE. « Si l’on permet à la technologie de l’IA de progresser sans rendre de comptes, elle ne deviendra pas un outil d’innovation, mais plutôt une arme bon marché de harcèlement et d’humiliation. »
Le groupe a déclaré que Grok était le dernier d'une série d'exemples montrant comment les entreprises technologiques profitent des outils qui permettent la production massive d'images d'exploitation, et que les lois existantes n'ont pas réussi à protéger les utilisateurs américains.
L'organisation a exprimé son soutien à une série de projets de loi fédéraux qui, selon elle, sont essentiels pour freiner les abus rendus possibles par l'IA, notamment la loi DEFIANCE, qui a été adoptée par le Sénat la semaine dernière et permettrait aux survivants d'images sexuelles truquées d'engager des poursuites civiles contre les auteurs.
Le groupe fait également pression pour l'adoption de la loi sur la sécurité en ligne des enfants et de la loi Sunset Section 230, qui imposeraient des obligations légales aux plateformes pour prévenir et atténuer les dommages causés aux mineurs et réduire l'immunité dont bénéficient les entreprises technologiques sur le contenu généré par les utilisateurs.
Parmi les autres projets de loi cités par le groupe figurent la loi STOP CSAM, la loi AI LEAD, la loi GUARD, la loi NO FAKES et la loi Frederick Douglass sur la prévention et la protection des victimes de la traite de 2025.
L'IWF a déclaré que le matériel d'abus sexuel sur enfants généré par AI et enregistré l'année dernière faisait partie d'une augmentation plus large de contenus préjudiciables, avec plus de 300 000 rapports CSAM traités par le groupe de surveillance.
Aux États-Unis, la loi fédérale qualifie la production ou la distribution de matériel pédopornographique d’infraction pénale en vertu des lois interdisant la pédopornographie.
L'IWF a déclaré que les nouveaux outils d'IA sont particulièrement préoccupants car ils permettent de générer des vidéos réalistes à grande échelle, en utilisant peu de compétences techniques et souvent en combinant des images réelles d'enfants récupérées sur Internet.
Les analystes du groupe estiment que l'augmentation des incidents reflète l'accessibilité croissante des outils d'IA à des fins malveillantes.

