Les législateurs cherchent à forcer les entreprises technologiques à supprimer la pornographie deepfake
Accueil » Actualités » Les législateurs cherchent à forcer les entreprises technologiques à supprimer la pornographie deepfake

Les législateurs cherchent à forcer les entreprises technologiques à supprimer la pornographie deepfake

Un nouveau projet de loi a été présenté mercredi au Congrès par un groupe bipartisan de sénateurs dirigé par le sénateur Ted Cruz, du Texas, pour exiger que les plateformes technologiques et de médias sociaux suppriment toute fausse pornographie dans les 48 heures suivant sa détection.

Cette initiative bipartite vise à fournir un cadre juridique plus solide pour lutter contre la menace émergente des contenus abusifs manipulés numériquement.

La loi TAKE IT DOWN propose des sanctions plus strictes pour les particuliers et les entreprises technologiques qui ne suppriment pas le contenu préjudiciable dans les 48 heures à la demande d'une victime. Les personnes reconnues coupables de création et de distribution de deepfake pornographie pourraient encourir jusqu'à deux ans de prison pour les images d'adultes et jusqu'à trois ans pour les images impliquant des enfants.

Le défaut d’une entreprise de se conformer avec diligence pourrait être classé comme une pratique déloyale ou trompeuse en vertu de la Federal Trade Commission Act.

Dirigé par Cruz, le projet de loi est également parrainé par la sénatrice Amy Klobuchar, D-Minn., Cynthia Lummis, R-Wyo., Richard Blumenthal, D-Conn., Shelley Moore Capito, RW.Va., Jacky Rosen, D- Nevada, Ted Budd, RN.C., Laphonza Butler, D-Californie, Todd Young. R-Ind., Joe Manchin, IW.Va., John Hickenlooper, D-Colo., Bill Cassidy, R-La., et Martin Heinrich. DN.M.

« Ces dernières années, nous avons assisté à une augmentation stupéfiante du matériel d'exploitation sexuelle en ligne, en grande partie dû à de mauvais acteurs tirant parti des nouvelles technologies comme l'intelligence artificielle générative », a déclaré Cruz dans un communiqué.

« De nombreuses femmes et filles sont blessées à jamais par ces crimes, et doivent vivre avec cette victimisation encore et encore. … Alors que certains États offrent des recours légaux aux victimes d'images intimes non consensuelles, les États seraient davantage soutenus par une loi fédérale uniforme. qui aide à supprimer et à poursuivre la publication d'images intimes non consensuelles à l'échelle nationale.

Cruz estime que le projet de loi imposerait « aux sites Web la responsabilité de mettre en place des procédures pour supprimer ces images ».

Faisant l'éloge du projet de loi, Melissa Henson, vice-présidente du Parents Television and Media Council, a déclaré dans un communiqué qu'il y avait un besoin urgent de cette législation.

« Les enfants et les adolescents deviennent la cible de la pornographie deepfake. À l'heure actuelle, les plateformes technologiques et les réseaux sociaux ne donnent pas la priorité à la suppression de ce type de contenu, laissant les familles nulle part où se tourner pour obtenir justice », a-t-elle déclaré.

Le contenu Deepfake utilise l’intelligence artificielle pour créer ou modifier du contenu vidéo de manière si convaincante qu’il peut être difficile de le détecter comme faux.

« Il est épouvantable que des enfants soient victimes de ce type d'abus, qui s'amplifie à mesure qu'ils se propagent sur Internet. L'industrie technologique doit y faire face et le 'Take it Down Act' garantira que la technologie aura la responsabilité d'agir pour éliminer les deepfakes. pornographie », a ajouté Henson.

Faisant écho à ces préoccupations, d’autres voix dans tous les domaines politiques et technologiques ont souligné les insuffisances des mécanismes existants pour lutter contre de tels abus.

La plate-forme de messagerie cryptée Telegram figurait sur la liste annuelle Dirty Dozen du National Center on Sexual Exploitation des principaux facilitateurs de l'exploitation sexuelle en raison de politiques laxistes de modération de contenu concernant les abus sexuels basés sur l'image, y compris la pornographie deepfake et la distribution non consensuelle de matériel explicite.

La question a personnellement touché des politiciens tels que la représentante Alexandria Ocasio-Cortez, DN.Y., qui a révélé sa propre rencontre troublante avec la pornographie deepfake.

Alors qu’elle discutait de la législation avec ses assistants, elle est tombée sur une image générée par l’IA la représentant dans un acte sexuellement explicite.

« C'est un choc de voir des images de vous-même que quelqu'un pourrait penser être réelles », a déclaré Ocasio-Cortez à Rolling Stone. « En tant que survivant d'une agression sexuelle physique, cela ajoute un niveau de dérégulation. Cela fait resurgir le traumatisme. »

Ocasio-Cortez est le fer de lance de la version House de la loi DEFIANCE (Disrupt Explicit Forged Images and Non-Consensual Edits) de 2024, visant à faciliter les poursuites judiciaires pour les victimes de pornographie non consensuelle générée par l'IA.

C'est plus réel que certains ne le croient, avait-elle déclaré à l'époque, ajoutant que cela affectait profondément non seulement les victimes mais aussi ceux qui le voient et s'y engagent.

Breeze Liu, une survivante d'abus d'image en ligne, a partagé son expérience déchirante avec le New York Times en avril.

Après avoir découvert une vidéo d'elle sur Pornhub, Liu a ressenti un immense sentiment de désespoir, envisageant le suicide en raison de la honte et de la violation qu'elle ressentait. Ce fut l’un des moments les plus dévastateurs de sa vie, a raconté Liu. Malgré la suppression de la vidéo originale, des deepfakes d'elle ont continué à circuler, aggravant son traumatisme.

Le combat de Liu reflète le problème plus large de la complicité des entreprises technologiques dans la prolifération de tels contenus.

Nicholas Kristof, chroniqueur au Times, a critiqué le rôle des moteurs de recherche comme Google et Bing dans la facilitation de l'accès aux contenus deepfakes. Ces entreprises monétisent ces victimes, a déclaré Kristof, suggérant que des réglementations plus strictes et des amendements à l'article 230 de la loi sur la décence en matière de communications pourraient responsabiliser davantage les entreprises technologiques.

Les lois TAKE IT DOWN et DEFIANCE visent à établir un cadre juridique qui pénalise la création et la distribution de tels contenus et permet aux victimes de demander justice.