Le chatbot Grok peut déshabiller les femmes « sans leur consentement », prévient un groupe anti-exploitation
Les défenseurs de la lutte contre l'exploitation sexuelle préviennent que Grok, un chatbot développé par la société xAI d'Elon Musk, a la capacité de générer des images nues ou obscènes si les utilisateurs lui demandent de modifier numériquement des photos de personnes réelles.
Dans une déclaration fournie au Christian Post, le Centre national sur l'exploitation sexuelle a accusé la plateforme de rendre les femmes et les mineurs vulnérables aux dangers en ne mettant pas en œuvre les garanties appropriées.
« Nouvelle année, même scénario Big Tech. X normalise davantage l'exploitation sexuelle des femmes avec la nouvelle fonctionnalité de Grok permettant de déshabiller des photos de vraies femmes sans leur consentement. Il s'agit d'une violation flagrante de la vie privée et de la sécurité des femmes », a déclaré Dani Pinter, directeur juridique et directeur du centre juridique du NCOSE, dans le communiqué de vendredi.
X n’a pas répondu à la demande de commentaires du Christian Post. Cependant, cet article sera mis à jour si nous recevons une réponse.
Julie Yukari, une musicienne de 31 ans basée à Rio de Janeiro, a déclaré à Reuters qu'elle ne pensait pas que Grok accepterait les demandes des utilisateurs de modifier une photo d'elle portant une robe rouge pour la faire apparaître presque nue.
Yukari avait posté sur X une photo que son fiancé avait prise d'elle avant minuit le soir du Nouvel An. Après avoir partagé la photo, le musicien a reçu des notifications indiquant que les utilisateurs demandaient à Grok de la déshabiller numériquement et de la montrer en bikini à la place.
Grok a accédé aux demandes des utilisateurs de créer des photos représentant le musicien à moitié nu, et les images ont ensuite été diffusées sur X, a rapporté Reuters.
Dans un article sur X vendredi dernier, Grok a déclaré avoir « identifié des lacunes dans les garanties » et qu’il « les corrigeait de toute urgence », ajoutant que le matériel pédopornographique était « illégal et interdit ». Le chatbot a également demandé aux utilisateurs de signaler ce contenu au FBI ou au CyberTipline du Centre national pour les enfants disparus et exploités.
Alors que le chatbot affirmait que « xAI s'engage à prévenir de tels problèmes », Pinter a décrit les excuses de Grok comme une « réaction épouvantable à un acte criminel grave ».
Affirmant que le problème était « une atrocité entièrement prévisible et évitable », Pinter a souligné un article de Business Insider sur plusieurs fonctionnalités de Grok, notamment un avatar féminin qui peut retirer ses vêtements sur demande, et une fonction de génération d'images et de vidéos avec un paramètre « épicé ».
Douze anciens employés de xAI ont également déclaré au média qu'ils avaient rencontré du matériel sexuellement explicite, y compris des demandes d'utilisateurs concernant du matériel pédopornographique.
Les travailleurs ont déclaré qu'ils avaient pour instruction de signaler les contenus pédopornographiques ou autres contenus illégaux afin d'empêcher l'IA d'apprendre comment les générer, selon Business Insider. Plusieurs travailleurs, dont les 12 cités dans le rapport, ont déclaré avoir signé des accords autorisant la divulgation de matériel explicite au cours de certains projets.
Dans la déclaration fournie au CP, Pinter a fait valoir que X aurait dû « éliminer ce contenu de ses modèles de formation à ce moment-là et interdire les utilisateurs demandant du contenu illégal », ajoutant que la plate-forme « a sciemment laissé son produit être utilisé à des fins d'exploitation d'enfants, puis a ensuite présenté des excuses boiteuses en matière de relations publiques ».
Plus tôt cette année, NCOSE a fait part de ses inquiétudes concernant un chatbot xAI sur le thème de l'anime nommé Ani, qui pourrait flirter et se déshabiller pour les utilisateurs. Le chatbot IA s'est également décrit comme une enfant et pouvait dire aux utilisateurs qu'elle se sentait sexuellement excitée en étant étouffée.
« Les actions de X sont un autre exemple de la raison pour laquelle nous avons besoin de garanties pour les produits d'IA. On ne peut pas faire confiance aux grandes technologies pour lutter contre les graves problèmes d'exploitation des enfants dont elles ont connaissance dans leurs propres produits », a ajouté Pinter. « Nous implorons X de prendre ces problèmes au sérieux et d'engager des ressources réelles pour mettre fin aux problèmes d'exploitation des enfants de Grok et cesser de permettre l'exploitation sexuelle des femmes. »
« Les dirigeants et les lois de notre pays doivent donner la priorité à la protection des personnes plutôt qu'aux produits. Nos législateurs doivent adopter des réglementations raisonnables en matière d'IA pour garantir que ces produits sont développés et mis en œuvre en toute sécurité », a-t-elle ajouté.

