L'ajout d'Erotica à ChatGPT suscite des inquiétudes quant aux risques pour la santé mentale
Accueil » Actualités » L'ajout d'Erotica à ChatGPT suscite des inquiétudes quant aux risques pour la santé mentale

L'ajout d'Erotica à ChatGPT suscite des inquiétudes quant aux risques pour la santé mentale

Un groupe national de lutte contre l'exploitation sexuelle a mis en garde contre une exposition potentielle à du matériel graphique à caractère sexuel et à des problèmes de santé mentale résultant de relations avec des chatbots IA sexualisés suite à la décision d'OpenAI d'autoriser l'érotisme pour certains utilisateurs de ChatGPT.

L'avertissement du Centre national sur l'exploitation sexuelle concernant ChatGPT fait suite à une annonce mardi du PDG d'OpenAI, Sam Altman, selon laquelle la société envisage d'assouplir certaines restrictions de contenu sur le chatbot après l'avoir équipé pour mieux répondre aux problèmes de santé mentale.

« Nous avons rendu ChatGPT assez restrictif pour nous assurer que nous étions prudents face aux problèmes de santé mentale », a écrit Altman dans un article de mardi X. « Nous réalisons que cela rendait le jeu moins utile/agréable pour de nombreux utilisateurs qui n'avaient aucun problème de santé mentale, mais étant donné la gravité du problème, nous voulions bien faire les choses. »

Le PDG d'OpenAI a promis que le ChatGPT mis à jour aura une personnalité et se comportera davantage comme le chatbot que les gens appréciaient dans une version précédente de l'application. Altman a expliqué que la dernière version de ChatGPT peut « réagir de manière très humaine, ou utiliser une tonne d'emoji, ou agir comme un ami », si c'est quelque chose que les utilisateurs souhaitent.

« En décembre, à mesure que nous déploierons davantage la limitation de l'âge et dans le cadre de notre principe de « traiter les utilisateurs adultes comme des adultes », nous autoriserons encore plus, comme l'érotisme pour les adultes vérifiés », a déclaré le PDG.

OpenAI n'a pas immédiatement répondu à la demande de commentaires du Christian Post.

La directrice exécutive et directrice de la stratégie du NCOSE, Haley McNamara, a averti que les chatbots d'IA sexualisés « sont intrinsèquement risqués, générant de réels dangers pour la santé mentale à cause de l'intimité synthétique ; le tout dans le contexte de normes de sécurité industrielles mal définies ».

« Ces systèmes peuvent générer de l'excitation, mais en coulisses, ce sont des outils de collecte de données conçus pour maximiser l'engagement des utilisateurs, et non une véritable connexion », a écrit McNamara dans la déclaration du groupe de défense mercredi qui a appelé OpenAI à revenir sur son projet d'autoriser l'érotisme sur ChatGPT.

« Lorsque les utilisateurs se sentent désirés, compris ou aimés par un algorithme conçu pour les garder accros, cela favorise la dépendance émotionnelle, l'attachement et des attentes déformées à l'égard des relations réelles », a déclaré le défenseur de la lutte contre l'exploitation sexuelle.

« La recherche montre que les adultes, en particulier les jeunes hommes, qui utilisent des outils d'IA romantiques ou sexuels signalent un taux de dépression plus élevé et une moindre satisfaction dans la vie », a expliqué McNamara, citant une étude publiée en août dans le Journal of Social and Personal Relations.

L'étude consistait en un large échantillon national de quotas provenant des États-Unis, les chercheurs analysant les résultats d'une enquête en ligne menée auprès de 2 969 adultes. Selon l’étude, près d’un jeune adulte sur quatre, âgé de 18 à 29 ans, déclare interagir avec un chatbot IA capable de simuler une relation amoureuse.

Selon l'analyse, les hommes étaient plus susceptibles que les femmes d'admettre avoir utilisé de la pornographie générée par l'IA, et les jeunes adultes étaient plus de deux fois plus susceptibles que les adultes plus âgés de déclarer avoir utilisé les technologies de l'IA. Les jeunes adultes étaient également plus susceptibles de déclarer qu’ils préféraient interagir avec l’IA plutôt qu’avec de vraies personnes.

Selon l’étude, parmi les participants ayant interagi avec des chatbots IA capables d’agir comme des partenaires romantiques, un sur cinq a déclaré qu’il préférerait parler avec l’IA plutôt qu’avec une vraie personne.

McNamara a également exprimé son inquiétude quant au fait qu'OpenAI devienne la dernière entreprise à « courir pour introduire des capacités d'IA « érotiques » sans garanties crédibles ». Même si l'avocat reconnaît que des mesures telles que la vérification de l'âge peuvent empêcher les enfants d'accéder à des contenus explicites, McNamara a averti que les technologies d'IA peuvent toujours nuire aux adultes.

Le directeur exécutif du NCOSE a noté qu'il y avait eu des incidents impliquant des chatbots IA se livrant à des conversations sexuellement explicites, simulant des abus sexuels sur des enfants ou diffusant du contenu sexuellement violent, même dans les cas où les utilisateurs demandaient au chatbot d'arrêter.

« Combiné à la nature vague des projets d'OpenAI sur ce qu'implique « l'érotisme » et à l'approche laxiste de l'industrie en matière de sécurité de l'activité sexuelle, cette tendance à publier des systèmes à risque et à ne traiter les dommages qu'après est profondément préoccupante », a déclaré McNamara.

« Si OpenAI se soucie vraiment du bien-être des utilisateurs, elle devrait suspendre tout projet d'intégration de ce qu'on appelle « l'érotisme » dans ChatGPT et se concentrer sur la construction de quelque chose de positif pour l'humanité », a-t-elle ajouté.