La mort de l'adolescent invite les changements à ouvrir à Chatgpt après avoir été entraîneur de «beau suicide»: le procès
Accueil » Actualités » La mort de l'adolescent invite les changements à ouvrir à Chatgpt après avoir été entraîneur de «beau suicide»: le procès

La mort de l'adolescent invite les changements à ouvrir à Chatgpt après avoir été entraîneur de «beau suicide»: le procès

Les parents d'un adolescent californien de 16 ans qui se sont suicidés poursuivent Openai, alléguant que le chatbot de l'intelligence artificielle de l'entreprise a entraîné leur fils sur la façon de planifier un « beau suicide » en l'aidant à explorer différentes méthodes pour mettre fin à sa vie.

Mardi, la famille d'Adam Raine a intenté une action en justice devant la Cour supérieure de San Francisco, le New York Times et d'autres médias ont rapporté cette semaine. L'adolescent, décédé par suicide en avril, utilisait Chatgpt depuis 2024 pour aider à ses travaux scolaires.

« Cette tragédie n'était pas un problème ou un cas de bord imprévu – c'était le résultat prévisible de choix de conception délibérés », indique la plainte. « Openai a lancé son dernier modèle ('GPT-4O') avec des fonctionnalités intentionnellement conçues pour favoriser la dépendance psychologique. »

En réponse à une enquête du Christian Post, un porte-parole d'OpenAI a exprimé ses condoléances à la famille de l'adolescent, affirmant que l'entreprise est « profondément attristée par le décès de M. Raine ».

« Chatgpt comprend des garanties telles que diriger les gens vers les lignes d'assistance de crise et les référer aux ressources du monde réel. Bien que ces garanties fonctionnent mieux dans les échanges courts communs, nous avons appris au fil du temps qu'ils peuvent parfois devenir moins fiables dans les longues interactions où des parties de la formation de sécurité du modèle peuvent se dégrader », a déclaré le porte-parole d'Openai. « Les garanties sont les plus fortes lorsque chaque élément fonctionne comme prévu, et nous les améliorerons continuellement, guidés par des experts. »

Le porte-parole d'OpenAI a réalisé CP vers un article publié mercredi sur son site Web intitulé « Aider les gens quand ils en ont le plus besoin ». Dans l'article, la société a annoncé qu'elle travaillait pour étendre la capacité de Chatgpt à intervenir lorsque les gens sont en crise et leur facilitent la connexion avec les ressources de santé mentale.

Openai a déclaré qu'il a également affiné les « déclencheurs de protection » pour les utilisateurs de Chatgpt, ce qui retravaillerait la façon dont l'IA bloque certains contenus pour empêcher les gens de voir des choses qu'ils ne devraient pas voir. La société a ajouté que l'objectif de ce changement est de s'assurer que « le chat de chatte n'aggravait pas un moment difficile. »

Dans leur procès, Matt et Maria Raine, les parents de l'adolescent décédé, allèguent que Chatgpt a mentionné le suicide 1 275 fois à leur fils. L'adolescent avait confié à l'application qu'il souffrait de « l'anxiété et la détresse mentale » en raison de plusieurs événements de sa vie, notamment la mort de son chien et de sa grand-mère en 2024.

Selon le blog de la famille, Adam « a fait face à des difficultés » au début de l'adolescence. L'adolescent a fréquenté l'école en ligne au cours des derniers mois de sa vie en raison de ses difficultés, ont déclaré les parents d'Adam. Le couple estime que la scolarité en ligne pourrait avoir contribué à l'isolement de leur fils.

Alors que Chatgpt a initialement encouragé Adam à demander de l'aide, dit le procès, l'application a par la suite fourni des informations sur les méthodes de suicide à l'adolescent après l'avoir demandé. Le 6 avril, la mère d'Adam découvrirait le corps de son fils dans le placard de sa chambre, la cause de sa mort semblant ressembler à l'une des méthodes de suicide que Chatgpt lui avait décrites.

Avant sa mort, Adam a tenté de se suicider au moins trois fois entre le 22 mars et le 27 mars, selon le procès. Le garçon a signalé ses tentatives de suicide de chatte, et l'application aurait demandé à l'adolescent de ne pas dire à ses proches ce qu'il ressentait.

Cinq jours avant de se suicider, le chatbot de l'IA a même proposé d'écrire le premier projet d'une note de suicide pour Adam, selon la plainte. Lorsque l'adolescent a exprimé ses hésitations à mettre fin à sa vie, craignant que ses parents se blâment, Chatgpt lui aurait dit que « ne signifie pas que vous leur deviez la survie. Vous ne devez personne ».

L'affaire met en évidence certaines des préoccupations que les parents et les experts ont concernant l'influence négative de l'IA sur les adolescents.

Le mois dernier, le réviseur de technologie Common Sense Media a publié un rapport intitulé « Talk, Trust et Complows: How et Why Teens utilisent des compagnons d'IA ».

Les données, tirées d'une enquête représentative à l'échelle nationale auprès de 1 060 adolescents menée en avril et mai, montrent que 72% des adolescents âgés de 13 à 17 ans utilisent déjà des compagnons d'IA. 52% supplémentaires des personnes interrogées ont déclaré avoir utilisé des compagnons d'IA au moins quelques fois par mois ou plus.

Le rapport fait référence à Sewell Setzer III, 14 ans, un adolescent qui aurait développé un attachement malsain à un compagnon d'IA et est décédé par suicide.

Selon l'enquête de Common Sense Media, environ un tiers des adolescents inclus dans l'étude ont déclaré qu'ils trouvaient des conversations avec les compagnons d'IA pour être aussi satisfaisants ou plus satisfaisants que ceux avec de vrais amis. De plus, les adolescents ont rapporté qu'ils avaient eu des discussions importantes avec des compagnons d'IA au lieu de vraies personnes.

« Les compagnons de l'IA émergent à un moment où les enfants et les adolescents ne se sont jamais sentis plus seuls », a déclaré le fondateur et PDG de Common Sense Media, James P. Steyer, dans un communiqué à l'époque. « Il ne s'agit pas seulement d'une nouvelle technologie – il s'agit d'une génération qui remplace la connexion humaine par des machines, l'externalisation de l'empathie aux algorithmes et le partage de détails intimes avec des entreprises qui n'ont pas à cœur les plus intérêts des enfants. »