Meta, Openai pour ajuster les chatbots pour mieux gérer des sujets sensibles avec les adolescents
Meta et Openai s'efforcent d'améliorer la gestion de leurs chatbots des sujets sur lesquels les adolescents engagent la technologie, y compris des problèmes sensibles comme le suicide.
OpenAI a annoncé mardi qu'il ajuste son chatppt pour mieux servir les gens lorsqu'ils interagissent en temps de crise, ce qui facilite la « d'atteindre les services d'urgence et d'obtenir l'aide d'experts ». Les modifications amélioreront également les « protections pour les adolescents », a indiqué la société.
« Nos modèles de raisonnement – comme GPT-5-Thinking et O3 – sont construits pour passer plus de temps à réfléchir plus longtemps et à raisonner par le contexte avant de répondre », a expliqué la société.
« Nous allons bientôt commencer à acheminer certaines conversations sensibles – comme lorsque notre système détecte des signes de détresse aiguë – vers un modèle de raisonnement, comme le GPT-5-pensée, afin qu'il puisse fournir des réponses plus utiles et bénéfiques, quel que soit le modèle d'une personne sélectionnée. »
En ce qui concerne les utilisateurs adolescents, Openai dit que c'est « construire plus de façons pour les familles d'utiliser ensemble Chatgpt et de décider ce qui fonctionne le mieux chez eux ». Cela inclut de permettre aux parents de relier leurs comptes avec les comptes de leurs enfants via une invitation par e-mail et de contrôler les réponses ChatGPT avec un défaut par défaut «Règles de comportement du modèle adapté à l'âge». La société affirme que les modifications donnent également aux parents plus de contrôle sur les fonctionnalités assorties comme la mémoire et l'historique de chat. Les parents recevront également des « notifications lorsque le système détecte que leur adolescent est dans un moment de détresse aiguë ».
Meta, qui comprend des plateformes de médias sociaux comme Facebook et Instagram, a annoncé la semaine dernière qu'ils forment ses chatbots pour arrêter les adolescents engageants sur des questions telles que le suicide, les troubles de l'alimentation et les sujets sensuels inappropriés.
Vendredi dernier, la porte-parole de Meta, Stephanie Otway, a déclaré à TechCrunch que « nous apprenons continuellement comment les jeunes peuvent interagir avec ces outils et renforcer nos protections en conséquence ».
« Alors que nous continuons à affiner nos systèmes, nous ajoutons plus de garde-corps par précaution supplémentaire – y compris la formation de notre IA à ne pas s'engager avec les adolescents sur ces sujets, mais pour les guider vers des ressources expertes et limiter l'accès des adolescents à un groupe sélectionné de personnages d'IA pour l'instant », a déclaré Otway.
« Ces mises à jour sont déjà en cours, et nous continuerons d'adapter notre approche pour assurer que les adolescents ont des expériences sûres et adaptées à l'âge avec l'IA. »
Les efforts de ces entreprises sont venus au milieu de plusieurs rapports d'adolescents adoptant des comportements violents ou de l'automutilation en raison des commentaires qu'ils recevaient de Chatbots.
À la fin du mois dernier, la famille d'Adam Raine, 16 ans, de Californie, a déposé une plainte contre Openai, alléguant que Chatgpt avait aidé leur fils à mourir par suicide.
Dans une déclaration donnée au Christian Post, un porte-parole d'OpenAI a exprimé ses condoléances à la famille de l'adolescent, affirmant que l'entreprise est « profondément attristée par le décès de M. Raine ».
« Chatgpt comprend des garanties telles que diriger les gens vers les lignes d'assistance de crise et les référer aux ressources du monde réel. Bien que ces garanties fonctionnent mieux dans les échanges courts communs, nous avons appris au fil du temps qu'ils peuvent parfois devenir moins fiables dans les longues interactions où certaines parties de la formation de sécurité du modèle peuvent dégrader », a déclaré le porte-parole d'Openai.
« Les garanties sont les plus fortes lorsque chaque élément fonctionne comme prévu, et nous les améliorerons continuellement, guidés par des experts. »
À la mi-août, Reuters a obtenu un document de méta-politique interne approuvé par le personnel juridique et d'ingénierie de l'entreprise qui a prétendument révélé qu'il permettait aux chatbots «d'engager un enfant dans des conversations romantiques ou sensuelles». Après avoir été interrogé par l'agence de presse, Meta a déclaré avoir supprimé les sections du document qui permettaient aux chatbots de flirter et d'engager les utilisateurs mineurs dans un jeu de rôle romantique.

