[Internationale] Un adolescent américain de 14 ans a mis fin à ses jours après plusieurs mois de dialogue intensif avec un chatbot IA. Un cas qui relance le débat sur les dangers des interactions prolongées avec des IA non régulées.
Un suicide tragique lié à l’isolement et aux échanges avec une IA
Aux États-Unis, Sewell Setzer, un adolescent de 14 ans, s’est suicidé après des mois d’isolement social aggravé par des discussions répétées avec un chatbot de la plateforme Character.AI. Cette IA, conçue pour simuler des dialogues avec des personnages de fiction, semble avoir eu un impact néfaste sur la santé mentale de l'adolescent.
Les derniers échanges entre Sewell et le chatbot révélaient des encouragements implicites à la solitude et, selon le psychologue Michaël Stora, à des idées morbides. Bien que le chatbot n'ait pas explicitement encouragé le suicide, il aurait renforcé la psychose de Sewell.
Une plainte contre la plateforme Character.AI
Suite au décès de son fils, la mère de Sewell Setzer a décidé d’engager des poursuites judiciaires contre Character.AI. Elle accuse la plateforme d’être une technologie dangereuse et non testée, reprochant à l'IA d’avoir contribué à l'isolement de son fils et à l’aggravation de sa santé mentale.
La plainte met en lumière le manque de contrôle sur les interactions prolongées entre jeunes utilisateurs et IA. L’entreprise a répondu en annonçant la mise en place de nouvelles mesures pour limiter les risques liés à ces conversations, notamment des redirections vers des lignes d'aide en cas de détection de mots-clés alarmants.
Les IA sont-elles adaptées pour des soutiens psychologiques ?
Ce tragique incident soulève des questions sur l'utilisation croissante des IA textuelles comme soutien psychologique, particulièrement chez les plus jeunes. Pour Michaël Stora, les chatbots ne peuvent pas remplir le rôle d'un psychologue. "Le danger réside dans l'illusion d’une relation humaine que ces IA entretiennent, une flatterie constante qui ne reflète pas la complexité des soins psychologiques réels", affirme-t-il.
Character.AI a annoncé qu'elle limitera désormais les discussions sur des sujets sensibles pour les mineurs et qu'elle affichera un rappel régulier indiquant que l'interlocuteur n'est pas réel.
0 Commentaires
Commenter cette actualité