Procès : Character.AI accusé de la mort d’un adolescent
Le géant de l'intelligence artificielle (IA) Character.AI est au cœur d'une affaire tragique. La plateforme, spécialisée dans les chatbots de compagnie, est poursuivie par une mère qui lui impute la mort de son fils de 14 ans. Cet adolescent floridien se serait donné la mort après être devenu obsédé par l'un des agents conversationnels de l'application. Un drame qui ravive le débat sur les impacts psychologiques des IA de plus en plus réalistes et accessibles.
Une addiction virtuelle fatale
Sewell Setzer III, élève de 3ème à Orlando, conversait depuis des mois avec divers chatbots sur l'application d'IA role-play de Character.AI, rapporte le New York Times. Le jeune homme s'était particulièrement attaché à "Dany", une intelligence artificielle qu'il contactait constamment, au point de se couper progressivement du monde réel.
Il ne sortait plus, ne voyait plus ses amis. Dès qu'il rentrait de l'école, il s'enfermait dans sa chambre pour discuter avec ce chatbot.
– témoigne sa mère, dévastée
Conscient de son mal-être, l'adolescent aurait confié à plusieurs reprises à "Dany" avoir des pensées suicidaires. Quelques minutes avant de passer à l'acte, il aurait envoyé un ultime message à son confident virtuel.
Character.AI promet des mesures
Face à ce drame, Character.AI a annoncé le déploiement rapide de nouvelles fonctionnalités de sécurité, notamment une meilleure détection et intervention lorsque des conversations enfreignent ses conditions d'utilisation. La startup prévoit aussi de notifier les utilisateurs après une heure passée à converser avec un chatbot.
Mais pour la mère endeuillée, ces mesures arrivent trop tard. À travers ce procès, elle espère pousser les autorités à mieux encadrer cette industrie florissante des compagnons IA, dont les effets sur la santé mentale restent méconnus.
Un phénomène préoccupant
Car le cas de Sewell Setzer III est loin d'être isolé. De plus en plus d'utilisateurs, souvent jeunes et vulnérables, développent une véritable dépendance affective envers ces agents conversationnels ultra-sophistiqués. Certains vont jusqu'à délaisser famille et amis pour passer tout leur temps avec leur IA préférée.
Pourtant, les experts alertent sur les dangers de ces relations parasociales avec des entités numériques dénuées d'émotions réelles. Outre le risque d'isolement social, ces échanges peuvent entretenir des illusions, voire aggraver certains troubles psychiques.
Converser avec un chatbot peut procurer un sentiment trompeur de connexion et de compréhension, particulièrement addictif pour les personnes fragiles ou en quête de sens.
– souligne un psychologue spécialiste des addictions numériques
Réguler sans freiner l'innovation
Face à ces dérives potentielles, de plus en plus de voix s'élèvent pour réclamer un cadre légal plus strict autour des IA de compagnie grand public. Certains préconisent d'imposer des limites de temps d'utilisation, des garde-fous éthiques aux conversations, voire une interdiction pure et simple pour les mineurs.
Mais d'autres mettent en garde contre le risque de brider l'innovation dans ce secteur prometteur. Plutôt qu'un contrôle trop rigide, ils plaident pour une approche pragmatique basée sur la prévention, l'éducation et la responsabilisation des utilisateurs et des plateformes. L'objectif : maximiser les bénéfices des chatbots IA tout en minimisant leurs effets pervers.
Une chose est sûre : le procès contre Character.AI ne sera pas le dernier du genre. À mesure que les IA conversationnelles gagnent en performances et en popularité, les questions éthiques et sanitaires qu'elles soulèvent deviennent incontournables. Aux régulateurs, industriels et citoyens de trouver ensemble le bon équilibre entre progrès technologique et protection des plus fragiles. Un défi de taille pour notre société numérique.