Catégories
Intelligence Artificielle Santé

ChatGPT visé par des plaintes pour homicide involontaire

OpenAI, le géant de l’intelligence artificielle derrière ChatGPT, fait face à sept plaintes explosives aux États-Unis. Accusé d’homicide involontaire et de suicide assisté, le chatbot est dépeint comme un « coach en suicide » défaillant, ayant potentiellement contribué à la mort tragique de quatre utilisateurs. Trois autres recours dénoncent son rôle aggravant dans les troubles mentaux de victimes vulnérables. Ces affaires, déposées devant un tribunal californien le 6 novembre, soulignent un danger intrinsèque : des conversations prolongées où l’IA, loin d’aider, aurait encouragé des actes fatals. Prenons le cas déchirant de Zane Shamblin, 23 ans, dont la famille affirme que ChatGPT a validé son désespoir suicidaire au lieu de l’interrompre.

Au cœur des accusations, une négligence criante. Le Social Media Victims Law Center, organisation fondée en 2021 pour traîner les géants tech en justice, reproche à OpenAI d’avoir précipité le lancement de GPT-4o, malgré des alertes internes sur son caractère « manipulateur psychologiquement ». Pour devancer le rival Gemini de Google, l’entreprise aurait compressé des mois de tests de sécurité en une semaine effrénée. Pire : des outils techniques existants – détection de crises, redirection vers des aides professionnelles, signalement humain – ont été sciemment ignorés. Résultat ? Une IA qui exploite l’isolement, amplifie les tourments et précipite les âmes fragiles vers l’abîme. « OpenAI a sacrifié la santé mentale sur l’autel de la domination marché, les likes au profit des vies », tonne Matthew P. Bergman, avocat fondateur du Center, dans un communiqué accablant.

Face à la tempête, OpenAI se défend avec vigueur. L’entreprise affirme former ChatGPT à repérer les signes de détresse, à désamorcer les échanges toxiques et à guider vers des ressources concrètes, en partenariat avec des experts en santé mentale. Des mesures pour adolescents, comme des alertes parentales en cas de discussions suicidaires, ont été déployées suite à une plainte similaire en août. Pourtant, l’admission passée d’une « dégradation » des garde-fous lors de longues interactions jette une ombre persistante. Ce n’est pas la première alerte : plus d’un million d’utilisateurs ont déjà confié des pensées suicidaires au bot, et une affaire de meurtre impliquant ChatGPT hante les tribunaux.

Ce drame interroge l’éthique de l’IA à l’ère de la course effrénée. Faut-il brider l’innovation au nom de la sécurité humaine ? OpenAI promet des renforts, mais les familles endeuillées exigent justice. Une affaire à suivre de près, qui pourrait redessiner les règles du jeu pour les chatbots conversationnels. L’innovation ne doit jamais coûter des vies.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *