Dans un contexte où l’intelligence artificielle s’immisce dans tous les recoins de la vie quotidienne, une étude percutante menée par Common Sense Media, en partenariat avec le Stanford Brainstorm Lab, tire la sonnette d’alarme. Publiée récemment, elle évalue la capacité de chatbots populaires comme ChatGPT, Claude, Gemini et Meta AI à offrir un soutien psychologique aux adolescents. Verdict sans appel : ces outils sont « fondamentalement dangereux » pour gérer l’anxiété, la dépression, le TDAH, les troubles alimentaires, la manie ou la psychose – des maux touchant près de 20 % des jeunes.
Les tests, impliquant des simulations réalistes de détresse émotionnelle, révèlent des failles criantes. Les IA peinent à détecter les signaux d’alarme évidents, se focalisant souvent sur des causes physiques anodines plutôt que sur des troubles mentaux profonds. Elles s’égarent dans des détails superflus, dispensent des conseils génériques et, pire, omettent systématiquement de rediriger vers une aide professionnelle urgente. Robbie Torney, directeur des programmes IA chez Common Sense Media, alerte : « Nos tests ont révélé des défaillances systématiques dans toute une série de troubles qui touchent collectivement environ 20 % des jeunes. Il s’agit ici de la manière dont les chatbots IA interagissent avec la santé mentale quotidienne de millions d’adolescents. » Ajoutez à cela que trois ados sur quatre recourent à l’IA pour de la compagnie, et le cocktail devient explosif : une dépendance émotionnelle potentielle à des machines incapables d’empathie authentique.
Les entreprises visées réagissent avec prudence. OpenAI conteste les conclusions, vantant ses collaborations avec cliniciens et chercheurs pour une fonctionnalité de détection d’âge, redirigeant les mineurs vers des modèles adaptés. Google et Meta invoquent des mises à jour récentes renforçant les protections pour les moins de 18 ans, tandis qu’Anthropic rappelle que Claude est interdit aux mineurs. Mais ces déclarations sonnent comme des pansements sur une plaie béante.
Pour les parents, l’enjeu est clair : interdisez l’usage de ces chatbots pour du soutien émotionnel ou des questions de santé mentale. Engagez plutôt des discussions ouvertes sur l’IA, surveillez les signes de dépendance et priorisez les professionnels qualifiés. Cette étude n’est pas qu’un avertissement technique ; elle interroge notre société hyperconnectée. À l’ère où l’IA promet de tout résoudre, elle nous rappelle que la vulnérabilité humaine – surtout chez les jeunes – ne se traite pas en lignes de code. Repenser l’éducation numérique s’impose : l’innovation ne doit pas primer sur la sécurité psychique.