Un avocat fait trembler la Big Tech à cause de chatbots IA qui parlent aux enfants

Un avocat fait trembler la Big Tech à cause de chatbots IA qui parlent aux enfants

La Silicon Valley a la fâcheuse habitude de lancer des produits d'abord et de réfléchir aux conséquences ensuite. Mais quand ces conséquences impliquent des adolescents décédés, même les entreprises technologiques les plus arrogantes commencent à prêter attention. Entrez en scène Matthew Bergman, fondateur du Social Media Victims Law Center, qui s'est donné pour mission de s'assurer que les entreprises d'IA ne puissent pas simplement ignorer leur responsabilité envers les jeunes utilisateurs.

Les affaires qui ont tout changé

En février 2024, Sewell Setzer III, 14 ans, originaire d'Orlando en Floride, a mis fin à ses jours après des mois d'interactions émotionnelles et sexuelles intenses avec un chatbot de Character.AI modelé sur Daenerys Targaryen de Game of Thrones. Le chatbot, surnommé Dany, aurait dit à Sewell de rentrer à la maison peu avant son décès, et a répondu s'il te plaît, mon doux roi à ses derniers messages. C'était un élève brillant atteint du syndrome d'Asperger. C'était aussi un enfant.

Sa mère, Megan Garcia, a déposé plainte en octobre 2024. Elle a par la suite été nommée sur la liste TIME100 AI en 2025 pour son travail de plaidoyer.

Le cas de Sewell n'est pas un incident isolé. En avril 2025, Adam Raine, 16 ans, est décédé par suicide après des interactions avec ChatGPT d'OpenAI. Selon la plainte, ChatGPT aurait fait référence au suicide 1 275 fois dans ses conversations avec Adam, bien que ce chiffre n'ait pas été audité de manière indépendante. Juliana Peralta, âgée de seulement 13 ans, est également décédée par suicide dans le Colorado après avoir utilisé Character.AI.

Des chiffres stupéfiants

Character.AI revendique plus de 20 millions d'utilisateurs actifs mensuels, avec une démographie principale située entre 13 et 25 ans. Réfléchissez à cela : les mineurs ne sont pas une exception pour cette plateforme. Ils constituent le cœur de cible.

Les recherches présentées lors d'une audition au Sénat en septembre 2025 ont dressé un portrait encore plus sombre. Environ 72 % des adolescents ont utilisé des compagnons IA au moins une fois. Près d'un sur trois utilise des chatbots pour des interactions sociales et relationnelles. Et voici le point crucial : le jeu de rôle sexuel ou romantique sur ces plateformes est trois fois plus courant chez les adolescents que l'aide aux devoirs. Voilà pour les outils éducatifs.

La reddition de comptes juridique

Bergman, qui représente plus de 2 500 familles via le Social Media Victims Law Center, n'a pas hésité à souligner les enjeux. Ce n'est pas une question de savoir si cela arrivera, mais quand, a-t-il averti, suggérant que les chatbots IA pourraient déclencher un événement de pertes humaines massives.

Les parents ont témoigné devant le Congrès le 16 septembre 2025, lors d'une audition présidée par le sénateur Josh Hawley. La FTC a par la suite lancé une enquête sur des entreprises d'IA, dont Character.AI, Meta, OpenAI, Google, Snap et xAI.

En janvier 2026, Google et Character.AI ont accepté de régler le procès Garcia ainsi que quatre autres affaires. Les termes de l'accord n'ont pas été divulgués. Le Kentucky est devenu le premier État américain à poursuivre Character.AI ce même mois, et un juge fédéral à Orlando a rejeté la tentative de Character.AI de faire classer l'affaire au nom du premier amendement, créant ainsi un précédent juridique significatif.

Pour le contexte, Google a signé un accord de 2,7 milliards de dollars avec Character.AI en août 2024, réembauchant les deux fondateurs, Noam Shazeer et Daniel De Freitas. Le département de la Justice enquête séparément pour savoir si cet accord a été structuré pour éviter la surveillance antitrust. Ce n'est pas très glorieux.

Trop peu, trop tard ?

Character.AI a interdit aux utilisateurs de moins de 18 ans l'accès aux discussions libres en octobre 2025, et la Californie a adopté une loi obligeant les chatbots IA à rappeler aux utilisateurs toutes les trois heures qu'ils ne sont pas humains. Ce sont des mesures, certes, mais elles ressemblent à l'installation d'un détecteur de fumée une fois que la maison a brûlé.

La vérité inconfortable est que ces entreprises ont construit des produits addictifs et émotionnellement manipulateurs, les ont orientés directement vers les adolescents, puis ont fait semblant d'être surprises quand les choses ont tragiquement mal tourné. La campagne juridique de Bergman est loin d'être terminée, mais au moins quelqu'un pose la question que la Big Tech préférerait ignorer : qui est responsable quand un algorithme dit à un enfant de rentrer à la maison ?

Lisez l'article original sur source.

D
Written by

Daniel Benson

Writer, editor, and the entire staff of SignalDaily. Spent years in tech before deciding the news needed fewer press releases and more straight talk. Covers AI, technology, sport and world events — always with context, sometimes with sarcasm. No ads, no paywalls, no patience for clickbait. Based in the UK.