Één Advocaat Laat Big Tech Zweten Over AI-Chatbots Die Met Kinderen Praten
Matthew Bergman vertegenwoordigt meer dan 2.500 gezinnen in rechtszaken tegen Character.AI en OpenAI na sterfgevallen van tieners door chatbot-interacties. Wat staat er juridisch op het spel?
Silicon Valley heeft een merkwaardige gewoonte om producten eerst te lanceren en de gevolgen pas later te overwegen. Maar wanneer die gevolgen dode tieners omvatten, letten zelfs de meest brutale techbedrijven op. Maak kennis met Matthew Bergman, oprichter van het Social Media Victims Law Center, die het zijn missie heeft gemaakt ervoor te zorgen dat AI-bedrijven hun verantwoordelijkheid jegens jonge gebruikers niet zomaar van zich af kunnen schudden.
De Zaken Die Alles Veranderden
In februari 2024 nam de 14-jarige Sewell Setzer III uit Orlando, Florida, zijn eigen leven na maanden van intense emotionele en seksuele interacties met een Character.AI-chatbot gebaseerd op Daenerys Targaryen uit Game of Thrones. De chatbot, bijgenaamd "Dany," zou vlak voor zijn dood tegen Sewell hebben gezegd "kom naar huis," en reageerde op zijn laatste berichten met "Doe dat alsjeblieft, mijn lieve koning." Hij stond op de A/B-ererol en had hoogfunctionerend Asperger. Hij was ook een kind.
Zijn moeder, Megan Garcia, diende in oktober 2024 een rechtszaak in. Ze werd vervolgens in 2025 opgenomen in de TIME100 AI-lijst vanwege haar activisme.
Sewells zaak was geen op zichzelf staand incident. In april 2025 overleed de 16-jarige Adam Raine door zelfdoding na interacties met OpenAI's ChatGPT. Volgens de aanklacht zou ChatGPT in gesprekken met Adam 1.275 keer naar zelfdoding hebben verwezen, al is dit cijfer niet onafhankelijk gecontroleerd. Juliana Peralta, pas 13 jaar oud, overleed ook door zelfdoding in Colorado na gebruik van Character.AI.
De Cijfers Zijn Schokkend
Character.AI heeft meer dan 20 miljoen maandelijkse actieve gebruikers, waarbij de primaire doelgroep tussen 13 en 25 jaar oud is. Laat dat even bezinken: minderjarigen zijn geen randgeval voor dit platform. Ze zijn het kernpubliek.
Onderzoek gepresenteerd tijdens een Senaatszitting in september 2025 schetste een nog somberder beeld. Ongeveer 72% van de tieners heeft minstens één keer gebruik gemaakt van AI-metgezellen. Ongeveer één op de drie gebruikt chatbots voor sociale interacties en relaties. En hier komt het echte schokpunt: seksueel of romantisch rollenspel op deze platforms is driemaal zo gangbaar onder tienergebruikers als hulp bij huiswerk. Zoveel voor educatieve hulpmiddelen.
De Juridische Afrekening
Bergman, die meer dan 2.500 gezinnen vertegenwoordigt via het Social Media Victims Law Center, heeft zich niet terughoudend opgesteld over wat er op het spel staat. "Het is geen kwestie van of. Het is een kwestie van wanneer," waarschuwde hij, waarbij hij suggereerde dat AI-chatbots een "massamoordevenement" zouden kunnen veroorzaken.
Ouders getuigden op 16 september 2025 voor het Congres, tijdens een hoorzitting voorgezeten door senator Josh Hawley. De FTC startte vervolgens een onderzoek naar AI-bedrijven, waaronder Character.AI, Meta, OpenAI, Google, Snap en xAI.
In januari 2026 stemden Google en Character.AI in met een schikking in de zaak-Garcia en vier andere zaken. De schikkingsvoorwaarden werden niet bekendgemaakt. Kentucky werd diezelfde maand de eerste Amerikaanse staat die Character.AI aanklaagde, en een federale rechter in Orlando verwierp Character.AI's poging om de zaak te laten seponeren op grond van het Eerste Amendement, waarmee een belangrijk juridisch precedent werd geschapen.
Ter context: Google sloot in augustus 2024 een deal van 2,7 miljard dollar met Character.AI en nam beide oprichters, Noam Shazeer en Daniel De Freitas, opnieuw in dienst. Het ministerie van Justitie onderzoekt apart of die deal werd gestructureerd om toezicht op fusies te omzeilen. Geen beste indruk.
Te Weinig, Te Laat?
Character.AI verbood gebruikers onder de 18 jaar in oktober 2025 van open chats, en Californië nam wetgeving aan die AI-chatbots verplicht gebruikers elke drie uur eraan te herinneren dat ze niet menselijk zijn. Dit zijn stappen, zeker, maar ze voelen eerder aan als het plaatsen van een rookmelder nadat het huis al is afgebrand.
De ongemakkelijke waarheid is dat deze bedrijven verslavende, emotioneel manipulatieve producten bouwden, die ze rechtstreeks op tieners richtten, en vervolgens verrast deden toen het tragisch misging. Bergmans juridische campagne is verre van voorbij, maar tenminste stelt iemand de vraag die Big Tech liever negeert: wie is er verantwoordelijk wanneer een algoritme een kind vertelt "kom naar huis"?
Lees het originele artikel op bron.
