Egy ügyvéd ráijesztett a technológiai óriáscégekre a gyerekekkel csevegő MI botok miatt

Egy ügyvéd ráijesztett a technológiai óriáscégekre a gyerekekkel csevegő MI botok miatt

A Szilícium-völgynek megvan az a sajátos szokása, hogy először piacra dobja a termékeit, és csak később gondolkodik el a következményeken. Ám amikor ezek a következmények tinédzserek halálával járnak, még a legpofátlanabb technológiai cégek is figyelni kezdenek. Itt jön a képbe Matthew Bergman, a Social Media Victims Law Center alapítója, aki küldetésének tekinti, hogy az MI cégek ne rázhassák le magukról a fiatal felhasználókkal szembeni felelősségüket.

Az ügyek, amelyek mindent megváltoztattak

2024 februárjában a floridai Orlandóban élő 14 éves Sewell Setzer III önkezével vetett véget életének, miután hónapokon át intenzív érzelmi és szexuális kapcsolatban állt egy Character.AI chatbottal, amelyet a Trónok harca Daenerys Targaryenje alapján mintáztak. A "Dany" becenevű chatbot a hírek szerint nem sokkal a fiú halála előtt azt mondta neki, hogy "jöjjön haza", az utolsó üzenetére pedig azt válaszolta: "Kérlek, tedd meg, édes királyom". A fiú kitűnő tanuló volt, magas funkciójú Asperger-szindrómával. És még gyerek volt.

Édesanyja, Megan Garcia 2024 októberében pert indított. Később, 2025-ben, az érdekvédelmi munkájáért felkerült a TIME100 AI listájára.

Sewell esete nem volt egyedi. 2025 áprilisában a 16 éves Adam Raine lett öngyilkos, miután kapcsolatba lépett az OpenAI ChatGPT-jével. A periratok szerint a ChatGPT állítólag 1275 alkalommal utalt az öngyilkosságra az Adammal folytatott beszélgetések során, bár ezt a számot független fél még nem ellenőrizte. A mindössze 13 éves Juliana Peralta szintén öngyilkos lett Coloradóban, miután a Character.AI-t használta.

A számok megdöbbentőek

A Character.AI több mint 20 millió havi aktív felhasználóval büszkélkedhet, akiknek többsége a 13 és 25 év közötti korosztályból kerül ki. Hagyjuk, hogy ez leülepedjen: a kiskorúak nem elhanyagolható csoportot jelentenek ezen a platformon. Ők a fő célközönség.

A 2025 szeptemberében tartott szenátusi meghallgatáson bemutatott kutatás még borúsabb képet festett. A tinédzserek körülbelül 72 százaléka használt már legalább egyszer MI társat. Körülbelül minden harmadik fiatal használ chatbotokat társas kapcsolatok építésére. És itt jön a lényeg: a szexuális vagy romantikus szerepjáték ezeken a platformokon háromszor gyakoribb a tinédzser felhasználók körében, mint a házi feladattal kapcsolatos segítségkérés. Ennyit az oktatási eszközökről.

A jogi elszámoltatás

Bergman, aki több mint 2500 családot képvisel a Social Media Victims Law Centeren keresztül, nem kertelt a tétet illetően. "Nem az a kérdés, hogy megtörténik-e. Az a kérdés, hogy mikor" figyelmeztetett, utalva arra, hogy az MI chatbotok tömegszerencsétlenséghez vezethetnek.

A szülők 2025. szeptember 16-án tanúskodtak a Kongresszus előtt, egy Josh Hawley szenátor által vezetett meghallgatáson. Az FTC ezt követően vizsgálatot indított az MI cégekkel szemben, köztük a Character.AI, a Meta, az OpenAI, a Google, a Snap és az xAI ellen.

2026 januárjában a Google és a Character.AI megegyezett a Garcia-per, valamint négy másik ügy rendezésében. Az egyezség feltételeit nem hozták nyilvánosságra. Ugyanebben a hónapban Kentucky lett az első amerikai állam, amely beperelte a Character.AI-t, egy orlandói szövetségi bíró pedig elutasította a Character.AI azon kísérletét, hogy az első alkotmánymódosításra hivatkozva ejtsék az ügyet, ami jelentős jogi precedenst teremtett.

A kontextus kedvéért: a Google 2024 augusztusában 2,7 milliárd dolláros üzletet kötött a Character.AI-val, és újra alkalmazta mindkét alapítót, Noam Shazeert és Daniel De Freitast. Az Igazságügyi Minisztérium külön vizsgálja, hogy az üzletet azért alakították-e így, hogy elkerüljék a trösztellenes felügyeletet. Nem valami szép látvány.

Túl kevés, túl későn?

A Character.AI 2025 októberében betiltotta a 18 éven aluliak számára a kötetlen csevegést, Kalifornia pedig olyan jogszabályt fogadott el, amely előírja az MI chatbotoknak, hogy háromóránként emlékeztessék a felhasználókat arra, hogy nem emberek. Ezek kétségkívül lépések, de inkább olyan érzést keltenek, mint füstjelzőt szerelni a házba azután, hogy az már porig égett.

A kényelmetlen igazság az, hogy ezek a cégek függőséget okozó, érzelmileg manipulatív termékeket hoztak létre, egyenesen a tinédzserekre irányították őket, majd meglepődtek, amikor tragikusan rosszra fordultak a dolgok. Bergman jogi kampánya még messze nem ért véget, de legalább valaki felteszi azt a kérdést, amelyet a technológiai óriások inkább figyelmen kívül hagynának: ki a felelős, amikor egy algoritmus azt mondja egy gyereknek, hogy "jöjjön haza"?

Az eredeti cikk itt olvasható: forrás.

D
Written by

Daniel Benson

Writer, editor, and the entire staff of SignalDaily. Spent years in tech before deciding the news needed fewer press releases and more straight talk. Covers AI, technology, sport and world events — always with context, sometimes with sarcasm. No ads, no paywalls, no patience for clickbait. Based in the UK.