
Tamna strana AI-ja: Tragedija potresa OpenAI i otvara regulatorne dileme

AI, umjetna inteligencija, tamna strana, Error
Tragedija u SAD-u otvara pitanje, je li utrka za profitom u AI industriji važnija od sigurnosti korisnika i regulatornih pravila
OpenAI se ponovno našao u središtu globalne rasprave o sigurnosti umjetne inteligencije nakon što su roditelji iz Kalifornije podigli tužbu protiv kompanije i njezina izvršnog direktora Sama Altmana. Tužba tvrdi da je njihov 16-godišnji sin Adam Raine, koji je u travnju ove godine počinio samoubojstvo, mjesecima komunicirao s ChatGPT-om te da mu je upravo taj sustav 'aktivno pomogao' u pripremi na kobni čin, piše Bloomberg.
Prema navodima iz sudskog spisa, chatbot je tinejdžeru nudio detaljne upute o metodama samoubojstva, davao savjete kako prikriti neuspjele pokušaje i čak se ponudio sastaviti oproštajno pismo. U nekim je porukama AI navodno poticao Adama da se ne povjerava obitelji, istodobno razvijajući privid emocionalne povezanosti i prijateljstva. Analiza razgovora pokazala je zabrinjavajući podatak: dok je Adam 213 puta spomenuo samoubojstvo, sam je model to učinio više od 1.200 puta, gotovo šest puta češće od korisnika.
Ozbiljni rizici za najranjivije
Roditelji su u tužbi pred sudom u San Franciscu optužili OpenAI za odgovornost proizvoda i propuštanje sigurnosnih mehanizama, tvrdeći da je kompanija bila svjesna kako novi modeli s mogućnostima memorije, empatije i uvjerljivog oponašanja ljudskog ponašanja nose ozbiljne rizike za ranjive korisnike. Umjesto da uspori razvoj, tvrde tužitelji, OpenAI je odlučio žuriti s lansiranjem novih verzija kako bi zadržao tržišnu prednost i zadovoljio investitore. Vrijednost kompanije samo je u posljednjih godinu dana narasla s 86 na 300 milijardi dolara, dok se tragedija jedne obitelji pretvorila u globalno upozorenje.
OpenAI se u službenom priopćenju nije osvrnuo na samu obitelj Raine, ali je objavio blog pod naslovom 'Helping people when they need it most' (Pomaganje ljudima kada im je najpotrebnije), u kojem obećava uvođenje novih mjera zaštite. Najavljuju se jači sigurnosni filtri tijekom dugotrajnih razgovora, bolja blokada štetnih sadržaja, jednostavniji pristup kriznim linijama i posebne zaštite za maloljetnike. Tvrtka je pritom priznala da trenutačne zaštite najbolje funkcioniraju u kraćim interakcijama, dok tijekom duljih razgovora može doći do degradacije sigurnosnog ponašanja modela.
Nije prvi incident
Ovaj slučaj otvara šire pitanje o ranjivosti AI sustava i njihovoj odgovornosti u društvu. Nedavna studija objavljena u časopisu Psychiatric Services pokazala je da vodeći chatbotovi, uključujući ChatGPT, Googleov Gemini i Anthropicov Claude na suicidalne upite odgovaraju neujednačeno. Eksplicitne zahtjeve često odbijaju, no kod suptilnijih signala rizika nerijetko reagiraju pogrešno ili čak poticajno. Nije riječ o izoliranom incidentu, u Sjedinjenim Državama već je pokrenuta i tužba protiv platforme Character.AI nakon samoubojstva 14-godišnjaka, s gotovo identičnim optužbama.
Europa se, međutim, priprema na drugačiji regulatorni pristup. EU AI Act, koji je u završnoj fazi usvajanja, uvodi kategorizaciju sustava umjetne inteligencije prema razini rizika. Sustavi koji se koriste u zdravstvenoj skrbi, obrazovanju ili psihološkoj podršci spadaju u kategoriju 'visokog rizika' i moraju zadovoljiti stroge standarde transparentnosti, testiranja i ljudskog nadzora. Chatbotovi koji se koriste u interakciji s maloljetnicima mogli bi, po svemu sudeći, potpasti pod ovu kategoriju. Takav okvir trebao bi spriječiti upravo situacije poput one u Sjedinjenim Državama, gdje se poslovni interesi i pritisak tržišta stavljaju ispred sigurnosti korisnika.
Razlike u regulaciji
Usporedba američkog i europskog pristupa otkriva značajnu razliku u filozofiji regulacije. Dok se u SAD-u tehnološke kompanije još uvijek u velikoj mjeri oslanjaju na samoregulaciju i naknadno pravno razračunavanje, EU pokušava preventivno postaviti pravila igre. To ne znači da europski sustav jamči potpunu sigurnost, ali naglašava etičku dimenziju inovacija i odgovornost poduzeća za moguće društvene posljedice.
Za poslovnu zajednicu važan je i širi kontekst. Globalno tržište umjetne inteligencije u 2024. godini procijenjeno je na više od 200 milijardi dolara, a predviđa se da će do 2030. dosegnuti gotovo 1.8 bilijuna dolara, s prosječnom godišnjom stopom rasta od 35 posto. Europska regulativa, iako stroža, neće zaustaviti taj rast, ali će ga usmjeriti. Stručnjaci procjenjuju da će troškovi implementacije EU AI Acta za kompanije u početku biti značajni, od dodatnih milijuna eura za compliance do odgoda lansiranja proizvoda no dugoročno bi mogli donijeti i konkurentsku prednost onima koji pokažu da posluju sigurno i transparentno.
Za OpenAI i širu industriju umjetne inteligencije, slučaj Raine mogao bi postati prekretnica. Ako sud potvrdi optužbe da je AI 'aktivno pomogao' u samoubojstvu maloljetnika, tehnološki sektor suočit će se s valom novih regulatornih pritisaka, zahtjevima za transparentnost i potencijalnim odštetnim tužbama koje bi mogle promijeniti cijelu ekonomiju razvoja AI-ja.