
OpenAI uvodi roditeljski nadzor za ChatGPT nakon suicida tinejdžera

chatgpt kontrola
Tvrtka najavljuje promjene u kontekstu rastuće zabrinutosti zbog utjecaja chatbota na mentalno zdravlje mladih
Nedavno se Open AI ponovno našao u središtu globalne rasprave o sigurnosti umjetne inteligencije nakon što su roditelji iz Kalifornije podigli tužbu protiv kompanije i njezina izvršnog direktora Sama Altmana. Tužba tvrdi da je njihov 16-godišnji sin Adam Raine, koji je u travnju ove godine počinio samoubojstvo, mjesecima komunicirao s ChatGPT-om te da mu je upravo taj sustav 'aktivno pomogao' u pripremi na kobni čin.
Sada je Open AI reagirao, ali za malog Adama, to više ništa ne znači. U objavi na svom blogu, Open AI je naveo kako uvodi značajke roditeljskog nadzora kako bi 'podržala obitelji u postavljanju zdravih smjernica koje odgovaraju jedinstvenoj fazi razvoja tinejdžera'.
Prema novim pravilima, roditelji će moći povezati svoje račune s računima svoje djece, onemogućiti određene funkcije, uključujući memoriju i povijest razgovora, te kontrolirati način na koji chatbot odgovara na upite putem 'pravila ponašanja prilagođenih dobi'. Roditelji će također moći primati obavijesti ako njihov tinejdžer pokaže znakove stresa, navodi OpenAI, dodajući da će pri implementaciji značajke tražiti stručne savjete kako bi se 'podržalo povjerenje između roditelja i tinejdžera'.
Pokušaj vađenja Open AI-ja
OpenAI, koji je prošloga tjedna najavio niz mjera za povećanje sigurnosti ranjivih korisnika, rekao je da će promjene stupiti na snagu u idućem mjesecu.
- Ovi koraci su tek početak. Nastavit ćemo učiti i jačati naš pristup, u suradnji sa stručnjacima, s ciljem da ChatGPT bude što korisniji. Veselimo se dijeljenju napretka u idućih 120 dana – objavili su iz tvrtke.
Najava OpenAI-a dolazi tjedan dana nakon što su Kalifornijci podnijeli tužbu protiv tvrtke, optužujući je za odgovornost u suicidu svog 16-godišnjeg sina. Matt i Maria Raine tvrde u tužbi da je ChatGPT njihovom sinu Adamu 'potvrdio najštetnije i najdestruktivnije misli' te da je njegova smrt bila 'predvidljiv rezultat namjernih dizajnerskih odluka'.
OpenAI, koji je ranije izrazio sućut zbog tragičnog događaja, u svojoj objavi o roditeljskom nadzoru nije izričito spomenuo slučaj. Jay Edelson, odvjetnik koji zastupa obitelj Raine, odbacio je planirane promjene OpenAI-a kao pokušaj 'preusmjeravanja debate'.
- Kažu da proizvod treba biti osjetljiviji prema ljudima u kriznim situacijama, da bude više ‘koristan’, da pokaže malo više ‘empatije’, a stručnjaci će to riješiti - izjavio je Edelson.
Korištenje AI modela od strane osoba u teškoj mentalnoj krizi izazvalo je rastuću zabrinutost, osobito zbog njihove uloge kao zamjene terapeutu ili prijatelju. U studiji objavljenoj prošlog mjeseca u časopisu Psychiatric Services, istraživači su otkrili da ChatGPT, Googleov Gemini i Anthropicov Claude prate kliničke najbolje prakse pri odgovaranju na pitanja visokog rizika o suicidu, ali su neusklađeni pri upitima srednjeg rizika.
- Ovi nalazi sugeriraju potrebu daljnjeg usavršavanja kako bi se osiguralo da se veliki jezični modeli sigurno i učinkovito koriste za pružanje informacija o mentalnom zdravlju, posebno u scenarijima visokog rizika koji uključuju suicidalne misli - navode autori studije.
Hamilton Morrin, psihijatar s King’s Collegea u Londonu, koji istražuje psihotične pojave povezane s AI-jem, pozdravio je odluku OpenAI-a o uvođenju roditeljskog nadzora, ističući da bi ona mogla smanjiti rizik od pretjeranog oslanjanja na tehnologiju ili izloženosti štetnom sadržaju.
- Roditeljski nadzor trebao bi se ipak smatrati samo dijelom šireg seta mjera zaštite, a ne samim rješenjem. Općenito, industrija tehnologije često reagira na rizike mentalnog zdravlja tek nakon što se pojave, umjesto da ih sprječava - rekao je Morrin za Al Jazeeru.
- Napredak postoji, ali tvrtke mogu učiniti više u suradnji s kliničarima, istraživačima i osobama s iskustvom kako bi sustavi bili sigurni od samog početka, umjesto da se oslanjaju na mjere dodane tek nakon što se pojave zabrinutosti – dodao je.
Nešto je trulo kod Altmana
Ovi sigurnosni propusti zapravo ne bi trebali čuditi, s obzirom što se događa oko Open Ai-ja. Naime, u posljednjih nekoliko mjeseci gotovo je pola članova OpenAI-jevog odjela za AI sigurnost napustilo tvrtku, uključujući vodeće istraživače i ključne članove timova zaduženih za superalignment i AGI readiness.
Prema izjavama bivših zaposlenika, od oko 30 djelatnika u sigurnosnom timu njih 14 otišlo je u 2024. i 2025. godini. Među istaknutim članovima koji su napustili OpenAI su Ilya Sutskever, Jan Leike, John Schulman, Miles Brundage, Rosie Campbell i Richard Ngo. Razlozi za odlaske povezani su s neslaganjima s vodstvom oko prioriteta AI sigurnosti, ukidanjem sigurnosnih timova te percepcijom da je razvoj proizvoda stavljen ispred sigurnosti. Superalignment tim, glavni odjel zadužen za sigurnost, formalno je raspušten nakon odlaska svog voditelja i nikad se više nije uspostavio.