Tehno
StoryEditor

Problemi AI-ja koji još uvijek nisu riješeni - kad će, ne zna se

22. Studeni 2023.
AI generativna umjetna inteligencija

I dok posljednjih dana traje sapunica oko Sama Altmana, izvršnog direktora Open AI-ja, koji odlazi pa se vraća u tvrtku, koja stoji iza sve popularnog ChatGPT-a i dok svi hvale tu novu generativnu umjetnu inteligenciju, malo je onih koji se trenutno bave problemima iste, a još je manje onih koji će reći da se zapravo ne radi o pravoj umjetnoj inteligenciji.

Naime, generativna umjetna inteligencija je vrsta AI-ja koja može generirati novi sadržaj, kao što su slike, videozapisi, glazba ili tekst. To čini učenjem obrazaca i odnosa unutar podataka na kojima se obučava, a zatim korištenjem tog znanja za stvaranje novog sadržaja koji nalikuje izvornim podacima. Ona nije inteligentna i ne zna ništa što u nju nije pohranjeno, odnosno, zna samo ono čime su je trenirali ili nahranili.

Neki tvrde da istinska inteligencija zahtijeva sposobnost razumijevanja i primjene koncepata, logičkog zaključivanja i donošenja odluka na temelju konteksta i namjere, što generativni AI sustavi možda nikad neće moći. Drugi tvrde da generativni AI sustavi pokazuju oblik inteligencije koji je jedinstven i vrijedan sam po sebi i tu se među takozvanim stručnjacima vode borbe. Bez obzira je li prava ili nije, ova vrsta umjetne inteligencije za sada se pokazuje kao dobra tehnologija ili alat u područjima kao što su umjetnost, dizajn i zabava.

Kao što smo rekli, generativna umjetna inteligencija se obučava treniranjem ljudskog sadržaja na temelju masivnih skupova podataka, a kako nije savršena, tijekom treniranja dolazi od priličnih problema, od privatnosti, usklađenosti s propisima, autorskih prava, transparentnosti i nepristranosti.

Generativni AI zakoni i okviri

Iako u ovom trenutku nijedan veći generativni etički okvir ili politika AI nije usvojen u zakonu, nekoliko je zakona u izradi.

Europska unija je najdalje odmakla u regulaciji generativne umjetne inteligencije, a Italija je čak nakratko zabranila OpenAI dok tvrtka ne poboljša svoje standarde privatnosti podataka. EU-ov Zakon o umjetnoj inteligenciji prijedlog je zakona koji bi podijelio aplikacije umjetne inteligencije u kategorije neprihvatljivog rizika, visokog rizika i kategorije niskog rizika, s posebnom pažnjom na generativnu umjetnu inteligenciju i zabrinutost zbog autorskih prava/vlasništva.

Iako SAD nemaju službeni zakon o umjetnoj inteligenciji u izradi, uspostavljeno je nekoliko okvira i najboljih praksi koje pokazuju da bi zakon mogao stupiti na snagu u budućnosti. Primjeri uključuju Nacrt Bidenove administracije za Povelju o pravima umjetne inteligencije, NIST-ov okvir za upravljanje rizikom umjetne inteligencije i smjernice za registraciju autorskih prava za sadržaj generiran umjetnom inteligencijom.

Ujedinjeno Kraljevstvo će vjerojatno nastaviti s regulacijom umjetne inteligencije sporijim tempom od EU-a, ali bržim tempom od Sjedinjenih Država. Zemlja već ima politički dokument pod nazivom Regulacija umjetne inteligencije: pro-inovacijski pristup koji sažima njezine planove za regulaciju umjetne inteligencije.

Generativna umjetna inteligencija je nova i neregulirana, što znači da postoji mnogo načina na koje se može zloupotrijebiti. Ovo su neki od najvećih etičkih problema koji okružuju generativnu umjetnu inteligenciju danas.

Problemi s autorskim pravima i ukradenim podacima

Da bi generativni modeli umjetne inteligencije redovito proizvodili logičan sadržaj sličan ljudskom, ovi se alati moraju uvježbati na ogromnim skupovima podataka iz raznih izvora. Nažalost, većina tvrtki za umjetnu inteligenciju prikrila je ovaj proces obuke, a nekoliko ih je koristilo originalna umjetnička djela, sadržaj i osobne podatke kreatora i drugih potrošača u skupovima podataka za obuku bez dopuštenja kreatora.

MidJourney i Stability AI Stable Diffusion dva su alata koji su na udaru kritika zbog ovih problema. Osobni i korporativni podaci drugih vrsta također su nenamjerno uvedeni u generativne algoritme za obuku AI-a, što korisnike i korporacije izlaže potencijalnoj krađi, gubitku podataka i kršenju privatnosti.

Etička upotreba podataka postaje najvažnija kada se uzme u obzir da nekoliko generativnih alata umjetne inteligencije prisvaja djelo zaštićeno autorskim pravima bez pristanka, kredita ili naknade, kršeći prava umjetnika i kreatora. Zbog toga je OpenAI nedavno uveo kompenzacijski program pod nazivom Copyright Shield koji pokriva pravne troškove za tužbe za kršenje autorskih prava za određene korisnike, umjesto uklanjanja materijala zaštićenog autorskim pravima iz skupa podataka za obuku ChatGPT-a.

Halucinacije, loše ponašanje i netočnosti

Generativni AI alati osposobljeni su za davanje logičnih, korisnih rezultata na temelju upita korisnika, ali povremeno ovi alati generiraju uvredljiv, neprikladan ili netočan sadržaj. Takozvane ‘halucinacije‘ jedinstveni su problem s kojim se ovi alati suočavaju: u biti, veliki jezični model daje pouzdan odgovor na pitanje korisnika koji je potpuno pogrešan ili irelevantan i čini se da nema temelja u podacima na kojima je uvježban.

Uz to, mnogi AI alati još uvijek ne slušaju u potpunosti pa se zna dogoditi da generiraju pornografske fotografije iako od njih to nije traženo. Znaju biti rasistički nastrojeni ili pak woke do krajnjih granica zdravog razuma. Također, vole širiti dezinformacije, a o pristranosti da i ne govorimo. Ali morat ćemo. Pristrani podaci o obuci mogu naučiti modele umjetne inteligencije da se prema određenim skupinama ljudi odnose bez poštovanja, šire propagandu ili lažne vijesti i/ili stvaraju uvredljive slike ili sadržaj koji cilja na marginalizirane skupine i održava stereotipe. Ako se pita ChatGPT, ti marginalizirani su, recimo, bijelci.

Ograničena transparentnost

Tvrtke poput OpenAI-a naporno rade kako bi svoje procese obuke učinile transparentnijima, ali uglavnom nije jasno koje se vrste podataka koriste i kako se koriste za obuku generativnih AI modela. Ova ograničena transparentnost ne samo da izazivaju zabrinutost zbog moguće krađe ili zlouporabe podataka, nego otežavaju testiranje kvalitete i točnosti rezultata generativnog AI modela i referenci na kojima se temelje. Veliki problem je obuka takvih modela koja nije jeftina.

Što se tiče ChatGPT-a, Altman je jednom prilikom potvrdio da je potrošeno oko sto milijuna dolara za obuku. Također, da zelene dušobrižnike evo i podatka da ChatGPT, s procesorima koje troše znatnu količinu energije utječu i na okoliš. Prema procjenama, ChatGPT za napajanje troši koliko i 33 tisuće kućanstva u SAD-u zajedno.

17. veljača 2024 18:59