Zaigranost algoritama umjetne inteligencije (UI, engl. AI) postaje sve veći izazov za zakonodavstvo. Prije nekoliko godina nije se razmišljalo o ozakonjenju njezine uporabe jer se nije znalo što sve AI s pomoću strojnog učenja, dubokog učenja i neuronskih mreža može činiti. Osim koristi koju donosi ta nova tehnologija moguće su i štete, koje se žele zakonski spriječiti. Prema Deloitteovu globalnom istraživanju o trendovima u tehnologiji, medijima i telekomunikacijama za 2022., nekoliko je razloga zbog kojih su se zakonodavci namjerili na umjetnu inteligenciju. Prvi je tehničke prirode: tehnologija je sve moćnija – brži procesori, jači softveri i veći skupovi podataka učinili su umjetnu inteligenciju sve dostupnijom. No ona nije uvijek dobronamjerna.
Tko čime upravlja
Umjetna inteligencija kao i tehnologija može biti društveno pristrana, puna predrasuda, diskriminacijska i ubojica privatnosti. Zbog toga su neke kompanije koje su je primjenjivale u odabiru zaposlenika morale odustati od nje jer iako su htjele zaposliti više žena, pametni alat odabrao je muškarce. Nije pomogao ni pokušaj da se to ispravi jer je umjetna inteligencija prednost neumoljivo davala muškarcima. Stoga je Rebecca Kelly Slaughter, povjerenica američke Savezne trgovinske komisije (US Federal Trade Commission – FTC), izjavila:
– Sve više dokaza otkriva da algoritamske odluke mogu proizvesti pristrane, diskriminacijske i nepravedne rezultate u raznim ekonomskim sferama s visokim ulozima, uključujući zapošljavanje, kredite, zdravstvenu zaštitu i stanovanje.
Algoritme kreiraju ljudi, a oni nisu bezgrješni i često imaju vrijednosna stajališta opterećena predrasudama i diskriminacijom. Zbog toga je nužno regulirati uporabu AI-ja, objašnjava Mislav Malenica, predsjednik Hrvatske udruge za umjetnu inteligenciju CroAI i član Europskoga saveza za umjetnu inteligenciju te fokus-grupe Digital SME-a.
– Sve više ljudi osjeća da je tehnologija toliko napredovala da više nisu sigurni upravljaju li oni tehnologijom ili ona upravlja njima. Taj osjećaj nelagode i straha moguće je umiriti edukacijom ili regulativom – tvrdi Malenica.
Najveća korist
Dodaje da bi se u idealnom svijetu šira javnost educirala o tome da je umjetna inteligencija samo još jedan od alata u čovjekovim rukama. Razjasnilo bi se što se može tim alatom, a što ne može. Nakon toga svima bi postalo jasno da već imamo zakone koji reguliraju što se treba dogoditi kad neka osoba/tvrtka/institucija djelovanjem direktno ili indirektno prouzroči štetu.
– Međutim, niska je razina pismenosti o umjetnoj inteligenciji na svjetskoj razini i to se neće uskoro promijeniti. Stoga primjenjujemo drugu strategiju, regulativu. To nije loše jer relativno jednostavno stvaramo osjećaj kontrole i smirujemo strasti. Možda bismo pomislili da je najveća korist od regulacije upotrebe AI-ja zaštita od nekih katastrofalnih scenarija, ali taj dio već je donekle dobro pokriven. Najvažnije je što će se postaviti jasnija pravila igre, što će omogućiti lakše prihvaćanje i testiranje inovacija. Od toga svi možemo profitirati jer na toliko su nam područja tehnologija i procesi zastarjeli da osuvremenjenjem možemo znatno podignuti kvalitetu života – objašnjava Malenica.
Alati za edukaciju i manipulaciju
Prema njegovim riječima, vjerojatno je najopasnija zloupotreba korištenje umjetne inteligencije kako bi se još efikasnije pokušalo manipulirati ljudima. To nije novi problem, naglašava Malenica. Specifično skrojen sadržaj namijenjen točno određenom segmentu populacije alat je koji se upotrebljava i u edukaciji i u manipulaciji.
– Razlika između toga pomažete li osobi donositi bolje odluke kako bi živjela zdravije ili je želite uvjeriti da boluje od nečega kako bi počela kupovati neki lijek obično ovisi samo o motivaciji onoga tko alat drži u rukama. Personalizacija i interaktivnost koje je moguće postići s pomoću umjetne inteligencije samo podižu razinu efikasnosti tog alata – poručuje Malenica.
Više studija pokazuje da pristranost kodirana umjetnom inteligencijom može diskriminirati prema spolu, rasi, spolnosti, bogatstvu ili prihodu... Pristranost obično djeluje tako da dodatno ugrozi one koji su već u nepovoljnu položaju. Umjetna inteligencija zapravo uopće nije sto posto umjetna – trenira se na skupovima podataka i odražava ljudsku pristranost. Nažalost, AI obučena na tim skupovima podataka ne eliminira ljudsku pristranost, nego je često pojačava. Da bi se to izbjeglo, nužno je regulirati uporabu umjetne inteligencije. Europska unija prva je krenula tim putom.
Europski parlament predložio je zakonodavni okvir prema kojem umjetna inteligencija ne smije imati pravnu osobnost, a odgovorni za potencijalnu štetu bili bi njezini operatori.
Plodno tlo za inovacije
Nacrt dokumenta EU o regulaciji umjetne inteligencije navodi da 'skupovi podataka za obuku, validaciju i testiranje moraju biti relevantni, reprezentativni, bez pogrešaka i potpuni'. Očekuje se da će Europska unija tijekom 2022. donijeti uredbu o uporabi umjetne inteligencije koju će zatim primijeniti sve njezine članice.
Milly Doolan, voditeljica javnih politika u CroAI-ju, ističe da je i ta udruga angažirana na reguliranju primjene umjetne inteligencije unutar Unije.
– Kad je u veljači 2020. izišla Bijela knjiga Europske komisije o AI-ju, postalo nam je jasno da će Europa imati svoj pristup reguliranju umjetne inteligencije, baš kao što je to napravila i donošenjem GDPR-a u vezi s privatnošću. Bilo nam je iznimno važno da se u moru lobiranja u Bruxellesu čuje i glas naše startup-zajednice. Predstavili smo Komisiji svoje stajalište o Bijeloj knjizi u kojem smo istaknuli važnost podupiranja inovacija i kreiranja plodnog tla za inovacije u EU s pomoću tzv. pješčanika, odnosno sigurnih testnih okolina. S druge strane, pokrenuli smo Europski AI forum, paneuropsku platformu koja spaja poduzetnike koji se bave AI-jem s dionicima u javnoj upravi radi zagovaranja mjera koje su nužne kako bi Europa bila globalno konkurentan proizvođač AI. I upravo je to naš fokus. Podupiremo smjer koji je zadan u Prijedlogu uredbe Europske komisije o umjetnoj inteligenciji iz travnja 2021., odnosno da europski brend bude AI koji štiti ljudska prava, siguran je i pouzdan – kaže Doolan.
Kodeks o postupanju
Prema njezinim riječima, važno je da se pritom ne uguše inovacije u AI-ju i poduzetnike ne optereti nepotrebnom administracijom i nadzorom.
– Zadovoljni smo što su pješčanici ušli u Prijedlog uredbe, a sad u suradnji s donositeljima odluka i u Hrvatskoj i u Bruxellesu moramo definirati pravi način njihove primjene – dodaje Doolan i ističe da je ideja testiranja unutar pješčanika da se rizici inoviranja u AI-ju ograniče do razine prihvatljivosti.
CroAI zauzima se za to da se te granice definiraju kodeksom o postupanju koji na razini svake države članice sastavlja interdisciplinarna radna skupina s predstavnicima struke, države i obrazovno-znanstvenih ustanova. Kodeks pruža sigurnost državi da se sigurno inovira, a poduzetnicima omogućuje samostalno kreiranje pješčanika. Kao dodatnu mjeru minimiziranja nastanka štete udruga predlaže uvođenje police osiguranja koja bi pokrivala štetu nastalu testiranjem, što bi dalo snažan poticaj cijelom ekosustavu.
– Vjerujemo da bi te mjere mogle biti osnova sigurnog, transparentnog, ali i vrlo fleksibilnog okvira za inovacije. Ne bi bio poticajan samo za inovatore; i tvrtke, bolnice, obrazovne ustanove te različite institucije mnogo bi se lakše uključile u unaprjeđivanje rada novim tehnologijama – kaže Doolan.
Upitni i osjećaji
Iako je Europska unija otišla najdalje u regulaciji umjetne inteligencije, na tome rade i američki FTC, a i Kina, koja predlaže više propisa povezanih s tehnološkim tvrtkama među kojima neki uključuju regulaciju umjetne inteligencije. Regulacija AI-ja vrlo je zahtjevan posao: koja država ili zajednica država, poput EU, postavi svjetski standard u regulaciji, svojim će tvrtkama omogućiti konkurentnu prednost. Međutim, za razliku od korisnika umjetne inteligencije velike svjetske kompanije, kreatorice umjetne inteligencije, nisu presretne zbog postavljanja zakonskih okvira za AI.
Naime, o zakonima koji će obuzdati umjetnu inteligenciju, a koji će se najvjerojatnije početi provoditi već 2023., ovisit će buduća primjena te tehnologije. Među ostalim, zakonom je moguće zabraniti prepoznavanje lica na javnim mjestima, što, primjerice, uz neka izuzeća, predlaže EU; bodovanje pojedinaca, odnosno 'društveni kredit', što je model kakav već postoji u Kini, a zakonski su upitni i detekcija osjećaja i predviđanje ponašanja, subliminalne poruke... Zakon će nastojati spriječiti negativne posljedice odluka utemeljenih na umjetnoj inteligenciji poput pristranosti i nepravednosti, a mogao bi spriječiti i prodaju nekih vrsta usluga AI-ja te bi kompanije koje ih prodaju mogle biti odgovorne za način na koji će korisnici upotrebljavati umjetnu inteligenciju.