Velika prašina digla se oko novih pravila EU vezanih uz nacrt regulacije sustava temeljenih na umjetnoj inteligenciji i digitalne ekonomije. S obzirom na ekspanzivno širenje tehnoloških mogućnosti umjetne inteligencije i veliku zabrinutost oko same sigurnosti podataka, osobito oko metodologije procjene rizika u takvim sustavima, svaka aktivnost vezana uz nužnost dubljeg razumijevanja i izdavanje smjernica u svrhu minimiziranja potencijalnih šteta po pojedinca je, realno gledajući, dobrodošla. Ta vrsta tehnologije nezaobilazna je, no malo tko razmišlja o njenim nedostacima i mogućim posljedicama tih nedostataka.
Proizvođači naprednih tehnologija ponekad se oslanjaju na činjenicu da se sama tehnologija razvija brže no što je zakonodavstvo stigne pratiti, pa svaka nova regulacija koja bi im mogla uzrokovati veća ulaganja, pad prihoda zbog ograničenja ili čak zabrane korištenja pojedinih funkcionalnosti često medijski bude prezentirana kao udar na slobodno tržište i ograničavanje funkcionalnosti koje krajnjim korisnicima olakšavaju život. Uvijek uzmite u obzir da svaka takva priča ima dvije strane i uputno je prikupiti argumente obiju strana te ih dubinski analizirati za donošenje utemeljenog kritičkog suda.
Nedavno predstavljeni dokumenti White Paper on Artificial Intelligence (AI) o umjetnoj inteligenciji i European data strategy ukazuju na vrlo konkretan smjer EU u postavljanju globalnih standarda u tehnološkom razvoju istovremeno stavljajući ljude na prvo mjesto.
To podrazumijeva obvezu dizanja razine sigurnosti AI sustava podrazumijevajući pritom i napredne sigurnosne certifikacije, testiranja i kontroliranja sustava koji će potom prema točno određenoj metodologiji biti klasificirani visoko- ili nisko-rizičnima. Za nisko-rizične AI sustave, Europska komisija predlaže dobrovoljno označavanje u slučaju da se poštuju definirani standardi.
Poučena iskustvima SAD-a i Kine, EU je odlučila poduzeti konkretnije korake u definiranja metodologije procjene rizika i kontinuiranog nadzora takvih sustava. Iza tih naizgled jednostavnih riječi stoji jedan mnogo zahtjevniji pojam – procjena i upravljanje rizicima korištenja te vrste tehnologije. Kako svako upravljanje rizicima počinje postavljanjem ciljeva, moglo se i pretpostaviti da će ovdje najveće izazove predstavljati pravo pojedinca na privatnost i smanjivanje rizika od diskriminatornih utjecaja pristranih algoritama (algorithmic bias).
Pristrani algoritmi nisu ni benigni, niti rijedak slučaj. Taj termin predstavlja sustavne i ponovljive pogreške u računalnom sustavu koji stvaraju tzv. nepovoljne ishode. Jedan od njih je svakako i automatizirana diskriminacija gdje sustav pogreškom počne privilegirati jednu grupu korisnika nad drugom i slično. Kako je ta vrsta pogrešaka sustavna i ponovljiva, a sam naziv umjetne inteligencije implicira da sustav sam uči i razvija se, u što zrelijoj fazi je sustav – regulacija ili ispravljanje pristranih algoritama postaje teže. Namjernu zloupotrebu takvih sustava i njihove mogućnosti ne treba ni naglašavati, sve je postalo kristalno jasno nakon američkih predsjedničkih izbora kad je mnogo tehnoloških detalja postalo javno.
Naravno da je vrag uvijek u detalju - možete prestati koristiti društvene mreže (koje vas, vjerujte mi, filigranskim profiliranjem poznaju bolje od vas samih), no ne možete svojevoljno pobjeći od usluga u javnom sektoru temeljenih na istoj tehnologiji koje su sve raširenije. Primjer jedne slične usluge koji je upalio svojevrstan alarm jest sustav videonadzora u Kini s prepoznavanjem lica.
Dokumenti Europske komisije s prijedlogom plana regulacije tih aspekata sadrže i stavke kojima se savjetuje period do pet godina u kojem bi korištenje tehnologije prepoznavanja lica na javnim mjestima bilo zabranjeno osim u iznimnim strogo definiranim slučajevima, što bi europskim zakonodavcima osiguralo vrijeme da formiraju načine procjene i upravljanja rizicima kod te vrste tehnologije. U tom kontekstu detaljno bi se propisala i izuzeća vezana uz istraživanje i razvoj ili sigurnosne svrhe.
I dok je fokus naizgled na regulaciji usluga javnog sektora, veliki igrači opravdano su vrlo zabrinuti. Tako je The New York Times objavio vijest da su u Bruxelles došli iskazati zabrinutost i Sundar Pichai iz Alphabeta (matična tvrtka Googlea), John Giannandrea iz Applea i Mark Zuckerberg iz Facebooka – vodećih svjetskih tvrtki koji najveći dio svojih prihoda ostvaruju upravo zbog sustava temeljenih na umjetnoj inteligenciji, a EU im predstavlja značajno ciljno tržište na kojem su neki od njih već pretrpjeli značajne kazne zbog kršenja zakonom propisanih prava pojedincima.
Iako sama inicijativa otvara više pitanja no što daje odgovora, sam način razmatranja ove tehnologije i konkretne kategorizacije pojedinog AI sustava „visokim“ ili „niskim rizikom“ s obvezama naprednih sigurnosnih certifikacija zaista treba gledati kao jedan pozitivan korak u svrhu zaštite pojedinca i njegovih temeljnih prava i sloboda, a ne kao još jednu restrikciju koja ograničava napredak.