Tehno
StoryEditor

Sustavi za prepoznavanje osjećaja - Komu će softver reći da se bojiš?

15. Svibanj 2021.
Algoritmi čitači emocija s lica duboko su uronili u svačiju privatnost. Dovoljno je da se netko domogne vaše fotografije ili, još bolje, videa pa nakon što upogoni pravi program iščita je li na snimkama netko tko je dobar kandidat za radno mjesto ili je prije za zatvor. Takvi sustavi za prepoznavanja emocija ipak često griješe. Pristrani su i nemoguće ih je korigirati. Zbog toga etičari, kao i mnogi znanstvenici, smatraju da hitno treba regulirati njihovu primjenu

Sretan, tužan, bijesan, ogorčen… Nije riječ o psihološkoj procjeni osjećaja ciljano promatrane skupine ljudi nego o zaključku algoritma kojim upravlja umjetna inteligencija (AI), a koju velike tehnološke tvrtke upotrebljavaju za čitanje emocija s lica ljudi. Algoritmi čitači postali su toliko sofisticirani da analiziraju izraze lica, mjere emocije i procjenjuju raspoloženje te nas svrstavaju među sretne, nesretne, opasne..., a tvrtke se rezultatima tih analiza koriste za unaprjeđenje poslovanja. Primjena tih sustava vrlo je široka, od kontrole putinka u zračnim lukama do odabira budućih zaposlenika.

Emotion detection ili razumijevanje i predviđanje ljudskih osjećaja putem algoritama zahvaljujući umjetnoj inteligenciji i računalnom vidu poslužilo je tehnološkim tvrtkama da još dublje urone u našu privatnost, a da mi o tome pojma nemamo. Primjerice, Amazon se odavno koristi sustavom za prepoznavanje emocija vozača u vlastitom voznom parku.

Prosperitetno prepoznavanje

Programi za prepoznavanje emocija s pomoću visokotehnološkog softvera za obradu slika mogu prepoznati emocije poput bijesa, tuge, straha, radosti, gađenja, iznenađenja, povjerenja, ravnodušnosti... Najčešći i najspontaniji način prepoznavanja emocija je na fotografijama i videozapisima. Zbog toga se neke filmske tvrtke koriste softverom za otkrivanje emocija, putem kojih analiziraju kako publika doživljava njihove filmove. Softver putem infracrvenih kamera snima lica ljudi dok gledaju filmove i prati njihovo ponašanje. Sve to radi u stvarnom vremenu i dostavlja podatke tvrtkama za proizvodnju filmova, koje na temelju njih mogu procijeniti zanimanje publike za njihove filmove. Tržište tehnologije za otkrivanje i prepoznavanje emocija cvjeta i eksplodira ulaganjem. Prema procjeni kompanije za istraživanje tržišta MarketsandMarkets do 2026. detekcija emocija vrijedit će 37,1 milijardu dolara. Ta industrija još nije regulirana, ali donosi sve više aplikacija koje nude savjete i terapije. Lani je procijenjena na vrijednost od 19,5 milijardi dolara, a raste po stopi od 11,3 posto na godinu.

Među tvrtkama koje se bave detekcijom emocija, osim američkog Microsofta i ostalih tehnoloških divova, i nizozemski je Sightcorp, koji razvija softverska rješenja AI-ja, a koja računalnim vidom i dubokim učenjem mogu analizirati lica na slikama i videozapisima u stvarnom okružju. Rješenja te tvrtke namijenjena su ponajprije maloprodaji i digitalnom marketingu. Noldus Information Technology još je jedna nizozemska tvrtka koja se bavi računalnim iščitavanjem emocija. Njezin osnivač i izvršni direktor Lucas Noldus tijekom istraživanja ponašanja životinja razvio je softver koji se sad primjenjuje i na ljudima, a proizvodi te tvrtke globalno su prepoznatljivi i upotrebljava ih oko stotinu zemalja širom svijeta.

No, čemu služe podaci dobiveni analizom emocija iščitanih s lica ljudi? Učenje o osjećajima kupaca postalo je prioritet u poslu jer se korisničko iskustvo velikim dijelom temelji na emocijama koje kupce potiču na kupnju te je važno informirati se o svemu, od razvoja proizvoda do marketinga i korisničke usluge, tako da je uključivanje tehnologije otkrivanja emocija novi korak u procesu poslovnog odlučivanja. Primjerice, mnoge se tvrtke koriste tom tehnologijom i za provjeru potencijalnih kandidata za posao. Analizirajući govor tijela i izraze lica, algoritam može predvidjeti kako bi se potencijalni zaposlenik ponašao u određenim situacijama. Zdravstvo bi također moglo imati koristi od te tehnologije, primjerice, softver bi mogao pomoći u određivanju kad bolesnici trebaju dobiti lijek ili tko treba prvi dobiti liječničku skrb.

Tvrtke koje se bave tehnologijom dizajniranom za prepoznavanje ljudskih osjećaja nastoje istaknuti brojne prednosti njezine primjene, ali etičari ne misle tako. Mnogo je i znanstvenika koji tvrde da ta tehnologija ne samo da zadire u privatnost, nego je netočna i rasno pristrana.

 

Sumnjiva sposobnost

Tim istraživača sa Sveučilišta Cambridge osmislio je web-igru Emojify, u kojoj se može isprobati sustav za prepoznavanje emocija putem računalne kamere. Jedan se dio usredotočuje na to da prevari tehnologiju, a drugi istražuje kako se takvi sustavi mogu boriti s čitanjem izraza lica u određenom kontekstu. Smisao igre je podići svijest o toj tehnologiji i pokrenuti dijalog o njezinoj uporabi. Kako izgleda kad računalo 'čita' nečije emocije u igri 'Emojify' koja na licu ljudi izaziva šest različitih emocija: sreću, tugu, strah, iznenađenje, gađenje i bijes, može svatko provjeriti putem kamere na svojem računalu. No algoritam se nije pokazao previše pametnim jer nije prepoznao sve emocije, a neke koje su bile pretjerane označio je neutralnima.

Voditeljica projekta dr. sc. Alexa Hagerty, istraživačica sa Sveučilišta Cambridge Leverhulme, Centar za budućnost inteligencije i Centar za proučavanje egzistencijalnog rizika, sumnja u sposobnost računala da razumiju osjećaje.

– Poenta ovoga istraživanje je pokazati kako je tehnologija prepoznavanja osjećaja manjkava. Pretpostavka ovih tehnologija je da su naša lica i unutarnji osjećaji povezani na vrlo predvidljiv način – ako se nasmiješ – sretan si, ako se namrštiš – bijesan si. Čak i kad odglumite osmijeh koji će uvjeriti računalo da ste sretni, vi ćete znati da ste lagali, ali ono neće – izjavila je Hagerty.
Pojasnila je da se tijekom igre može brzo mijenjati izraze lice kako bi se lažno predstavilo šest različitih emocija, ali ih osoba na emocionalnoj razini doista ne doživi već samo odglumi. To znači da se ne može vjerovati AI prepoznavanju emocija.

 

Široka upotreba

Unatoč tim problemima, tehnologija prepoznavanja emocija brzo se razvija, a tvrtke obećavaju da će se uskoro takvi sustavi naveliko upotrebljavati, primjerice, za odabir zaposlenika, uočavanje potencijalnih terorista, procjenu sposobnosti vozača, marketing... Takva je tehnologija već u širokoj uporabi u cijelom svijetu od Europe do SAD-a i Kine. Primjerice, softveri tvrtke Taigusys, specijalizirane za tehnologiju prepoznavanja emocija, čiji je glavni ured u kineskom gradu Shenzhenu, koriste se na mnogim mjestima od zdravstvenih ustanova do zatvora. Nadzor tim tehnologijama već ide toliko daleko da gradska uprava u indijskom gradu Lucknowu planira upotrebljavati tu tehnologija za uočavanje žena u nevolji, odnosno uznemiravanih, što je izazvalo negativnu reakciju raznih udruga za ljudska prava, uključujući i one za digitalna prava.

Ipak ne griješe samo strojevi, emocija s lica ponekad krivo čitaju i ljudi, ali razlika je u tome što se o ljudskoj pogrešci može razgovarati i može je se ispraviti, ali kad pogriješi računalo, korekcija je nemoguća.

Višestruke opasnosti

Vrlo je upitno stoga prepustiti taj posao softverima i algoritmima, jer računala ne mogu čitati društvene tragove kao što to mogu ljudi, ona nadziru masovno bez naše spoznaje o tome i pritom donose automatizirane odluke na koje ljudi ne mogu utjecati. Osim toga, AI za otkrivanje emocija često je rasno pristran te, primjerice, češće ocjenjuje negativnim emocije na licima crnaca.

– Opasnosti primjene te tehnologije su višestruke. Pogrešnu ljudsku komunikaciju imamo mogućnosti ispraviti, ali kad automatizirate nešto, pa se čitanje napravi bez vašeg znanja ili kontrole, te mogućnosti nema – izjavila je Hagerty.

Iako tvrdi da se od tehnologije prepoznavanja emocija ipak može imati potencijalne koristi, Hagerty zabrinjava njezina netočnost i rasna pristranost. Zbog toga je ta tehnologija posljednjih godina sve češća tema etičara, kao i aktivista za zaštitu ljudskih prava, jer bi njezina masovna uporaba mogla povećati diskriminaciju i naštetiti slobodi govora. Na Sveučilištu Cambridge u tijeku je novi projekt koji bi trebao podići svijest o toj tehnologiji i promovirati raspravu o njezinoj uporabi. Hagerty tvrdi da tek počinjemo shvaćati da nismo samo korisnici tehnologije nego nas tehnologija duboko oblikuje te moramo imati demokratsko rješenje i u ovom slučaju kao što imamo u ostalim važnim društvenim pitanjima.

 

22. studeni 2024 04:09