Aktualno
StoryEditor

AI generacija: Druže li se vaša djeca s inteligentnim igračkama ili umiljatim špijunima

25. Svibanj 2018.

Razvoj umjetne inteligencije već neko vrijeme ostavlja dubok trag i u svijetu igračaka pa tako posljednjih godina sve više prašine podiže i Cayla, svojevrsni spoj lutke i izmišljene prijateljice vašeg djeteta.

Naime, lutka je povezana s internetom i, koristeći tehniku prepoznavanja glasa, s djecom komunicira u ‘real timeu‘. Proizvođači ističu da Cayla i slične lutke doprinose obrazovanju i razvoju socijalnih vještina, mašte i inteligencije, no u zadnje vrijeme, piše World Economic Forum, sve je više i onih koji smatraju da postoji i čitav niz opasnosti povezanih s takvim igračkama.

>>>Umjetna inteligencija ugrađena u pametni telefon

Prvenstveno, tu su hakeri koji bi uz pomoć lutaka mogli špijunirati djecu i izravno komunicirati s njima. Nadalje, svi se razgovori s Caylom snimaju, zbog čega je regulatorna agencija u Njemačkoj prošle godine poticala roditelje da unište te igračke, nazvavši ih ilegalnim uređajima za špijunažu i zabranivši njihovu prodaju. Situacija je po tom pitanju najgora u Sjedinjenim Državama, gdje proizvođači imaju pravo zadržati snimljene podatke znatno duže nego u ostalim zemljama.

https://www.youtube.com/watch?v=mVLTfAbypj4

S druge strane, stručnjaci navode kako bi se ista tehnologija mogla iskoristiti za edukaciju i buđenje želje za učenjem kod najmlađih, pri čemu bi lutke predstavljale svojevrsne profesore.

>>>Umjetna inteligencija smanjuje potrebu za ‘prevoditeljima od krvi i mesa’

U tom bi slučaju, međutim, bile potrebne stroge regulacije i kontrole vezane uz ono što ‘lutke-nastavnici‘ govore i uče djecu. Nadalje, nameće se i pitanje privatnosti i koliko proizvođači imaju prava zadirati u istu? Odnosno, što učiniti ako dijete lutkama otkrije da je zlostavljano ili da si želi nauditi?

Odgovore na sva ta pitanja stručnjaci će pokušati dobiti na predstojećem Svjetskom gospodarskom forumu, gdje će jedna od rasprava biti posvećena upravo ovoj temi.

22. studeni 2024 16:52