Tvrtke i tržišta

AI rat: OpenAI, Google i Anthropic udruženi protiv Kine

Tehnološki divovi razmjenjuju podatke kako bi zaštitili svoje modele od neovlaštenog kopiranja iz Kine

Rivali OpenAI, Anthropic i Alphabet (Google) počeli su surađivati kako bi pokušali spriječiti kineske konkurente da izvlače rezultate iz naprednih američkih modela umjetne inteligencije i tako steknu prednost u globalnoj utrci za AI, prenosi Bloomberg. Tvrtke razmjenjuju informacije putem Frontier Model Foruma, industrijske neprofitne organizacije koju su ove tri tehnološke kompanije osnovale zajedno s Microsoftom 2023. godine. Cilj je otkriti tzv. pokušaje 'adversarijalne distilacije' koji krše njihove uvjete korištenja, prema izvorima upoznatima sa situacijom.

Ova rijetka suradnja naglašava ozbiljnost zabrinutosti američkih AI tvrtki da neki korisnici, osobito u Kini, stvaraju imitacije njihovih proizvoda koje bi ih mogle potkopati cijenom, oduzeti im korisnike i predstavljati sigurnosni rizik. Američki dužnosnici procjenjuju da neovlaštena distilacija Silicijskoj dolini uzrokuje gubitke od više milijardi dolara godišnje.

OpenAI je potvrdio sudjelovanje u razmjeni informacija o adversarijalnoj distilaciji putem Frontier Model Foruma te se pozvao na nedavni dopis upućen Kongresu, u kojem optužuje kinesku tvrtku DeepSeek da pokušava 'besplatno iskoristiti sposobnosti razvijene od strane OpenAI-a i drugih američkih vodećih laboratorija'. Google, Anthropic i Forum nisu željeli komentirati.

Distilacija je tehnika u kojoj se stariji 'učiteljski' AI model koristi za treniranje novog 'učenika' koji replicira njegove sposobnosti — često uz znatno niže troškove nego izgradnja modela od nule. Neki oblici distilacije su široko prihvaćeni i čak poticani, primjerice kada tvrtke stvaraju manje i učinkovitije verzije vlastitih modela ili dopuštaju vanjskim programerima da razvijaju nekompetitivne tehnologije.

Izvlačenje rezultata iz američkih modela

Međutim, distilacija je postala kontroverzna kada je koriste treće strane, posebno u državama poput Kine ili Rusije  za repliciranje vlasničkih tehnologija bez dopuštenja. Vodeći američki AI laboratoriji upozoravaju da bi strani akteri mogli koristiti tu tehniku za razvoj modela bez sigurnosnih ograničenja, primjerice onih koji sprječavaju stvaranje smrtonosnih patogena.

Većina modela koje razvijaju kineski laboratoriji ima tzv. 'open weight' pristup, što znači da su dijelovi sustava javno dostupni za preuzimanje i korištenje, pa su samim time i jeftiniji. To predstavlja ekonomski izazov za američke AI kompanije koje svoje modele drže zatvorenima i naplaćuju pristup kako bi nadoknadile ogromna ulaganja u infrastrukturu i podatkovne centre.

Distilacija je privukla posebnu pozornost u siječnju 2025., nakon iznenadnog lansiranja modela R1 tvrtke DeepSeek, koji je izazvao veliki interes u AI industriji. Ubrzo nakon toga, Microsoft i OpenAI istraživali su je li kineski startup neovlašteno izvukao velike količine podataka iz njihovih modela kako bi razvio R1.

U veljači je OpenAI upozorio američke zakonodavce da DeepSeek i dalje koristi sve sofisticiranije metode za izvlačenje rezultata iz američkih modela, unatoč pojačanim mjerama zaštite. U dopisu Kongresu tvrdi se da DeepSeek koristi distilaciju za razvoj nove verzije svog chatbot sustava. Razmjena informacija među američkim AI tvrtkama podsjeća na praksu u kibernetičkoj sigurnosti, gdje kompanije redovito dijele podatke o napadima kako bi ojačale obranu. Slično tome, AI tvrtke nastoje bolje prepoznati distilaciju, identificirati počinitelje i spriječiti neovlaštenu upotrebu.

Administracija predsjednika Donalda Trumpa pokazala je spremnost poticati takvu suradnju. Njihov AI Action Plan predviđa uspostavu centra za razmjenu informacija upravo u tu svrhu. Za sada je razmjena informacija ograničena zbog pravne nesigurnosti oko toga što je dopušteno dijeliti prema zakonima o tržišnom natjecanju. Tvrtke smatraju da bi im pomogla veća jasnoća od strane američke vlade.

Distilacija je postala jedan od glavnih problema američkih AI developera otkako je DeepSeek uzdrmao globalna tržišta početkom 2025. godine. U Kini se i dalje pojavljuju sve napredniji open-source modeli, a industrija s velikim zanimanjem očekuje novu verziju DeepSeekovog modela. Prošle godine Anthropic je blokirao kineske tvrtke pod državnom kontrolom da koriste njihov chatbot Claude, a u veljači je identificirao tri kineska AI laboratorija, DeepSeek, Moonshot i MiniMax, kao subjekte koji neovlašteno izvlače sposobnosti modela putem distilacije.

Anthropic je ove godine upozorio da prijetnja nadilazi pojedinačne tvrtke ili regije te predstavlja sigurnosni rizik jer takvi modeli često nemaju ugrađene sigurnosne mehanizme. Google je također objavio da je zabilježio porast pokušaja izvlačenja modela. Ipak, američke AI tvrtke još nisu pružile konkretne dokaze koliko kineske inovacije ovise o distilaciji, ali ističu da se učestalost takvih pokušaja može procijeniti prema velikim količinama zahtjeva za podacima.

Lider digital
čitajte lider u digitalnom izdanju