V Silicon Valley se odehrává nevídaný strategický obrat. Společnosti, které si jinak nedarují ani řádku kódu – OpenAI, Anthropic a Google – zformovaly alianci. Jejím cílem není nic menšího než ochrana amerického technologického náskoku před čínskou konkurencí. Nepřítelem číslo jedna je přitom sofistikovaná metoda adversarial distillation zaměřená na „vysávání“ inteligence z nejmodernějších modelů, která umožňuje konkurenci drasticky zkrátit vývoj a srazit náklady na zlomek původní ceny.
Technologická špionáž v éře LLM
V kontextu umělé inteligence je adversarial distillation běžně používaný a legitimní proces. Funguje na principu „učitel–žák“: robustní a výpočetně drahý model (učitel) generuje data, na kterých se trénuje menší, efektivnější model (žák). Výsledkem je AI, která dosahuje podobných výsledků, ale běží na mnohem slabším hardwaru a s nižší latencí.
Problém nastává v momentě, kdy se tato technika stane nástrojem průmyslové špionáže. Čínské subjekty jsou obviňovány z toho, že využívají API přístupy k americkým modelům nikoliv k běžné práci, ale k masivnímu sběru dat pro trénování vlastních systémů. Tímto způsobem dokážou efektivně „naklonovat“ logiku a schopnosti modelů jako GPT-4, aniž by musely investovat stovky miliard dolarů do výzkumu a masivních datových center.
Kauza DeepSeek jako budíček pro Washington
Bod zlomu nastal v lednu 2025 s nástupem čínského modelu DeepSeek. Tento systém šokoval svět svou efektivitou a nízkými náklady na trénink. Radost z technologického pokroku však rychle vystřídalo podezření. Microsoft a OpenAI zahájily interní vyšetřování, zda DeepSeek nelegitimně nevyužil jejich data k posílení vlastních algoritmů.
V únoru již zástupci OpenAI oficiálně varovali americký Kongres: Čína používá pokročilou destilaci k obcházení bezpečnostních protokolů. To představuje nejen ekonomickou hrozbu, ale i riziko pro národní bezpečnost. Modely vzniklé touto „neautorizovanou zkratkou“ totiž postrádají tzv. safety guardrails – etické a bezpečnostní pojistky, které americké firmy pracně implementují, aby zabránily zneužití AI například k tvorbě kybernetických zbraní nebo nebezpečných biologických látek.
Frontier Model Forum
Hlavním komunikačním uzlem této obranné aliance se stala nezisková organizace Frontier Model Forum, kterou tito giganti (včetně Microsoftu) založili již v roce 2023. Nyní však její role nabývá na intenzitě. Firmy zde sdílejí citlivá data o útocích a vzorcích chování, které naznačují pokusy o neautorizované kopírování.
Tento postup silně připomíná standardní protokoly v kybernetické bezpečnosti, kde si i největší rivalové vyměňují informace o zero-day zranitelnostech a hrozbách. V sázce je totiž samotný byznys model západních firem. Zatímco americké společnosti sází na uzavřené systémy s vysokou monetizací, čínští hráči často volí strategii open-weight (veřejně dostupných vah modelů), čímž podkopávají tržní ceny a lákají zákazníky na bezplatné alternativy postavené na „ukradeném“ know-how.
Americká vláda dává snahám technologických gigantů zelenou. Akční plán pro AI, iniciovaný administrativou Donalda Trumpa, přímo počítá se vznikem center pro sdílení informací mezi soukromým sektorem a státem. Přesto zůstává situace křehká. Firmy se pohybují na tenkém ledě antimonopolních zákonů a netrpělivě vyhlížejí jasnější legislativní rámec, který by jim umožnil bránit své duševní vlastnictví efektivněji, aniž by riskovaly postih za kartelové dohody.