Úvod
Umělá inteligence (AI) v posledních letech zásadně proměňuje nejen byznys, ale i fungování státní správy po celém světě. Spojené státy americké byly dlouho považovány za lídra ve vývoji i implementaci AI technologií. Nedávné rozhodnutí Donalda Trumpa, který v rámci své předvolební kampaně a politických aktivit oznámil, že nařídil federálním úřadům okamžitě ukončit využívání AI produktů od firmy Anthropic, však vyvolalo výrazné reakce mezi odborníky, technologickou komunitou i veřejností. Tento krok přichází v době, kdy roste debata o bezpečnosti, transparentnosti a geopolitických dopadech umělé inteligence. V následujícím článku se podrobně podíváme na okolnosti tohoto rozhodnutí, roli firmy Anthropic v AI ekosystému, jeho možný dopad na státní správu USA i širší technologický sektor, a nabídneme srovnání s konkurenčními řešeními.
Proč Trump zakázal AI od firmy Anthropic?
Donald Trump, bývalý prezident a významná postava americké politické scény, svůj krok vysvětlil obavami o národní bezpečnost a důvěryhodnost dodavatelů AI technologií. Trump ve svém prohlášení uvedl, že „federální úřady nesmí používat AI systémy od společností, které nejsou absolutně transparentní ohledně svých algoritmů, způsobu školení a financování“. Jako hlavní důvod označil možné riziko, že citlivá data úřadů by mohla být vystavena nechtěnému zpracování nebo neoprávněnému přístupu.
Anthropic je relativně mladá, ale dynamicky rostoucí AI společnost, založená v roce 2021 bývalými zaměstnanci OpenAI. Je známá vývojem jazykových modelů Claude a Claude 2, které patří mezi nejvýkonnější konkurenty modelů, jako je GPT-4 od OpenAI nebo Gemini od Google. Firma získala v roce 2023 investici přes 4 miliardy dolarů, včetně velkého podílu od Amazonu a Google.
Trumpův krok zároveň reflektuje rostoucí tlak ze strany republikánských politiků na posílení kontroly nad technologiemi, které mohou mít dopad na národní bezpečnost. Obavy se týkají nejen možného úniku dat, ale také vlivu zahraničních investic a možného využití AI k šíření dezinformací.
Jak Anthropic změnil trh s AI
Anthropic během krátké doby zamíchal kartami na trhu s umělou inteligencí. Firma staví na tzv. „AI alignmentu“ – tedy snaze o to, aby se chování AI systémů shodovalo s lidskými hodnotami a etikou. Jejich hlavní produkt, jazykový model Claude, je navržen tak, aby byl bezpečnější a méně náchylný k produkci škodlivých výstupů než konkurenční modely.
V roce 2023 dokázala firma Anthropic získat přes 4 miliardy dolarů v investicích. Podle dat agentury CB Insights zvýšila firma svůj podíl na trhu velkých jazykových modelů v USA z 5 % v roce 2022 na 15 % v roce 2024. Mezi její zákazníky patří nejen technologické firmy, ale také federální agentury a nevládní organizace.
Konkrétní příklady využití technologií Anthropic ve státní správě zahrnují automatizaci zpracování žádostí, asistenci s vyhledáváním v legislativních databázích nebo tvorbu přehledů ze složitých dokumentů. Americký Úřad pro patenty a ochranné známky testoval v roce 2023 využití Claude 2 při předběžné kontrole patentových žádostí, což urychlilo proces o 25 %.
Bezpečnostní a etické otázky kolem AI dodavatelů
Rozhodnutí Trumpa je třeba chápat v širším kontextu rostoucích obav o bezpečnost dat a transparentnost AI systémů. V posledních třech letech došlo k několika incidentům, kdy AI systémy nechtěně zpracovávaly nebo dokonce vyzrazovaly citlivé informace.
Například v roce 2022 unikla data více než 1,2 milionu zdravotních záznamů v důsledku chybné integrace AI nástroje od menšího start-upu. Podle zprávy agentury Gartner z roku 2023 je 53 % organizací z veřejného sektoru v USA znepokojeno možným zneužitím AI k manipulaci s veřejnými daty.
Další otázkou je transparentnost v tom, jak jsou jazykové modely trénovány. Anthropic, podobně jako OpenAI, dlouhodobě neodhaluje kompletní trénovací datasety. To vyvolává obavy nejen o autorská práva, ale i o potenciální manipulaci výsledků. Trump ve svém vyjádření opakovaně požadoval, aby AI dodavatelé poskytli „plný audit algoritmů a trénovacích dat“.
Srovnání AI dodavatelů ve státní správě USA
Přehled hlavních AI dodavatelů pro americkou státní správu a jejich klíčové charakteristiky:
| Firma | Hlavní produkt | Podíl na trhu (2024) | Transparentnost dat | Známý bezpečnostní incident |
|---|---|---|---|---|
| Anthropic | Claude 2 | 15 % | Střední | Ne |
| OpenAI | ChatGPT/GPT-4 | 45 % | Střední | Ano (2023, únik promptů) |
| Gemini | 20 % | Vysoká | Ne | |
| Microsoft | Azure AI | 12 % | Vysoká | Ne |
| IBM | Watson | 5 % | Vysoká | Ne |
Tabulka ukazuje, že Anthropic patří mezi významné hráče, avšak v otázce transparentnosti dat je stále řazena mezi střední úroveň. Oproti tomu Google a Microsoft mají dlouhodobé zkušenosti s veřejnými audity a vyšší úroveň transparentnosti.
Dopady rozhodnutí na státní správu a AI ekosystém
Okamžité ukončení využívání AI produktů od Anthropic ve federálních úřadech znamená nutnost rychlého přechodu na alternativní řešení. Tento krok může vyvolat dočasné zpomalení digitalizačních projektů, zejména v úřadech, které byly závislé na službách Claude 2.
Podle odhadů amerického Úřadu pro správu a rozpočet by migrace AI systémů mohla stát federální správu až 300 milionů dolarů během následujících dvou let. Vyžaduje to nejen nákup nových licencí, ale i školení zaměstnanců a úpravy pracovních procesů.
Dalším významným dopadem je posílení pozice OpenAI, Google a Microsoftu na trhu federálních zakázek. Podle dat agentury Statista se očekává, že OpenAI navýší svůj podíl na federálním trhu AI aplikací z 45 % na 55 % už v roce 2025.
Z dlouhodobého pohledu může mít zákaz také negativní vliv na inovace. Anthropic byl považován za průkopníka v otázkách etiky AI a jeho absence ve státním sektoru může omezit tlak na zvyšování standardů bezpečnosti a transparentnosti napříč celým odvětvím.
Politické a globální souvislosti zákazu
Trumpovo rozhodnutí má významný politický rozměr. Přichází v době, kdy se téma AI stává jedním z hlavních bodů předvolebních programů v USA. Demokraté i republikáni akcentují otázky regulace, bezpečnosti a ochrany dat, ovšem liší se v metodách a prioritách.
Krok proti Anthropicu může být vnímán jako snaha vymezit se nejen proti konkrétní firmě, ale i proti obecnějšímu trendu „AI bez hranic“, který prosazují některé technologické společnosti. Je také odpovědí na tlak některých bezpečnostních složek, které požadují větší kontrolu nad tím, kdo a jaké AI nástroje může poskytovat veřejnému sektoru.
Globálně tento krok zvyšuje napětí mezi USA a dalšími technologicky vyspělými státy. Evropští regulátoři například v roce 2023 zpřísnili pravidla pro AI v rámci tzv. AI Act. Čína mezitím masivně investuje do vlastního AI průmyslu, přičemž odhaduje se, že do roku 2025 dosáhnou tamní investice do AI přes 40 miliard dolarů.
Závěr
Rozhodnutí Donalda Trumpa ukončit využívání AI od firmy Anthropic ve federálních úřadech USA představuje významný mezník v přístupu k regulaci a bezpečnosti umělé inteligence ve veřejném sektoru. Zatímco podstatná část odborníků upozorňuje na rizika spojená s netransparentností AI modelů, zákaz jednoho z klíčových hráčů může naopak oslabit konkurenci a zpomalit inovace. Přechod na alternativní řešení bude finančně i organizačně náročný, ale zároveň může posílit tlak na vyšší bezpečnostní standardy a transparentnost. Celou situaci je třeba vnímat v širším kontextu globálních technologických i politických změn, které budou ovlivňovat vývoj AI v příštích letech.