Novinky

Pentagon označil Anthropic za bezpečnostní riziko po odmítnutí smluvních podmínek – jednání však pokračují

Pentagon označil Anthropic za bezpečnostní riziko po odmítnutí smluvních podmínek – jednání však pokračují

Novinky Date: Zobrazení: 15

Pentagon označil Anthropic za bezpečnostní riziko po odmítnutí smluvních podmínek – jednání však pokračují

Americké ministerstvo obrany označilo společnost Anthropic za „riziko dodavatelského řetězce pro národní bezpečnost“ poté, co firma odmítla odstranit ochranné mechanismy ze svého AI modelu Claude. Jde o bezprecedentní krok vůči americké společnosti, který vyvolal širokou kritiku v tech průmyslu. K dnešnímu dni však jednání mezi oběma stranami pokračují a investoři i průmyslové skupiny tlačí na deeskalaci.

Dne 27. února 2026 eskaloval dlouhotrvající spor mezi Pentagonem a společností Anthropic, výrobcem AI modelu Claude. Ministr obrany Pete Hegseth oficiálně označil Anthropic za „riziko dodavatelského řetězce pro národní bezpečnost“ poté, co společnost odmítla přijmout podmínky, které by Pentagonu umožnily neomezené využití jejích AI technologií.

Konflikt se zaostřil kolem dvou zásadních požadavků Anthropic. Společnost trvala na explicitních smluvních omezeních, která by Pentagonu zabránila využívat model Claude pro masové domácí sledování amerických občanů a pro plně autonomní zbraňové systémy. Pentagon naopak požadoval možnost používat technologii pro „všechny zákonné účely“ bez těchto explicitních omezení.

Image

Prezident Donald Trump nařídil všem federálním agenturám „okamžitě ukončit“ používání technologií Anthropic a stanovil šestiměsíční lhůtu pro přechod na alternativní řešení. Ministr Hegseth pak oznámil, že „žádný dodavatel, partner nebo kontraktor, který obchoduje s americkou armádou, nesmí provádět jakoukoliv komerční činnost s Anthropic“.

Generální ředitel Anthropic Dario Amodei označil požadavky společnosti za „úzká omezení“ a zdůraznil, že firma stále doufá v dosažení dohody s Pentagonem. „Neustoupíme od těchto červených linií,“ uvedl Amodei pro CBS News. „Ale v zájmu národní bezpečnosti USA chceme, aby to fungovalo.“ K 5. březnu 2026 Amodei potvrdil, že firma pokračuje v jednáních s cílem „deeskalovat situaci a najít dohodu, která bude fungovat pro obě strany“.

Anthropic ve svém prohlášení uvedlo, že označení za riziko dodavatelského řetězce je „právně nesprávné a vytváří nebezpečný precedens“. Společnost argumentuje, že toto označení bylo historicky vyhrazeno pro protivníky USA a nikdy předtím nebylo veřejně aplikováno na americkou firmu. Anthropic oznámil, že rozhodnutí napadne u soudu, přičemž mnoho právních expertů považuje označení za „dubiózní“ a ideologicky motivované, nikoli za skutečné bezpečnostní riziko.

Situaci komplikuje fakt, že Claude byl jediným AI modelem používaným v klasifikovaných systémech armády. Podle informací Axios byl model využit například při operaci k zadržení Nicoláse Madura. Bezpečnostní představitelé přiznali, že odstranění Claude ze systémů „bude obrovský problém“.

Bezprostředně po oznámení Pentagonu společnost OpenAI oznámila, že uzavřela dohodu s ministerstvem obrany na poskytování svých AI modelů pro klasifikované systémy. Generální ředitel OpenAI Sam Altman uvedl, že jejich dohoda obsahuje stejná dvě omezení, na kterých Anthropic trval. Není však jasné, jak přesně jsou tato omezení formulována – OpenAI souhlasil s možností využití pro „jakýkoliv zákonný účel“, ale zároveň tvrdí, že „omezení jsme zahrnuli do naší dohody“.

Právní experti vyjadřují pochybnosti o zákonnosti rozhodnutí Pentagonu. Podle zákona musí být před označením za riziko dodavatelského řetězce vyčerpány všechny méně invazivní alternativy. Vzhledem k rychlé eskalaci sporu je podle expertů otázkou, zda Pentagon mohl v dobré víře tvrdit, že vyčerpal všechny alternativy.

Anthropic ve svém stanovisku zdůraznil, že odmítl pouze dva úzce vymezené případy užití. „Podporujeme všechna zákonná použití AI pro národní bezpečnost kromě těchto dvou úzkých výjimek,“ uvedla společnost. „Podle našich nejlepších informací tyto výjimky dosud neovlivnily ani jednu vládní misi.“

Společnost dále vysvětlila své obavy ohledně plně autonomních zbraní: „Nevěříme, že dnešní pokročilé AI modely jsou dostatečně spolehlivé na to, aby byly použity v plně autonomních zbraních. Bez řádného dohledu se na ně nelze spolehnout, že projeví kritický úsudek, který naši vysoce vyškolení profesionální vojáci projevují každý den.“

Ohledně masového domácího sledování Anthropic argumentoval, že „použití těchto systémů pro masové domácí sledování je neslučitelné s demokratickými hodnotami. AI-poháněné masové sledování představuje vážná, nová rizika pro naše základní svobody.“

K 5. březnu 2026 se situace vyvíjí: Jednání mezi Anthropic a Pentagonem pokračují (potvrzeno FT a Reuters), investoři (včetně Amazon a Nvidia) a průmyslová sdružení (jako Information Technology Industry Council) vyjádřili obavy z označení a tlačí na deeskalaci. Označení zatím nebylo formálně implementováno a mnoho expertů pochybuje o jeho právní udržitelnosti. Incident paradoxně zvýšil popularitu Claude – aplikace se stala číslem 1 v downloadu v USA.

Incident vyvolává zásadní otázky o vztahu mezi technologickými společnostmi a vládou USA, zejména v kontextu rychlého rozvoje AI technologií. Jde o první případ, kdy USA označily americkou společnost za riziko dodavatelského řetězce, a první případ, kdy bylo toto označení zjevně použito jako odveta za to, že firma nesouhlasila s určitými smluvními podmínkami.

Pro organizace zabývající se AI a národní bezpečností incident zdůrazňuje rostoucí napětí mezi etickými aspekty vývoje AI a požadavky na její vojenské využití. Zatímco Pentagon argumentuje existencí interních politik a zákonů, které brání zneužití, technologické společnosti požadují explicitní smluvní záruky.

Další články