Koalice technologických gigantů, bývalých vojenských úředníků a skupin pro občanské svobody podporuje společnost Antropic v právní bitvě proti americkému ministerstvu obrany (DoD) kvůli označení společnosti jako „rizika dodavatelského řetězce“. Spor se točí kolem odmítnutí Anthropic poskytnout neomezený přístup svému chatbotovi Claude s umělou inteligencí, což vyvolává kritické otázky týkající se přesahu vlády, národní bezpečnosti a budoucnosti vývoje umělé inteligence.

Debata: Přístup versus kontrola

Konflikt začal, když ministerstvo obrany požadovalo úplný přístup ke Claudovi, což dalo Anthropici pouze 48 hodin na to, aby vyhovělo, jinak čelilo sankcím. Generální ředitel společnosti Anthropic Dario Amodei odmítl a stanovil dvě jasné hranice: žádné použití umělé inteligence pro hromadné domácí sledování a žádná integrace do plně autonomních zbraňových systémů. Tato pozice vedla MO k tomu, aby označilo Antropic za riziko dodavatelského řetězce, čímž společnost fakticky vyloučila z lukrativních vládních zakázek.

Tato definice umožňuje vládě zbavit společnost Anthropic kontraktů, vyloučit její produkty a zakázat dodavatelům používat její technologii. Tento krok je obzvláště významný vzhledem k nedávné roli Anthropicu jako jediného poskytovatele umělé inteligence schváleného pro použití v tajných vojenských sítích, včetně zpravodajské analýzy pro ministerstvo obrany a nasazení v národních jaderných laboratořích.

Široká podpora pro pozici Antropic

Microsoft podal právní stížnost, v níž tvrdí, že akce ministerstva obrany jsou vágní, bezprecedentní a ekonomicky destruktivní. Stížnost varuje před „vážnými ekonomickými důsledky“, které nejsou ve veřejném zájmu, a vyzývá k dočasnému vyprázdnění označení.

Samostatná společná stížnost, podporovaná bývalými zpravodajskými úředníky, jako je Michael Hayden (bývalý ředitel CIA), obviňuje amerického ministra zahraničí Petera Hegsetha ze zneužití vládní moci „ze pomsty“. Skupina tvrdí, že pronásledování Anthropic vytváří „náhlou nejistotu“, která by mohla narušit vojenské operace, včetně probíhajících konfliktů, jako je válka v Íránu.

Další podpora pochází od 37 inženýrů umělé inteligence dříve z OpenAI a DeepMind společnosti Google, kteří označují akce ML za „nevhodné a svévolné použití síly“. Varují, že takové akce potlačí inovace a poškodí konkurenceschopnost USA v oblasti umělé inteligence. Electronic Frontier Foundation a Cato Institute podaly společnou stížnost, že vládní kroky porušují první dodatek.

Klíčové obavy

Tento konflikt není omezen pouze na jednu společnost; odráží širší debatu o limitech vládní kontroly nad novými technologiemi. Případ vyvolává obavy, že poskytnutí neomezeného přístupu vládě k AI by mohlo vést k nekontrolovanému sledování, automatizovanému válčení a narušení občanských svobod.

Jak se uvádí v jedné stížnosti, „pokud k tomu dojde, pokus potrestat jednu z předních amerických společností s umělou inteligencí bude mít nepochybně důsledky pro průmyslovou a vědeckou konkurenceschopnost USA v oblasti umělé inteligence i mimo ni.

Budoucnost vztahu mezi AI a vládou

Navzdory právní výzvě ministerstvo obrany oznámilo šestiměsíční postupné ukončení používání Claude ve vojenských operacích. Generální ředitel společnosti Anthropic uvedl, že společnost zůstává otevřená spolupráci s vládou na smlouvách v souladu s jejími principy.

Výsledek této právní bitvy vytvoří precedens pro regulaci AI americkou vládou a pro to, zda bude upřednostňovat dohled před inovacemi a etickými ohledy. Širší důsledky jsou jasné: Pokud bude vláda moci diktovat politiku soukromým společnostem s umělou inteligencí, bude schopna efektivně kontrolovat, co Američané dělají a říkají.