Koalicja gigantów technologicznych, byłych urzędników wojskowych i grup zajmujących się wolnościami obywatelskimi wspiera Anthropic w batalii prawnej przeciwko Departamentowi Obrony USA (DoD) w związku z uznaniem firmy za „ryzyko w łańcuchu dostaw”. Spór koncentruje się wokół odmowy firmy Anthropic zapewnienia nieograniczonego dostępu do chatbota AI Claude, co rodzi krytyczne pytania dotyczące nadmiernych działań rządu, bezpieczeństwa narodowego i przyszłości rozwoju sztucznej inteligencji.
Debata: Dostęp a kontrola
Konflikt rozpoczął się, gdy Departament Obrony zażądał pełnego dostępu do Claude’a, dając firmie Anthropic tylko 48 godzin na dostosowanie się, pod groźbą sankcji. Dyrektor generalny Anthropic, Dario Amodei, odmówił, wyznaczając dwie wyraźne granice: zakaz stosowania sztucznej inteligencji do masowego nadzoru krajowego i brak integracji z w pełni autonomicznymi systemami uzbrojenia. Stanowisko to skłoniło Ministerstwo Obrony do uznania Anthropic za ryzyko w łańcuchu dostaw, skutecznie wykluczając firmę z lukratywnych kontraktów rządowych.
Definicja ta pozwala rządowi pozbawić firmę Anthropic kontraktów, wykluczyć jej produkty i zakazać wykonawcom korzystania z jej technologii. Posunięcie to jest szczególnie istotne, biorąc pod uwagę niedawną rolę Anthropic jako jedynego dostawcy sztucznej inteligencji zatwierdzonego do użytku w tajnych sieciach wojskowych, w tym do analiz wywiadowczych dla Departamentu Obrony i rozmieszczania w krajowych laboratoriach nuklearnych.
Szerokie poparcie dla stanowiska Anthropic
Microsoft złożył skargę prawną, twierdząc, że działania Departamentu Obrony są niejasne, bezprecedensowe i destrukcyjne ekonomicznie. W skardze ostrzega się przed „poważnymi konsekwencjami gospodarczymi”, które nie leżą w interesie publicznym, i wzywa do tymczasowego zniesienia tej funkcji.
Odrębna wspólna skarga, poparta przez byłych urzędników wywiadu, takich jak Michael Hayden (były dyrektor CIA), oskarża Sekretarza Stanu USA Petera Hegsetha o nadużycie władzy rządowej „w zemście”. Grupa argumentuje, że pogoń Anthropic stwarza „nagłą niepewność”, która może zakłócić operacje wojskowe, w tym trwające konflikty, takie jak wojna w Iranie.
Dodatkowe wsparcie pochodzi od 37 inżynierów AI, którzy wcześniej pracowali w OpenAI i DeepMind firmy Google, którzy nazywają działania ML „niewłaściwym i arbitralnym użyciem władzy”. Ostrzegają, że takie działania stłumią innowacje i zaszkodzą konkurencyjności USA w dziedzinie sztucznej inteligencji. Fundacja Electronic Frontier i Instytut Cato złożyły wspólną skargę, twierdząc, że działania rządu naruszają Pierwszą Poprawkę.
Kluczowe obawy
Konflikt ten nie ogranicza się do jednej firmy; odzwierciedla szerszą debatę na temat granic kontroli rządu nad nowymi technologiami. Sprawa budzi obawy, że przyznanie rządowi nieograniczonego dostępu do sztucznej inteligencji może prowadzić do niekontrolowanej inwigilacji, zautomatyzowanych wojen i erozji swobód obywatelskich.
Jak stwierdzono w jednej ze skarg, „jeśli dopuści się do tego, próba ukarania jednej z wiodących amerykańskich firm zajmujących się sztuczną inteligencją będzie niewątpliwie miała konsekwencje dla konkurencyjności amerykańskiego przemysłu i nauki w dziedzinie sztucznej inteligencji i nie tylko”.
Przyszłość relacji między sztuczną inteligencją a rządem
Pomimo skargi prawnej Ministerstwo Obrony ogłosiło sześciomiesięczne wycofywanie użycia Claude w operacjach wojskowych. Dyrektor generalny Anthropic powiedział, że firma pozostaje otwarta na współpracę z rządem w sprawie kontraktów zgodnych z jej zasadami.
Wynik tej batalii prawnej stanie się precedensem dla wprowadzenia przez rząd Stanów Zjednoczonych regulacji dotyczących sztucznej inteligencji i tego, czy będzie on priorytetowo traktować nadzór nad innowacjami i względami etycznymi. Szersze implikacje są jasne: Jeśli rząd będzie mógł narzucać politykę prywatnym firmom zajmującym się sztuczną inteligencją, będzie w stanie skutecznie kontrolować to, co robią i mówią Amerykanie.































