Uma coalizão de gigantes da tecnologia, ex-oficiais militares e grupos de liberdades civis está apoiando a Anthropic em uma batalha legal contra o Departamento de Guerra dos EUA (DOW) sobre a designação da empresa de IA como um “risco da cadeia de suprimentos”. A disputa centra-se na recusa da Anthropic em conceder acesso irrestrito ao seu chatbot de IA, Claude, levantando questões críticas sobre o excesso do governo, a segurança nacional e o futuro do desenvolvimento da IA.

A disputa: acesso versus controle

O conflito começou quando a DOW exigiu acesso total a Claude, dando à Antrópica apenas 48 horas para cumprir ou enfrentar sanções. O CEO da Anthropic, Dario Amodei, recusou, traçando duas linhas claras: nenhum uso da IA ​​para vigilância doméstica em massa e nenhuma integração em sistemas de armas totalmente autônomos. Esta postura levou o DOW a rotular a Anthropic como um risco para a cadeia de abastecimento, excluindo efectivamente a empresa de contratos governamentais lucrativos.

A designação permite ao governo impedir a Anthropic de conceder contratos, excluir seus produtos e impedir que os principais contratantes usem sua tecnologia. A mudança é particularmente significativa dado o papel recente da Anthropic como o único fornecedor de IA aprovado para uso em redes militares classificadas, incluindo análise de inteligência para o DOW e implantação em laboratórios nucleares nacionais.

Amplo apoio ao posicionamento da Antrópica

A Microsoft apresentou uma petição legal argumentando que as ações do DOW são vagas, sem precedentes e economicamente prejudiciais. O documento alerta para “graves efeitos económicos” que não são do interesse público, apelando ao levantamento temporário da designação.

Um documento conjunto separado, apoiado por antigos funcionários dos serviços secretos como Michael Hayden (ex-director da CIA), acusa o secretário da Defesa dos EUA, Pete Hegseth, de usar indevidamente a autoridade governamental para “retribuição”. O grupo argumenta que visar a Antrópica cria “incerteza repentina” que pode perturbar as operações militares, incluindo conflitos em curso como a guerra no Irão.

Apoio adicional vem de 37 engenheiros de IA que trabalharam anteriormente na OpenAI e no DeepMind do Google, que chamam as ações do DOW de “uso impróprio e arbitrário de poder”. Alertam que tais ações irão sufocar a inovação e prejudicar a competitividade dos EUA no domínio da IA. A Electronic Frontier Foundation e o Cato Institute apresentaram uma petição conjunta afirmando que as ações do governo violam a Primeira Emenda.

As principais preocupações

O conflito não envolve apenas uma empresa; reflecte um debate mais amplo sobre os limites do controlo governamental sobre as tecnologias emergentes. O caso levanta preocupações de que permitir o acesso irrestrito do governo à IA poderia levar à vigilância desenfreada, à guerra automatizada e à erosão das liberdades civis.

Como afirma um documento: “Se for permitido prosseguir, este esforço para punir uma das principais empresas de IA dos EUA terá, sem dúvida, consequências para a competitividade industrial e científica dos Estados Unidos no campo da inteligência artificial e não só”.

O futuro das relações entre IA e governo

Apesar do desafio legal, o DOW anunciou a retirada gradual de Claude das operações militares por seis meses. O CEO da Anthropic afirmou que a empresa continua aberta a trabalhar com o governo em contratos que se alinhem aos seus princípios.

O resultado desta batalha jurídica estabelecerá um precedente sobre a forma como o governo dos EUA regulamenta a IA e se dá prioridade ao controlo sobre a inovação e considerações éticas. As implicações mais amplas são claras: se o governo for capaz de ditar as políticas das empresas privadas de IA, poderá controlar eficazmente o que os americanos fazem e dizem.