Una coalición de gigantes tecnológicos, ex oficiales militares y grupos de libertades civiles está respaldando a Anthropic en una batalla legal contra el Departamento de Guerra de EE. UU. (DOW) por su designación de la empresa de inteligencia artificial como un “riesgo para la cadena de suministro”. La disputa se centra en la negativa de Anthropic a otorgar acceso ilimitado a su chatbot de IA, Claude, lo que plantea preguntas críticas sobre la extralimitación del gobierno, la seguridad nacional y el futuro del desarrollo de la IA.
La disputa: acceso versus control
El conflicto comenzó cuando el DOW exigió acceso total a Claude, dando a Anthropic solo 48 horas para cumplir o enfrentar sanciones. El director ejecutivo de Anthropic, Dario Amodei, se negó y trazó dos líneas claras: no utilizar la IA para vigilancia doméstica masiva y no integrarla en sistemas de armas totalmente autónomos. Esta postura llevó al DOW a etiquetar a Anthropic como un riesgo para la cadena de suministro, excluyendo efectivamente a la empresa de lucrativos contratos gubernamentales.
La designación permite al gobierno excluir a Anthropic de la adjudicación de contratos, excluir sus productos e impedir que los contratistas principales utilicen su tecnología. La medida es particularmente significativa dado el reciente papel de Anthropic como el único proveedor de IA aprobado para su uso en redes militares clasificadas, incluido el análisis de inteligencia para el DOW y el despliegue en laboratorios nucleares nacionales.
Amplio apoyo a la posición de Anthropic
Microsoft ha presentado un escrito legal argumentando que las acciones del DOW son vagas, sin precedentes y económicamente perjudiciales. La presentación advierte sobre “efectos económicos graves” que no son de interés público y pide un levantamiento temporal de la designación.
Una presentación conjunta separada, respaldada por ex funcionarios de inteligencia como Michael Hayden (ex director de la CIA), acusa al Secretario de Defensa de Estados Unidos, Pete Hegseth, de abusar de la autoridad gubernamental para “represalias”. El grupo sostiene que atacar a Anthropic crea una “incertidumbre repentina” que podría interrumpir las operaciones militares, incluidos conflictos en curso como la guerra en Irán.
El apoyo adicional proviene de 37 ingenieros de inteligencia artificial que anteriormente trabajaron en OpenAI y DeepMind de Google, quienes califican las acciones del DOW como un “uso inadecuado y arbitrario del poder”. Advierten que tales acciones sofocarán la innovación y dañarán la competitividad de Estados Unidos en el campo de la IA. La Electronic Frontier Foundation y el Cato Institute presentaron un escrito conjunto afirmando que las acciones del gobierno violan la Primera Enmienda.
Las preocupaciones centrales
El conflicto no se trata sólo de una empresa; refleja un debate más amplio sobre los límites del control gubernamental sobre las tecnologías emergentes. El caso genera preocupación de que permitir el acceso irrestricto del gobierno a la IA podría conducir a una vigilancia desenfrenada, una guerra automatizada y la erosión de las libertades civiles.
Como decía una presentación: “Si se permite que proceda, este esfuerzo por castigar a una de las principales empresas estadounidenses de inteligencia artificial tendrá sin duda consecuencias para la competitividad industrial y científica de Estados Unidos en el campo de la inteligencia artificial y más allá”.
El futuro de las relaciones entre la IA y el gobierno
A pesar del desafío legal, el DOW ha anunciado una retirada gradual de Claude de las operaciones militares durante seis meses. El director ejecutivo de Anthropic ha declarado que la empresa sigue abierta a trabajar con el gobierno en contratos que se alineen con sus principios.
El resultado de esta batalla legal sentará un precedente sobre cómo el gobierno de Estados Unidos regula la IA y si prioriza el control sobre la innovación y las consideraciones éticas. Las implicaciones más amplias son claras: si el gobierno es capaz de dictar las políticas de las empresas privadas de IA, podría controlar efectivamente lo que los estadounidenses hacen y dicen.
































