Une coalition de géants de la technologie, d’anciens responsables militaires et de groupes de défense des libertés civiles soutient Anthropic dans une bataille juridique contre le Département américain de la Guerre (DOW) à propos de sa désignation de la société d’IA comme « risque pour la chaîne d’approvisionnement ». Le différend porte sur le refus d’Anthropic d’accorder un accès illimité à son chatbot d’IA, Claude, soulevant des questions cruciales sur la portée excessive du gouvernement, la sécurité nationale et l’avenir du développement de l’IA.
Le différend : accès contre contrôle
Le conflit a commencé lorsque le DOW a exigé un accès total à Claude, donnant à Anthropic seulement 48 heures pour s’y conformer sous peine de sanctions. Le PDG d’Anthropic, Dario Amodei, a refusé, traçant deux lignes claires : pas d’utilisation de l’IA pour la surveillance nationale de masse et pas d’intégration dans des systèmes d’armes entièrement autonomes. Cette position a conduit le DOW à qualifier Anthropic de risque pour la chaîne d’approvisionnement, excluant ainsi l’entreprise des contrats gouvernementaux lucratifs.
Cette désignation permet au gouvernement d’interdire à Anthropic l’attribution de contrats, d’exclure ses produits et d’empêcher les maîtres d’œuvre d’utiliser sa technologie. Cette décision est particulièrement importante étant donné le rôle récent d’Anthropic en tant que seul fournisseur d’IA approuvé pour une utilisation dans des réseaux militaires classifiés, y compris l’analyse du renseignement pour le DOW et le déploiement dans les laboratoires nucléaires nationaux.
Large soutien à la position d’Anthropic
Microsoft a déposé une plainte juridique affirmant que les actions du DOW sont vagues, sans précédent et économiquement préjudiciables. Le dossier met en garde contre des « effets économiques graves » qui ne sont pas dans l’intérêt public, appelant à une levée temporaire de la désignation.
Un dossier conjoint distinct, soutenu par d’anciens responsables du renseignement comme Michael Hayden (ancien directeur de la CIA), accuse le secrétaire américain à la Défense Pete Hegseth d’avoir abusé de l’autorité gouvernementale à des fins de « représailles ». Le groupe affirme que cibler Anthropic crée une « incertitude soudaine » qui pourrait perturber les opérations militaires, y compris les conflits en cours comme la guerre en Iran.
Un soutien supplémentaire vient de 37 ingénieurs en IA, anciens d’OpenAI et de DeepMind de Google, qui qualifient les actions du DOW d’« utilisation inappropriée et arbitraire du pouvoir ». Ils préviennent que de telles actions étoufferont l’innovation et nuiront à la compétitivité des États-Unis dans le domaine de l’IA. L’Electronic Frontier Foundation et le Cato Institute ont déposé un mémoire conjoint affirmant que les actions du gouvernement violaient le premier amendement.
Les principales préoccupations
Le conflit ne concerne pas seulement une entreprise ; cela reflète un débat plus large sur les limites du contrôle gouvernemental sur les technologies émergentes. L’affaire soulève des inquiétudes quant au fait qu’autoriser un accès illimité du gouvernement à l’IA pourrait conduire à une surveillance incontrôlée, à une guerre automatisée et à l’érosion des libertés civiles.
Comme le dit un document : « S’il est autorisé à se poursuivre, cet effort visant à punir l’une des principales sociétés américaines d’IA aura sans aucun doute des conséquences sur la compétitivité industrielle et scientifique des États-Unis dans le domaine de l’intelligence artificielle et au-delà. »
L’avenir des relations IA-gouvernement
Malgré la contestation judiciaire, le DOW a annoncé le retrait progressif de Claude des opérations militaires pendant six mois. Le PDG d’Anthropic a déclaré que l’entreprise restait ouverte à travailler avec le gouvernement sur des contrats conformes à ses principes.
L’issue de cette bataille juridique créera un précédent quant à la manière dont le gouvernement américain réglemente l’IA et déterminera s’il donne la priorité au contrôle de l’innovation et aux considérations éthiques. Les implications plus larges sont claires : si le gouvernement est capable de dicter les politiques des entreprises privées d’IA, il pourrait contrôler efficacement ce que font et disent les Américains.
































