Een coalitie van technologiegiganten, voormalige militaire functionarissen en groepen voor burgerlijke vrijheden steunen Anthropic in een juridische strijd tegen het Amerikaanse Ministerie van Oorlog (DOW) over de aanwijzing van het AI-bedrijf als een ‘toeleveringsketenrisico’. Het dispuut draait om de weigering van Anthropic om onbeperkte toegang te verlenen tot zijn AI-chatbot, Claude, wat kritische vragen oproept over de reikwijdte van de overheid, de nationale veiligheid en de toekomst van de AI-ontwikkeling.
Het geschil: toegang versus controle
Het conflict begon toen de DOW volledige toegang tot Claude eiste, waardoor Anthropic slechts 48 uur de tijd had om hieraan te voldoen, anders werden er sancties opgelegd. Antropische CEO Dario Amodei weigerde en trok twee duidelijke lijnen: geen gebruik van de AI voor massale binnenlandse surveillance en geen integratie in volledig autonome wapensystemen. Dit standpunt bracht de DOW ertoe om Anthropic te bestempelen als een risico voor de toeleveringsketen, waardoor het bedrijf feitelijk werd uitgesloten van lucratieve overheidscontracten.
Dankzij deze benaming kan de overheid Anthropic uitsluiten van contracttoekenning, haar producten uitsluiten en hoofdaannemers ervan weerhouden haar technologie te gebruiken. Deze stap is bijzonder belangrijk gezien de recente rol van Anthropic als de enige AI-leverancier die is goedgekeurd voor gebruik in geheime militaire netwerken, inclusief inlichtingenanalyse voor de DOW en inzet in nationale nucleaire laboratoria.
Brede steun voor het standpunt van Anthropic
Microsoft heeft een juridische brief ingediend waarin zij stelt dat de acties van de DOW vaag, ongekend en economisch schadelijk zijn. De indiening waarschuwt voor “ernstige economische gevolgen” die niet in het algemeen belang zijn en roept op tot een tijdelijke opheffing van de aanwijzing.
Een afzonderlijke gezamenlijke aanvraag, gesteund door voormalige inlichtingenfunctionarissen zoals Michael Hayden (ex-CIA-directeur), beschuldigt de Amerikaanse minister van Defensie Pete Hegseth ervan het overheidsgezag te misbruiken voor ‘vergelding’. De groep stelt dat het richten op Anthropic “plotselinge onzekerheid” creëert die militaire operaties zou kunnen verstoren, inclusief aanhoudende conflicten zoals de oorlog in Iran.
Verdere steun komt van 37 AI-ingenieurs voorheen bij OpenAI en Google’s DeepMind, die de acties van de DOW een “ongepast en willekeurig gebruik van macht” noemen. Ze waarschuwen dat dergelijke acties de innovatie zullen onderdrukken en het concurrentievermogen van de VS op het gebied van AI zullen schaden. De Electronic Frontier Foundation en het Cato Institute hebben een gezamenlijke brief ingediend waarin staat dat de acties van de regering in strijd zijn met het Eerste Amendement.
De kernproblemen
Het conflict gaat niet alleen over één bedrijf; het weerspiegelt een breder debat over de grenzen van de overheidscontrole over opkomende technologieën. De zaak geeft aanleiding tot bezorgdheid dat het toestaan van onbelemmerde toegang van de overheid tot AI zou kunnen leiden tot ongecontroleerd toezicht, geautomatiseerde oorlogsvoering en de erosie van burgerlijke vrijheden.
Zoals een dossier stelde: “Als deze poging om een van de leidende Amerikaanse AI-bedrijven te bestraffen, zal deze poging om een van de leidende Amerikaanse AI-bedrijven te straffen, ongetwijfeld gevolgen hebben voor het industriële en wetenschappelijke concurrentievermogen van de Verenigde Staten op het gebied van kunstmatige intelligentie en daarbuiten.”
De toekomst van AI-overheidsrelaties
Ondanks de juridische uitdaging heeft de DOW een zes maanden durende uitfasering van Claude uit militaire operaties aangekondigd. De CEO van Anthropic heeft verklaard dat het bedrijf open blijft staan voor samenwerking met de overheid aan contracten die aansluiten bij haar principes.
De uitkomst van deze juridische strijd zal een precedent scheppen voor de manier waarop de Amerikaanse overheid AI reguleert, en of zij prioriteit geeft aan controle over innovatie en ethische overwegingen. De bredere implicaties zijn duidelijk: Als de overheid in staat is het beleid van particuliere AI-bedrijven te dicteren, zou zij effectief kunnen controleren wat Amerikanen doen en zeggen.































