Eine Koalition aus Technologiegiganten, ehemaligen Militärbeamten und Bürgerrechtsgruppen unterstützt Anthropic in einem Rechtsstreit gegen das US-Kriegsministerium (DOW) wegen der Einstufung des KI-Unternehmens als „Lieferkettenrisiko“. Der Streit dreht sich um die Weigerung von Anthropic, uneingeschränkten Zugang zu seinem KI-Chatbot Claude zu gewähren, was kritische Fragen über die Übergriffe der Regierung, die nationale Sicherheit und die Zukunft der KI-Entwicklung aufwirft.

Der Streit: Zugang vs. Kontrolle

Der Konflikt begann, als das DOW vollen Zugang zu Claude forderte und Anthropic nur 48 Stunden Zeit gab, dem nachzukommen oder mit Sanktionen zu rechnen. Dario Amodei, CEO von Anthropic, lehnte ab und zog zwei klare Linien: Kein Einsatz der KI für die Massenüberwachung im Inland und keine Integration in vollständig autonome Waffensysteme. Diese Haltung führte dazu, dass das DOW Anthropic als Lieferkettenrisiko einstufte und das Unternehmen effektiv von lukrativen Regierungsaufträgen ausschloss.

Die Benennung ermöglicht es der Regierung, Anthropic von der Vergabe von Aufträgen auszuschließen, seine Produkte auszuschließen und Hauptauftragnehmer daran zu hindern, seine Technologie zu nutzen. Der Schritt ist besonders bedeutsam angesichts der jüngsten Rolle von Anthropic als einziger KI-Anbieter, der für den Einsatz in geheimen militärischen Netzwerken, einschließlich Geheimdienstanalysen für das DOW und Einsatz in nationalen Nuklearlabors, zugelassen ist.

Breite Unterstützung für die Position von Anthropic

Microsoft hat eine rechtliche Stellungnahme eingereicht, in der es argumentiert, dass die Maßnahmen des DOW vage, beispiellos und wirtschaftlich schädlich seien. In der Einreichung wird vor „schwerwiegenden wirtschaftlichen Auswirkungen“ gewarnt, die nicht im öffentlichen Interesse liegen, und eine vorübergehende Aufhebung der Bezeichnung gefordert.

In einer separaten gemeinsamen Akte, die von ehemaligen Geheimdienstmitarbeitern wie Michael Hayden (ehemaliger CIA-Direktor) unterstützt wird, wird US-Verteidigungsminister Pete Hegseth beschuldigt, die Autorität der Regierung zur „Vergeltung“ missbraucht zu haben. Die Gruppe argumentiert, dass die gezielte Ausrichtung auf Anthropic „plötzliche Unsicherheit“ schaffe, die militärische Operationen stören könnte, einschließlich laufender Konflikte wie dem Krieg im Iran.

Weitere Unterstützung kommt von 37 KI-Ingenieuren, die früher bei OpenAI und Googles DeepMind gearbeitet haben und die das Vorgehen des DOW als „unsachgemäßen und willkürlichen Einsatz von Macht“ bezeichnen. Sie warnen davor, dass solche Maßnahmen Innovationen ersticken und die Wettbewerbsfähigkeit der USA im KI-Bereich beeinträchtigen würden. Die Electronic Frontier Foundation und das Cato Institute reichten einen gemeinsamen Schriftsatz ein, in dem sie erklärten, dass die Maßnahmen der Regierung gegen den Ersten Verfassungszusatz verstoßen.

Die Kernanliegen

Bei dem Konflikt geht es nicht nur um ein Unternehmen; Es spiegelt eine breitere Debatte über die Grenzen der staatlichen Kontrolle über neue Technologien wider. Der Fall gibt Anlass zur Sorge, dass die Gewährung eines uneingeschränkten Zugriffs der Regierung auf KI zu unkontrollierter Überwachung, automatisierter Kriegsführung und der Aushöhlung der bürgerlichen Freiheiten führen könnte.

In einer Akte heißt es: „Wenn diese Bemühungen zur Bestrafung eines der führenden US-amerikanischen KI-Unternehmen fortgesetzt werden, werden sie zweifellos Konsequenzen für die industrielle und wissenschaftliche Wettbewerbsfähigkeit der Vereinigten Staaten im Bereich der künstlichen Intelligenz und darüber hinaus haben.“

Die Zukunft der Beziehungen zwischen KI und Regierung

Trotz der rechtlichen Anfechtung hat das DOW einen sechsmonatigen Ausstieg Claudes aus Militäreinsätzen angekündigt. Der CEO von Anthropic hat erklärt, dass das Unternehmen weiterhin offen dafür sei, mit der Regierung an Verträgen zu arbeiten, die mit seinen Grundsätzen im Einklang stehen.

Der Ausgang dieses Rechtsstreits wird einen Präzedenzfall dafür schaffen, wie die US-Regierung KI reguliert und ob sie der Kontrolle Vorrang vor Innovation und ethischen Erwägungen einräumt. Die umfassenderen Implikationen sind klar: Wenn die Regierung in der Lage ist, die Politik privater KI-Unternehmen zu diktieren, könnte sie effektiv kontrollieren, was Amerikaner tun und sagen.