Una coalizione di giganti della tecnologia, ex ufficiali militari e gruppi per le libertà civili stanno sostenendo Anthropic in una battaglia legale contro il Dipartimento di Guerra degli Stati Uniti (DOW) per aver designato la società di intelligenza artificiale come un “rischio nella catena di fornitura”. La controversia è incentrata sul rifiuto di Anthropic di garantire l’accesso illimitato al suo chatbot basato sull’intelligenza artificiale, Claude, sollevando domande cruciali sull’azione del governo, sulla sicurezza nazionale e sul futuro dello sviluppo dell’intelligenza artificiale.
La disputa: accesso vs controllo
Il conflitto iniziò quando l’EDI richiese pieno accesso a Claude, concedendo ad Anthropic solo 48 ore per conformarsi o affrontare sanzioni. L’amministratore delegato di Anthropic, Dario Amodei, ha rifiutato, tracciando due linee nette: nessun uso dell’intelligenza artificiale per la sorveglianza domestica di massa e nessuna integrazione in sistemi d’arma completamente autonomi. Questa posizione ha portato l’EDI a etichettare Anthropic come un rischio per la catena di approvvigionamento, escludendo di fatto l’azienda da lucrosi contratti governativi.
La designazione consente al governo di escludere Anthropic dall’aggiudicazione di contratti, di escludere i suoi prodotti e di impedire agli appaltatori principali di utilizzare la sua tecnologia. La mossa è particolarmente significativa dato il recente ruolo di Anthropic come unico fornitore di intelligenza artificiale approvato per l’uso in reti militari classificate, compresa l’analisi di intelligence per il DOW e l’impiego nei laboratori nucleari nazionali.
Ampio sostegno alla posizione antropica
Microsoft ha depositato una memoria legale sostenendo che le azioni dell’EDI sono vaghe, senza precedenti ed economicamente dannose. Il documento mette in guardia contro “gravi effetti economici” che non sono nell’interesse pubblico, chiedendo una revoca temporanea della designazione.
Un documento congiunto separato, sostenuto da ex funzionari dell’intelligence come Michael Hayden (ex direttore della CIA), accusa il segretario alla Difesa americano Pete Hegseth di aver abusato dell’autorità governativa a scopo di “ritorsione”. Il gruppo sostiene che prendere di mira Anthropic crea “un’improvvisa incertezza” che potrebbe interrompere le operazioni militari, compresi i conflitti in corso come la guerra in Iran.
Ulteriore supporto arriva da 37 ingegneri di intelligenza artificiale ex OpenAI e DeepMind di Google, che definiscono le azioni del DOW un “uso improprio e arbitrario del potere”. Avvertono che tali azioni soffocheranno l’innovazione e danneggeranno la competitività degli Stati Uniti nel campo dell’intelligenza artificiale. La Electronic Frontier Foundation e il Cato Institute hanno presentato una memoria congiunta affermando che le azioni del governo violano il Primo Emendamento.
Le preoccupazioni principali
Il conflitto non riguarda solo un’azienda; riflette un dibattito più ampio sui limiti del controllo governativo sulle tecnologie emergenti. Il caso solleva preoccupazioni sul fatto che consentire al governo un accesso illimitato all’intelligenza artificiale potrebbe portare a una sorveglianza incontrollata, a una guerra automatizzata e all’erosione delle libertà civili.
Come si legge in un documento: “Se consentito, questo tentativo di punire una delle principali società statunitensi di intelligenza artificiale avrà senza dubbio conseguenze per la competitività industriale e scientifica degli Stati Uniti nel campo dell’intelligenza artificiale e oltre”.
Il futuro delle relazioni tra intelligenza artificiale e governo
Nonostante la sfida legale, l’EDI ha annunciato l’eliminazione graduale di Claude dalle operazioni militari per sei mesi. L’amministratore delegato di Anthropic ha dichiarato che l’azienda rimane disposta a collaborare con il governo su contratti in linea con i suoi principi.
L’esito di questa battaglia legale costituirà un precedente sul modo in cui il governo degli Stati Uniti regola l’intelligenza artificiale e se darà priorità al controllo sull’innovazione e alle considerazioni etiche. Le implicazioni più ampie sono chiare: se il governo fosse in grado di dettare le politiche delle società private di intelligenza artificiale, potrebbe controllare efficacemente ciò che fanno e dicono gli americani.
































