Il dibattito è iniziato quando Anthropic si è rifiutata di concedere al governo statunitense un accesso illimitato al suo chatbot di IA, Claude.
Un tribunale statunitense ha respinto la richiesta della società americana di intelligenza artificiale Anthropic di proteggerla dall'etichetta di rischio per la catena di approvvigionamento da parte del governo federale. Una definizione che non era mai stata applicata prima a un'azienda americana.
L'amministrazione Trump ha classificato la società di IA come rischio per la catena di approvvigionamento e a febbraio ha ordinato agli agenti federali di smettere di usare l'assistente di Anthropic, Claude, dopo che l'azienda si era rifiutata di concedere ai militari un accesso illimitato al suo modello.
Questa etichetta impedisce ai fornitori che lavorano con il Pentagono di utilizzare i modelli di IA dell'azienda nei contratti con il Dipartimento della Difesa.
Tra le restrizioni contestate figurano l'uso di Claude per sistemi d'arma letali autonomi senza supervisione umana e la sorveglianza di massa dei cittadini statunitensi.
Nel 2025 Anthropic ha firmato un contratto da 200 milioni di dollari (171,5 milioni di euro) con il Pentagono per integrare la propria tecnologia nei sistemi delle forze armate.
Dopo quell'accordo, il chatbot di IA era stato introdotto nelle reti di informazioni classificate del governo statunitense, installato nei laboratori nucleari nazionali e impiegato per analisi di intelligence direttamente per il Dipartimento della Difesa.
Questo rovescio per Anthropic a Washington arriva dopo che l'azienda aveva vinto un altro ricorso, incentrato sugli stessi temi, presso un tribunale di San Francisco, che aveva costretto l'amministrazione del presidente Donald Trump a revocare l'etichetta.
Anthropic aveva presentato i due ricorsi a San Francisco e a Washington il mese scorso, accusando l'amministrazione Trump di portare avanti una «illegale campagna di ritorsione».
Nel documento depositato a marzo, il Dipartimento della Difesa ha scritto che Anthropic potrebbe "tentare di disattivare la propria tecnologia o modificare preventivamente il comportamento del suo modello" prima o durante "operazioni di guerra" se l'azienda "ritiene che vengano oltrepassate le proprie 'red lines' aziendali".
Il collegio della Corte d'appello del circuito di Washington ha affermato di non vedere motivi per annullare le decisioni dell'amministrazione Trump, perché "l'entità esatta del danno economico di Anthropic non è chiara". Tuttavia, la Corte d'appello esaminerà ulteriori prove del caso a maggio.
«Siamo grati che il tribunale abbia riconosciuto la necessità di risolvere rapidamente queste questioni e restiamo fiduciosi che la giustizia riconoscerà, alla fine, l'illegittimità di queste designazioni nella catena di approvvigionamento», ha dichiarato Anthropic in un comunicato all'Associated Press.