«Niente nello statuto vigente giustifica l’idea orwelliana che un’azienda americana possa essere bollata come potenziale avversaria e sabotatrice degli Stati Uniti per aver espresso dissenso dal governo», ha scritto il giudice Lin.
Anthropic ha vinto una prima battaglia nella causa legale contro l’amministrazione Trump, dopo che una giudice federale ha concesso alla società di intelligenza artificiale un’ingiunzione contro l’ordine del governo che l’aveva definita un “rischio per la catena di approvvigionamento”.
Il presidente degli Stati Uniti Donald Trump e il segretario alla Difesa Pete Hegseth avevano annunciato pubblicamente a febbraio di voler interrompere i rapporti con Anthropic, dopo che l’azienda si era rifiutata di consentire un uso militare illimitato del suo modello di IA Claude. Tra le restrizioni figurano l’impiego di armi autonome letali senza supervisione umana e la sorveglianza di massa dei cittadini statunitensi.
In risposta, il governo statunitense ha classificato Anthropic come “rischio per la catena di approvvigionamento per la sicurezza nazionale” e ha ordinato agli agenti federali di smettere di usare Claude.
La giudice Rita F. Lin, del tribunale distrettuale del Nord della California, ha affermato fin dall’inizio dell’udienza che le misure “sembrano un tentativo di mettere in ginocchio Anthropic” e di “congelare il dibattito pubblico”, perché l’azienda aveva espresso preoccupazioni su come il Dipartimento della Difesa statunitense stava utilizzando la sua tecnologia.
«Questo sembra un classico caso di rappresaglia per l’esercizio dei diritti garantiti dal Primo Emendamento», ha aggiunto.
Lin ha aggiunto che le «ampie misure punitive» adottate contro la società di IA dall’amministrazione Trump e da Hegseth appaiono arbitrarie e capricciose e potrebbero «mettere in ginocchio Anthropic», in particolare per l’uso da parte di Hegseth di un raro potere militare finora impiegato contro avversari stranieri.
«Nulla, nella normativa di riferimento, sostiene l’idea orwelliana che un’azienda americana possa essere etichettata come potenziale avversaria e sabotatrice degli Stati Uniti per aver espresso il proprio dissenso rispetto al governo», ha scritto Lin.
Un portavoce di Anthropic ha dichiarato a Euronews Next che l’azienda è «grata al tribunale per essere intervenuto con rapidità, ed è soddisfatta che il giudice ritenga che Anthropic abbia buone probabilità di spuntarla nel merito».
«Se questa causa è stata necessaria per proteggere Anthropic, i nostri clienti e i nostri partner, il nostro obiettivo resta quello di collaborare in modo costruttivo con il governo per fare in modo che tutti gli americani possano beneficiare di un’IA sicura e affidabile», ha aggiunto il portavoce.
A marzo Anthropic ha intentato due cause contro il governo per contestare l’etichetta di rischio per la catena di approvvigionamento. Una chiede la revisione di tale classificazione, l’altra sostiene che l’amministrazione Trump abbia violato il diritto alla libertà di espressione dell’azienda garantito dal Primo Emendamento.
L’ordinanza significa ora che la tecnologia di Anthropic continuerà a essere utilizzata all’interno del governo e dalle aziende esterne che collaborano con il Dipartimento della Guerra fino alla conclusione della causa.
Questo articolo è stato aggiornato per includere la dichiarazione di Anthropic.