Newsletter Newsletters Events Eventi Podcasts Video Africanews
Loader
Seguiteci
Pubblicità

Giudice boccia linea 'orwelliana' di Trump: Anthropic non è minaccia per la sicurezza nazionale

ARCHIVIO - Dario Amodei, CEO e cofondatore di Anthropic, partecipa alla riunione annuale del World Economic Forum a Davos, Svizzera, il 23 gennaio 2025.
ARCHIVIO - Dario Amodei, amministratore delegato e cofondatore di Anthropic, partecipa all'annuale riunione del World Economic Forum a Davos, Svizzera, il 23 gennaio 2025. Diritti d'autore  FILE- AP Photo/Markus Schreiber
Diritti d'autore FILE- AP Photo/Markus Schreiber
Di Pascale Davies Agenzie: AP
Pubblicato il Ultimo aggiornamento
Condividi Commenti
Condividi Close Button

«Niente nello statuto vigente giustifica l’idea orwelliana che un’azienda americana possa essere bollata come potenziale avversaria e sabotatrice degli Stati Uniti per aver espresso dissenso dal governo», ha scritto il giudice Lin.

Anthropic ha vinto una prima battaglia nella causa legale contro l’amministrazione Trump, dopo che una giudice federale ha concesso alla società di intelligenza artificiale un’ingiunzione contro l’ordine del governo che l’aveva definita un “rischio per la catena di approvvigionamento”.

PUBBLICITÀ
PUBBLICITÀ

Il presidente degli Stati Uniti Donald Trump e il segretario alla Difesa Pete Hegseth avevano annunciato pubblicamente a febbraio di voler interrompere i rapporti con Anthropic, dopo che l’azienda si era rifiutata di consentire un uso militare illimitato del suo modello di IA Claude. Tra le restrizioni figurano l’impiego di armi autonome letali senza supervisione umana e la sorveglianza di massa dei cittadini statunitensi.

In risposta, il governo statunitense ha classificato Anthropic come “rischio per la catena di approvvigionamento per la sicurezza nazionale” e ha ordinato agli agenti federali di smettere di usare Claude.

La giudice Rita F. Lin, del tribunale distrettuale del Nord della California, ha affermato fin dall’inizio dell’udienza che le misure “sembrano un tentativo di mettere in ginocchio Anthropic” e di “congelare il dibattito pubblico”, perché l’azienda aveva espresso preoccupazioni su come il Dipartimento della Difesa statunitense stava utilizzando la sua tecnologia.

«Questo sembra un classico caso di rappresaglia per l’esercizio dei diritti garantiti dal Primo Emendamento», ha aggiunto.

Lin ha aggiunto che le «ampie misure punitive» adottate contro la società di IA dall’amministrazione Trump e da Hegseth appaiono arbitrarie e capricciose e potrebbero «mettere in ginocchio Anthropic», in particolare per l’uso da parte di Hegseth di un raro potere militare finora impiegato contro avversari stranieri.

«Nulla, nella normativa di riferimento, sostiene l’idea orwelliana che un’azienda americana possa essere etichettata come potenziale avversaria e sabotatrice degli Stati Uniti per aver espresso il proprio dissenso rispetto al governo», ha scritto Lin.

Un portavoce di Anthropic ha dichiarato a Euronews Next che l’azienda è «grata al tribunale per essere intervenuto con rapidità, ed è soddisfatta che il giudice ritenga che Anthropic abbia buone probabilità di spuntarla nel merito».

«Se questa causa è stata necessaria per proteggere Anthropic, i nostri clienti e i nostri partner, il nostro obiettivo resta quello di collaborare in modo costruttivo con il governo per fare in modo che tutti gli americani possano beneficiare di un’IA sicura e affidabile», ha aggiunto il portavoce.

A marzo Anthropic ha intentato due cause contro il governo per contestare l’etichetta di rischio per la catena di approvvigionamento. Una chiede la revisione di tale classificazione, l’altra sostiene che l’amministrazione Trump abbia violato il diritto alla libertà di espressione dell’azienda garantito dal Primo Emendamento.

L’ordinanza significa ora che la tecnologia di Anthropic continuerà a essere utilizzata all’interno del governo e dalle aziende esterne che collaborano con il Dipartimento della Guerra fino alla conclusione della causa.

Questo articolo è stato aggiornato per includere la dichiarazione di Anthropic.

Vai alle scorciatoie di accessibilità
Condividi Commenti

Notizie correlate

Strumenti di IA rischiano di alterare il giudizio degli utenti se li assecondano troppo

Cina, divieto di espatrio per i fondatori di Manus dopo l'acquisizione da parte di Meta

Primato mondiale: startup britannica accende plasma in razzo a fusione nucleare