“[Il presidente Trump] sta cercando di mettere in riga l’industria dell’IA come tutti gli altri”, spiega a Euronews l’informatico Ben Goertzel.
Il divieto imposto dal governo statunitense ad Anthropic appare punitivo, dopo il duro scontro pubblico tra l'azienda e il Pentagono sulla sua decisione di non consentire un uso militare illimitato del modello di intelligenza artificiale Claude.
Anthropic ha presentato le proprie argomentazioni martedì davanti a un tribunale federale a San Francisco, chiedendo un'ingiunzione contro la decisione del governo degli Stati Uniti di inserirla in una lista nera come rischio per la sicurezza nazionale.
La giudice distrettuale Rita F. Lin ha affermato, all'inizio dell'udienza, che "sembra un tentativo di danneggiare gravemente Anthropic", aggiungendo di temere che il governo possa stare punendo Anthropic per aver criticato apertamente la posizione dell'esecutivo, secondo i media statunitensi (fonte in inglese).
A febbraio il presidente degli Stati Uniti Donald Trump e il segretario alla Difesa Pete Hegseth hanno annunciato pubblicamente che avrebbero interrotto i rapporti con la società di intelligenza artificiale (IA) dopo il suo rifiuto di consentire un uso militare senza restrizioni del modello Claude. Le limitazioni contestate riguardano, tra l'altro, l'uso di armi autonome letali senza supervisione umana e la sorveglianza di massa dei cittadini statunitensi.
In risposta, il governo statunitense ha definito Anthropic un "rischio per la sicurezza nazionale nella catena di approvvigionamento" e ha ordinato agli agenti federali di smettere di usare Claude.
Il 9 marzo Anthropic ha intentato due cause legali contro il governo per la sua classificazione come rischio nella catena di approvvigionamento. Una chiede di riesaminare tale designazione, l'altra sostiene che l'amministrazione Trump abbia violato il diritto alla libertà di espressione dell'azienda, garantito dal Primo emendamento.
Lin ha riconosciuto in aula che il Pentagono ha il diritto di decidere quali prodotti di IA utilizzare. Ha però messo in dubbio che il governo abbia agito nel rispetto della legge vietando alle agenzie di usare i servizi di Anthropic e quando Hegseth ha dichiarato che chi desidera rapporti con il Pentagono dovrebbe interrompere ogni legame con Anthropic, ha riferito NPR.
Un avvocato del governo ha sostenuto che le azioni del Pentagono non sono state punitive, ma basate su come il modello di IA di Anthropic potrebbe essere utilizzato e non sulla decisione dell'azienda di rendere pubblico il dissenso.
NPR ha inoltre riferito che Anthropic potrebbe essere considerata un rischio anche in futuro, perché potrebbe aggiornare il modello Claude in modo da mettere in pericolo la sicurezza nazionale.
Euronews Next ha chiesto un commento ad Anthropic, ma al momento della pubblicazione non aveva ancora ricevuto risposta.
Cosa significa la decisione per le aziende di IA
La designazione di rischio per la catena di approvvigionamento di solito si applica solo alle aziende straniere.
"Sembra inappropriato applicare questa etichetta in questo caso", ha dichiarato Ben Goertzel, informatico e amministratore delegato di SingularityNet e di The Artificial Superintelligence Alliance.
"Significa che il potere esecutivo può reinterpretare parole e leggi come meglio crede", ha detto a Euronews Next.
Goertzel ha aggiunto che, se venisse applicata la versione più restrittiva di questa designazione e ad Anthropic fosse vietato vendere software a qualsiasi azienda che abbia rapporti con il governo, le conseguenze per la società sarebbero "estremamente gravi".
Ha precisato che Anthropic sopravviverebbe comunque dal punto di vista finanziario, perché esiste molto più business al di fuori dei progetti governativi, e che "otterrebbe un forte sostegno tra la parte del Paese che non è grande fan di Donald Trump".
Ma, ha aggiunto, l'effetto immediato del mantenimento della designazione di rischio nella catena di approvvigionamento sarebbe quello di "scoraggiare altre aziende dal mettersi contro l'amministrazione Trump".
"[Il presidente Trump] sta cercando di insegnare all'industria dell'IA a mettersi in riga come tutte le altre", ha affermato Goertzel.
La giudice Lin ha dichiarato di aspettarsi, nei prossimi giorni, di pronunciarsi sulla possibile sospensione temporanea del divieto del governo, mentre il tribunale continua a esaminare il caso nel suo complesso.