Il Dipartimento della Guerra ha definito Anthropic un «rischio per la catena di approvvigionamento», potendo escluderla dalle gare e impedire ad altre aziende di collaborare con lei.
Microsoft, ex alti ufficiali militari e i think tank sull'intelligenza artificiale (IA) sostengono Anthropic nella causa. L'obiettivo è revocare la decisione dell'amministrazione Trump che ha classificato l'azienda come 'rischio per la catena di approvvigionamento'.
Le azionidel Dipartimento della Guerra degli Stati Uniti 'costringono gli appaltatori governativi a rispettare indicazioni vaghe e poco definite, mai usate prima in pubblico contro un'azienda statunitense', si legge nella memoria legale di Microsoft.
Nello stesso atto Microsoft avverte che l'etichetta di rischio per la catena di approvvigionamento 'può comportare gravi conseguenze economiche che non sono nell'interesse pubblico' e chiede al giudice di sospenderla temporaneamente.
Gli atti seguono il ricorso legale avviato da Anthropic contro il Dipartimento della Guerra degli Stati Uniti la scorsa settimana.
L'etichetta di rischio per la catena di approvvigionamento attribuita ad Anthropic consente al governo di escludere la società dall'aggiudicazione dei contratti, di togliere i suoi prodotti dalla valutazione e di impedire ai contraenti principali di utilizzare il fornitore.
Fino a poco tempo fa Anthropic era l'unica tra le aziende del settore autorizzata a operare nelle reti militari classificate. Il suo chatbot di IA era stato distribuito in tutte le reti di informazioni classificate del governo statunitense, era impiegato nei laboratori nucleari nazionali e svolgeva analisi di intelligence per il Dipartimento della Guerra.
Chi è sceso in campo a sostegno di Anthropic?
Diversi atti congiunti a sostegno di Anthropic sono stati depositati da funzionari militari statunitensi, big tech e organizzazioni che si occupano di IA.
Il comportamento del Segretario alla Difesa degli Stati Uniti Pete Hegseth nei confronti di Anthropic 'minaccia i principi dello stato di diritto che da tempo rafforzano il nostro esercito', si legge in uno degli atti, sostenuto anche da Michael Hayden, ex direttore della Central Intelligence Agency (CIA) statunitense.
Gli estensori sostengono inoltre che le azioni di Hegseth rappresentano un abuso di potere da parte del governo per 'vendicarsi di un'azienda privata che ha scontentato la leadership'.
L'atto firmato dagli ex militari avverte che l'improvvisa incertezza creata dalla messa nel mirino di una tecnologia ormai integrata in molte piattaforme militari potrebbe compromettere la pianificazione e mettere a rischio i soldati nelle operazioni in corso, come la guerra in Iran.
Un altro atto (fonte in inglese), presentato a nome di 37 ingegneri di IA che in passato hanno lavorato a OpenAI e a DeepMind di Google, definisce le mosse del Dipartimento della Guerra 'un uso improprio e arbitrario del potere, con gravi ripercussioni per il nostro settore'.
'Se questa iniziativa punitiva contro una delle principali aziende statunitensi di IA dovesse andare avanti, le conseguenze per la competitività industriale e scientifica degli Stati Uniti nel campo dell'intelligenza artificiale e oltre sarebbero inevitabili', si legge nel documento. 'E finirà per congelare il confronto aperto nel nostro settore sui rischi e i benefici degli attuali sistemi di IA'.
Un'altra memoria afferma che non è difficile 'immaginare un mondo in cui il governo controlla di fatto ciò che tutti gli americani fanno e dicono', se le autorità potranno dettare le politiche di Anthropic.
Il ricorso congiunto (fonte in inglese), presentato da gruppi come Electronic Frontier Foundation e Cato Institute, sostiene che le azioni del governo violano il Primo emendamento, la parte della Costituzione che disciplina il diritto alla libertà di espressione.
Le azioni del governo 'minacciano la vitalità e l'indipendenza della nostra democrazia', si legge nell'atto.
Come è iniziato lo scontro?
Lo scontro tra Anthropic e i militari statunitensi è iniziato quando l'azienda ha rifiutato di concedere ai militari un accesso illimitato al suo chatbot di IA, Claude. Il governo ha dato ad Anthropic 48 ore per aprire l'accesso, altrimenti avrebbe rischiato sanzioni.
L'amministratore delegato di Anthropic, Dario Amodei, ha spiegato che l'azienda ha posto ai militari due linee rosse: la sua tecnologia non può essere usata per la sorveglianza di massa sul territorio nazionale né integrata in armi completamente autonome.
Amodei ha dichiarato in una nota (fonte in inglese) del 26 febbraio di 'non poter, in coscienza, accettare la richiesta del Pentagono' di un accesso senza limiti ai sistemi di IA dell'azienda.
'In un numero ristretto di casi riteniamo che l'IA possa minare, anziché difendere, i valori democratici', ha scritto. 'Alcuni usi sono inoltre semplicemente al di fuori dei limiti di ciò che la tecnologia odierna può fare in modo sicuro e affidabile', ha aggiunto.
Nell'atto depositato in tribunale, Microsoft ha appoggiato le linee rosse di Anthropic, sostenendo che 'l'IA americana non dovrebbe essere usata per condurre una sorveglianza di massa interna o per dare inizio a una guerra senza controllo umano', una posizione che l'azienda definisce 'coerente con la legge'.
Claude sarà inoltre gradualmente eliminato dalle operazioni militari nei prossimi sei mesi, secondo una dichiarazione di Hegseth.
Amodei ha affermato in una dichiarazione che il Dipartimento della Guerra è libero di scegliere con chi lavorare su contratti più in linea con la propria visione, ma che 'dato il valore considerevole che la tecnologia di Anthropic offre alle nostre forze armate, speriamo che il Dipartimento ci ripensi'.