L'azione senza precedenti dell'amministrazione Trump contro Anthropic sulle garanzie IA spinge gli appaltatori pubblici a rivedere l'uso del chatbot Claude.
L’amministrazione statunitense dà seguito alla minaccia di classificare la società di intelligenza artificiale (IA) Anthropic come rischio per la catena di approvvigionamento, una decisione senza precedenti che potrebbe costringere altri appaltatori governativi a smettere di usare il chatbot di IA Claude.
Il Pentagono ha dichiarato giovedì in un comunicato di avere «informato ufficialmente la direzione di Anthropic che l’azienda e i suoi prodotti sono considerati un rischio per la catena di approvvigionamento, con effetto immediato».
La decisione sembra chiudere la porta a ulteriori negoziati con Anthropic, a quasi una settimana da quando il presidente Donald Trump e il segretario alla Difesa Pete Hegseth hanno accusato l’azienda di mettere in pericolo la sicurezza nazionale.
Trump e Hegseth hanno annunciato una serie di sanzioni minacciate venerdì scorso, alla vigilia della guerra con l’Iran. La decisione è arrivata dopo che l’amministratore delegato di Anthropic, Dario Amodei, si è rifiutato di fare marcia indietro rispetto ai timori che i prodotti dell’azienda potessero essere usati per la sorveglianza di massa degli americani o per lo sviluppo di armi autonome.
Amodei ha dichiarato giovedì in una nota che «non riteniamo che questo provvedimento abbia un fondamento giuridico e non vediamo altra scelta se non impugnarlo in tribunale».
«In gioco c’è un principio fondamentale: che i militari possano usare la tecnologia per tutti gli scopi consentiti dalla legge», si legge nel comunicato del Pentagono.
«Le forze armate non permetteranno a un fornitore di inserirsi nella catena di comando limitando l’uso legittimo di una capacità critica e mettendo a rischio i nostri militari», prosegue la nota.
Amodei ha ribattuto che le eccezioni mirate richieste da Anthropic per limitare la sorveglianza e le armi autonome «riguardano aree di utilizzo ad alto livello e non le decisioni operative sul campo».
Ha aggiunto che negli ultimi giorni ci sono state «conversazioni costruttive» con il Pentagono sulla possibilità di continuare a usare Claude o di garantire una «transizione graduale» qualora non si raggiungesse un accordo.
Trump ha concesso alle forze armate sei mesi di tempo per eliminare gradualmente l’uso di Claude, già profondamente integrato nelle piattaforme militari e di sicurezza nazionale. Amodei ha affermato che la priorità è fare in modo che i militari in prima linea non siano «privati di strumenti importanti nel pieno di operazioni di combattimento di grande entità».
Alcuni appaltatori militari hanno già iniziato a interrompere i rapporti con Anthropic, astro nascente del settore tecnologico che vende Claude a numerose aziende e agenzie governative.
Il gruppo della difesa Lockheed Martin ha fatto sapere che «seguirà le indicazioni del Presidente e del Dipartimento della Guerra» e si rivolgerà ad altri fornitori di modelli linguistici di grandi dimensioni.
«Prevediamo effetti limitati, poiché Lockheed Martin non dipende da un singolo fornitore di LLM per alcuna parte del nostro lavoro», ha aggiunto la società.
Non è chiaro come il Dipartimento della Difesa statunitense interpreterà la portata di questa designazione di rischio. Amodei ha spiegato che una comunicazione ricevuta mercoledì da Anthropic dal Pentagono indica che la misura si applica solo all’uso di Claude da parte dei clienti come «parte diretta» dei loro contratti militari.
Microsoft ha affermato che i suoi legali hanno esaminato la norma e che l’azienda «può continuare a lavorare con Anthropic su progetti non legati alla difesa».
Pentagono, pioggia di critiche sulla decisione contro Anthropic
La decisione del Pentagono di applicare una norma pensata per contrastare le minacce alla catena di approvvigionamento da parte di avversari stranieri ha suscitato ampie critiche. I codici federali definiscono il rischio per la catena di approvvigionamento come «il rischio che un avversario possa sabotare, introdurre in modo malevolo funzionalità indesiderate o in altro modo sovvertire» un sistema, al fine di interromperlo, comprometterlo o spiarlo.
La senatrice statunitense Kirsten Gillibrand, democratica di New York e membro sia della Commissione Forze armate sia della Commissione Intelligence del Senato, ha definito la decisione «un pericoloso abuso di uno strumento pensato per affrontare tecnologie controllate da avversari».
«Questa azione sconsiderata è miope, autolesionista e un regalo ai nostri avversari», ha dichiarato giovedì in un comunicato scritto.
Neil Chilson, ex responsabile tecnologico repubblicano della Federal Trade Commission e oggi a capo delle politiche sull’IA presso l’Abundance Institute, ha affermato che la decisione appare come «un enorme eccesso di potere che danneggerebbe sia il settore statunitense dell’IA sia la capacità dei militari di acquisire le migliori tecnologie per i soldati americani».
In precedenza, un gruppo di ex alti funzionari della difesa e della sicurezza nazionale aveva inviato una lettera ai parlamentari statunitensi esprimendo «profonda preoccupazione» per la designazione.
«L’uso di questo potere contro un’azienda americana è uno scostamento profondo rispetto allo scopo per cui è stato concepito e crea un pericoloso precedente», si legge nella lettera firmata da ex funzionari ed esperti di politica, tra cui l’ex direttore della CIA Michael Hayden e generali e ammiragli in congedo di Aeronautica, Esercito e Marina.
Hanno aggiunto che una simile designazione è pensata per «proteggere gli Stati Uniti dall’infiltrazione di avversari stranieri, da aziende legate a Pechino o a Mosca, non da innovatori americani che operano in modo trasparente nel rispetto dello stato di diritto. Usare questo strumento per penalizzare un’azienda statunitense perché si rifiuta di eliminare le protezioni contro la sorveglianza di massa interna e le armi completamente autonome è un errore di categoria, con conseguenze che vanno ben oltre questa controversia».
Anthropic, boom di download di Claude tra i consumatori
Pur perdendo importanti partnership con gli appaltatori della difesa, Anthropic ha registrato nell’ultima settimana un’ondata di download da parte dei consumatori, spinti da chi sostiene la sua posizione etica. Secondo l’azienda, oltre un milione di persone al giorno si è iscritta a Claude in questa settimana, permettendole di superare ChatGPT di OpenAI e Gemini di Google come principale app di IA in più di 20 Paesi sull’App Store di Apple.
Lo scontro con il Pentagono ha inoltre inasprito la già accesa rivalità di Anthropic con OpenAI, nata quando ex dirigenti di OpenAI, tra cui lo stesso Amodei, hanno fondato Anthropic nel 2021.
Poche ore dopo che il Pentagono ha sanzionato Anthropic venerdì scorso, OpenAI ha annunciato un accordo per sostituire di fatto Anthropic con ChatGPT negli ambienti militari classificati.
OpenAI ha affermato di avere chiesto protezioni analoghe contro la sorveglianza interna e le armi completamente autonome, ma di essere poi stata costretta a modificare gli accordi. Questo ha portato l’amministratore delegato Sam Altman ad ammettere che non avrebbe dovuto affrettare un’intesa che «appariva opportunistica e approssimativa».
Amodei ha a sua volta espresso rammarico per il proprio ruolo in quella che ha definito «una giornata difficile per l’azienda», affermando giovedì di voler «chiedere scusa direttamente» per una nota interna inviata allo staff di Anthropic. In quel messaggio criticava il comportamento di OpenAI e suggeriva che Anthropic venisse punita per non avere rivolto «elogi da dittatore» a Trump.