Newsletter Newsletters Events Eventi Podcasts Video Africanews
Loader
Seguiteci
Pubblicità

Perché Anthropic e gli USA sono ai ferri corti su un contratto militare

FILE - Il segretario alla Difesa Pete Hegseth davanti al Pentagono, a Washington, durante la cerimonia di benvenuto per il ministro della Difesa giapponese il 15 gennaio 2026.
ARCHIVIO - Il segretario alla Difesa Pete Hegseth davanti al Pentagono, a Washington, durante una cerimonia per il ministro della Difesa giapponese, 15 gennaio 2026. Diritti d'autore  AP Photo/Kevin Wolf, File
Diritti d'autore AP Photo/Kevin Wolf, File
Di Anna Desmarais Agenzie: AP
Pubblicato il Ultimo aggiornamento
Condividi Commenti
Condividi Close Button

Stallo tra Anthropic e Pentagono USA sull’IA militare: tutto quello che c’è da sapere oggi

Il governo degli Stati Uniti minaccia di porre fine ai contratti militari con la società di intelligenza artificiale Anthropic se questa non aprirà la sua tecnologia all'uso militare senza restrizioni, ma l'azienda per ora resiste.

PUBBLICITÀ
PUBBLICITÀ

Il CEO di Anthropic, Dario Amodei, ha dichiarato in un comunicato (fonte in inglese) del 26 febbraio di non poter «in coscienza accogliere la richiesta del Pentagono» di avere accesso illimitato ai sistemi di IA dell'azienda.

«In una ristretta serie di casi riteniamo che l'IA possa minare, invece che difendere, i valori democratici», ha scritto. «Alcuni utilizzi sono inoltre semplicemente al di fuori di ciò che la tecnologia odierna può fare in modo sicuro e affidabile».

La dichiarazione di Amodei arriva a meno di 24 ore dalla scadenza di venerdì fissata dal Dipartimento della Guerra per ottenere accesso senza vincoli a Claude.

Anthropic sviluppa il chatbot Claude ed è l'ultima tra le aziende rivali a non fornire la propria tecnologia a una nuova rete interna delle forze armate statunitensi.

Anthropic si è aggiudicata lo scorso luglio un contratto da 200 milioni di dollari (167 milioni di euro) con il Dipartimento della Difesa degli Stati Uniti per «prototipare capacità di frontiera dell'IA a sostegno della sicurezza nazionale americana», ha fatto sapere la società. L'azienda ha poi siglato una partnership (fonte in inglese) con Palantir Technologies nel 2024 per integrare Claude nel software di intelligence statunitense.

Secondo quanto riportato, il segretario alla Difesa Pete Hegseth il 24 febbraio ha dichiarato che avrebbe posto fine al contratto da 200 milioni di dollari (167 milioni di euro) e definito l'azienda un «rischio per la catena di approvvigionamento» se Anthropic non si fosse adeguata.

Se Anthropic venisse classificata come rischio per la catena di approvvigionamento ai sensi della legge (fonte in inglese) statunitense sugli appalti, il governo potrebbe escluderla dall'assegnazione dei contratti, togliere i suoi prodotti dalle procedure di gara e ordinare ai principali appaltatori di non servirsi più di quel fornitore.

I resoconti sull'incontro tra Hegseth e Amodei riferiscono anche che Hegseth ha minacciato di ricorrere contro l'azienda al Defense Production Act (fonte in inglese), una legge che conferisce al presidente degli Stati Uniti ampi poteri per ordinare alle imprese private di dare priorità alle esigenze di sicurezza nazionale, incluso l'accesso alle loro tecnologie.

Nella sua dichiarazione, Amodei ha affermato che i contratti con il Dipartimento della Guerra non dovrebbero prevedere casi in cui Claude venga utilizzato per la sorveglianza di massa sul territorio nazionale o integrato in armi completamente autonome.

Ha spiegato che proprio queste salvaguardie, a suo avviso, sono alla base della minaccia del Dipartimento di ritirare Anthropic dall'uso militare statunitense.

Nella dichiarazione, Amodei ha definito le due minacce «intrinsecamente contraddittorie», perché da un lato si etichetta Anthropic come rischio per la sicurezza e dall'altro si sostiene che Claude sia «essenziale per la sicurezza nazionale».

Ha riconosciuto che il Dipartimento della Guerra può scegliere di lavorare, per i contratti, con chi è più allineato alla propria visione, ma ha aggiunto che «considerato il notevole valore che la tecnologia di Anthropic offre alle nostre forze armate, speriamo che ci ripensino».

Il chatbot di IA è stato introdotto nelle reti di informazioni classificate del governo statunitense, è stato dispiegato nei laboratori nucleari nazionali e svolge direttamente analisi di intelligence per il Dipartimento della Guerra.

Euronews Next ha contattato il Dipartimento della Guerra del governo statunitense, ma non ha ricevuto una risposta immediata.

Anthropic ridimensiona la sua promessa centrale sulla sicurezza

Da tempo Anthropic si presenta come la più responsabile e attenta alla sicurezza tra le aziende leader dell'IA, fin da quando i suoi fondatori hanno lasciato OpenAI per creare la startup nel 2021.

Martedì, in un'intervista alla rivista Time, Anthropic ha dichiarato di voler abbandonare l'impegno secondo cui non avrebbe rilasciato un sistema di IA senza poter garantire che le misure di sicurezza fossero adeguate.

Al suo posto ha lanciato una nuova versione della propria politica di «responsible scaling», che definisce il quadro con cui l'azienda intende mitigare i rischi catastrofici dell'IA.

Jared Kaplan, direttore scientifico di Anthropic, ha detto alla rivista che bloccare l'azienda nell'addestramento di nuovi modelli mentre i concorrenti corrono avanti senza tutele non l'aiuterebbe a restare al passo nella corsa all'IA.

«Se uno sviluppatore di IA sospendesse lo sviluppo per implementare misure di sicurezza mentre altri proseguono nell'addestramento e nel dispiegamento dei sistemi di IA senza forti mitigazioni, ciò potrebbe portare a un mondo meno sicuro», si legge nella nuova policy di Anthropic.

«Sarebbero gli sviluppatori con le protezioni più deboli a dettare il ritmo e quelli responsabili perderebbero la capacità di fare ricerca sulla sicurezza e di promuovere il beneficio pubblico».

La policy distingue tra l'ambizione di Anthropic di portare standard di sicurezza più elevati nel settore e i propri obiettivi aziendali, nei quali la sicurezza resta comunque una priorità.

Secondo Anthropic, la nuova policy significa che l'azienda fisserà per i propri modelli roadmap sulla sicurezza «ambiziose ma realizzabili» e pubblicherà rapporti sui rischi che indicheranno i pericoli previsti e se il rilascio di un modello sia giustificato.

Questo articolo è stato aggiornato il 27 febbraio.

Vai alle scorciatoie di accessibilità
Condividi Commenti

Notizie correlate

Galaxy S26 Ultra, Samsung punta su AI e Privacy Display: basterà per battere i rivali?

Social media progettati per creare dipendenza: è possibile battere l'algoritmo

Studio: i chatbot IA scelgono l'escalation nucleare nel 95% delle guerre simulate