Newsletter Newsletters Events Eventi Podcasts Video Africanews
Loader
Seguiteci
Pubblicità

Perché Anthropic e gli Stati Uniti sono ai ferri corti su un contratto militare

ARCHIVIO - Il segretario alla Difesa Pete Hegseth davanti al Pentagono alla cerimonia di benvenuto per il ministro della Difesa giapponese, a Washington, il 15 gennaio 2026.
ARCHIVIO - Il segretario alla Difesa Pete Hegseth all'esterno del Pentagono a Washington durante cerimonia di benvenuto del ministro della Difesa giapponese, 15 gennaio 2026. Diritti d'autore  AP Photo/Kevin Wolf, File
Diritti d'autore AP Photo/Kevin Wolf, File
Di Anna Desmarais Agenzie: AP
Pubblicato il
Condividi Commenti
Condividi Close Button

L'azienda di intelligenza artificiale Anthropic e il Pentagono degli Stati Uniti sono ai ferri corti. Ecco tutto quello che c'è da sapere.

Il governo degli Stati Uniti minaccia di interrompere i contratti militari con la società Anthropic se questa non renderà la sua tecnologia di intelligenza artificiale disponibile per un uso militare senza restrizioni.

PUBBLICITÀ
PUBBLICITÀ

Anthropic sviluppa il chatbot Claude ed è l’ultima tra le aziende del settore a non fornire la propria tecnologia alla nuova rete interna delle forze armate statunitensi.

Il CEO Dario Amodei ha più volte espresso le sue preoccupazioni etiche sull’uso incontrollato dell’IA da parte dei governi, citando tra i rischi i droni armati completamente autonomi e la sorveglianza di massa assistita dall’IA in grado di tracciare il dissenso.

Lo scorso luglio Anthropic si è aggiudicata un contratto da 200 milioni di dollari (167 milioni di euro) con il Dipartimento della Difesa degli Stati Uniti per «prototipare capacità di frontiera dell’IA che rafforzino la sicurezza nazionale USA», ha dichiarato l’azienda. Nel 2024 la società ha inoltre siglato una partnership (fonte in inglese) con Palantir Technologies per integrare Claude nel software di intelligence statunitense.

Secondo le indiscrezioni, martedì il segretario alla Difesa Pete Hegseth ha affermato che avrebbe annullato il contratto da 200 milioni di dollari (167 milioni di euro) e classificato l’azienda come «rischio per la catena di approvvigionamento» se Anthropic non avesse accettato le condizioni.

Se Anthropic venisse designata come rischio per la catena di approvvigionamento ai sensi della legge (fonte in inglese) statunitense sugli appalti, il governo potrebbe escludere la società dall’assegnazione di nuovi contratti, rimuovere i suoi prodotti dalle gare e ordinare agli appaltatori principali di non servirsi di quel fornitore.

Resoconti sull’incontro di Hegseth con Dario Amodei, CEO e cofondatore di Anthropic, riferiscono anche che Hegseth avrebbe minacciato di ricorrere contro l’azienda al Defense Production Act (fonte in inglese), una legge che conferisce al Presidente degli Stati Uniti ampi poteri per obbligare le imprese private a dare priorità alle esigenze di sicurezza nazionale, incluso l’accesso alle loro tecnologie.

Euronews Next ha contattato Anthropic e il Dipartimento della Difesa statunitense per verificare le accuse, ma non ha ricevuto risposte immediate.

Anthropic, retromarcia sulla promessa di sicurezza dell’IA

Fin dalla sua nascita nel 2021, dopo l’uscita dei fondatori da OpenAI, Anthropic si è presentata come una delle aziende di punta dell’IA più responsabili e attente alla sicurezza.

Martedì Anthropic ha dichiarato in un’intervista al Time che rinuncerà all’impegno secondo cui non avrebbe rilasciato alcun sistema di IA senza poter garantire l’adeguatezza delle misure di sicurezza.

Al suo posto, la società ha lanciato una nuova versione della propria politica di sviluppo responsabile, che definisce il quadro con cui l’azienda intende mitigare i rischi catastrofici legati all’IA.

Jared Kaplan, direttore scientifico di Anthropic, ha spiegato alla rivista che bloccare l’addestramento di nuovi modelli mentre i concorrenti corrono avanti senza adeguate tutele non aiuterebbe l’azienda a restare al passo nella corsa all’IA.

«Se uno sviluppatore di IA sospendesse lo sviluppo per introdurre misure di sicurezza mentre altri proseguono nell’addestramento e nel dispiegamento di sistemi di IA senza solide mitigazioni, il risultato potrebbe essere un mondo meno sicuro», si legge nella nuova politica di Anthropic.

«Gli sviluppatori con le protezioni più deboli detterebbero il ritmo, e quelli responsabili perderebbero la capacità di svolgere ricerca sulla sicurezza e promuovere il bene pubblico».

Il documento distingue tra l’obiettivo di Anthropic di promuovere standard di sicurezza per l’intero settore e le priorità interne dell’azienda, in cui la sicurezza resta comunque centrale.

Anthropic ha spiegato che la nuova politica prevede per l’azienda la definizione di road map di sicurezza «ambiziose ma realistiche» per i propri modelli, oltre alla pubblicazione di rapporti sui rischi che illustreranno i pericoli previsti e se il rilascio di un modello sia giustificato.

Vai alle scorciatoie di accessibilità
Condividi Commenti

Notizie correlate

Cani robot e droni in metro in Cina: è questo il futuro dei viaggi in treno?

Social media progettati per creare dipendenza: è possibile battere l'algoritmo

Perché Anthropic e gli Stati Uniti sono ai ferri corti su un contratto militare