Newsletter Newsletters Events Eventi Podcasts Video Africanews
Loader
Seguiteci
Pubblicità

Usa, corte respinge ricorso Anthropic contro etichetta rischio catena di approvvigionamento

ARCHIVIO - Il sito web e l'app per smartphone di Anthropic sono visibili in questa foto, a New York, il 5 luglio 2024
ARCHIVIO - Il sito web e l'app per smartphone di Anthropic mostrati in questa foto, a New York, il 5 luglio 2024. Diritti d'autore  AP Photo/Richard Drew, File
Diritti d'autore AP Photo/Richard Drew, File
Di Anna Desmarais & AP
Pubblicato il
Condividi Commenti
Condividi Close Button

Il dibattito è iniziato quando Anthropic si è rifiutata di concedere al governo statunitense un accesso illimitato al suo chatbot di IA, Claude.

Un tribunale statunitense ha respinto la richiesta della società americana di intelligenza artificiale Anthropic di proteggerla dall'etichetta di rischio per la catena di approvvigionamento da parte del governo federale. Una definizione che non era mai stata applicata prima a un'azienda americana.

PUBBLICITÀ
PUBBLICITÀ

L'amministrazione Trump ha classificato la società di IA come rischio per la catena di approvvigionamento e a febbraio ha ordinato agli agenti federali di smettere di usare l'assistente di Anthropic, Claude, dopo che l'azienda si era rifiutata di concedere ai militari un accesso illimitato al suo modello.

Questa etichetta impedisce ai fornitori che lavorano con il Pentagono di utilizzare i modelli di IA dell'azienda nei contratti con il Dipartimento della Difesa.

Tra le restrizioni contestate figurano l'uso di Claude per sistemi d'arma letali autonomi senza supervisione umana e la sorveglianza di massa dei cittadini statunitensi.

Nel 2025 Anthropic ha firmato un contratto da 200 milioni di dollari (171,5 milioni di euro) con il Pentagono per integrare la propria tecnologia nei sistemi delle forze armate.

Dopo quell'accordo, il chatbot di IA era stato introdotto nelle reti di informazioni classificate del governo statunitense, installato nei laboratori nucleari nazionali e impiegato per analisi di intelligence direttamente per il Dipartimento della Difesa.

Questo rovescio per Anthropic a Washington arriva dopo che l'azienda aveva vinto un altro ricorso, incentrato sugli stessi temi, presso un tribunale di San Francisco, che aveva costretto l'amministrazione del presidente Donald Trump a revocare l'etichetta.

Anthropic aveva presentato i due ricorsi a San Francisco e a Washington il mese scorso, accusando l'amministrazione Trump di portare avanti una «illegale campagna di ritorsione».

Nel documento depositato a marzo, il Dipartimento della Difesa ha scritto che Anthropic potrebbe "tentare di disattivare la propria tecnologia o modificare preventivamente il comportamento del suo modello" prima o durante "operazioni di guerra" se l'azienda "ritiene che vengano oltrepassate le proprie 'red lines' aziendali".

Il collegio della Corte d'appello del circuito di Washington ha affermato di non vedere motivi per annullare le decisioni dell'amministrazione Trump, perché "l'entità esatta del danno economico di Anthropic non è chiara". Tuttavia, la Corte d'appello esaminerà ulteriori prove del caso a maggio.

«Siamo grati che il tribunale abbia riconosciuto la necessità di risolvere rapidamente queste questioni e restiamo fiduciosi che la giustizia riconoscerà, alla fine, l'illegittimità di queste designazioni nella catena di approvvigionamento», ha dichiarato Anthropic in un comunicato all'Associated Press.

Vai alle scorciatoie di accessibilità
Condividi Commenti

Notizie correlate

Meta entra nella corsa all'IA con Muse Spark, il nuovo modello di punta: cosa sapere

Ricercatori svizzeri testano robot cane per accelerare l'esplorazione di Luna e Marte

Telegram, rete di abusi tra Italia e Spagna: diffusi contenuti sessuali e materiale pedopornografico