Il Centro statunitense per gli standard e l'innovazione dell'intelligenza artificiale valuterà i modelli per la sicurezza informatica, la biosicurezza e i rischi legati alle armi chimiche prima che vengano resi pubblici
Il governo degli Stati Uniti testerà i nuovi strumenti di intelligenza artificiale (AI) prima che vengano rilasciati al pubblico.
Le aziende tecnologiche Google, Microsoft e xAI hanno accettato che il Dipartimento del Commercio degli Stati Uniti esamini i loro modelli attraverso il Center for AI Standards and Innovation (CAISI).
Le valutazioni riguarderanno "i test, la ricerca collaborativa e lo sviluppo delle migliori pratiche relative ai sistemi di AI commerciali", si legge nel comunicato.
Il CAISI valuterà anche i "rischi dimostrabili" associati ai sistemi di AI, come quelli legati alla sicurezza informatica, alla biosicurezza e alle armi chimiche, si legge sul suo sito web.
"Una scienza di misurazione indipendente e rigorosa è essenziale per comprendere l'AI di frontiera e le sue implicazioni per la sicurezza nazionale", ha dichiarato il direttore del CAISI Chris Fall in un comunicato. Queste collaborazioni industriali allargate ci aiutano a scalare il nostro lavoro nell'interesse pubblico in un momento critico".
In una dichiarazione pubblica, Microsoft ha affermato che le valutazioni del CAISI la aiuteranno a tenere sotto controllo i rischi, come gli attacchi informatici all'AI, per il suo modello di IA, Copilot.
Cambiamento di enfasi per Trump
L'annuncio della valutazione delle aziende di AI rappresenta una svolta per il presidente Trump, che da tempo sostiene che un'eccessiva regolamentazione dei sistemi di AI potrebbe danneggiare l'innovazione del Paese e permettere alla Cina di ottenere un vantaggio.
A marzo, Trump ha pubblicato il suo AI National Policy Framework, secondo il quale gli Stati Uniti "rimuoveranno le barriere all'innovazione" e "accelereranno" la diffusione dell'AI in vari settori.
Il documento afferma inoltre che il Congresso non creerà "alcun organo federale di regolamentazione per disciplinare l'AI", bensì incaricherà gli organi di regolamentazione esistenti e gli esperti in settori specifici di esaminare i modelli.
Il CAISI ha già condotto 40 valutazioni di altri modelli, compresi alcuni "modelli all'avanguardia che non sono ancora stati rilasciati", ma non ha specificato a quali modelli si riferisce.
"Rinegoziazione degli accordi esistenti
OpenAI e Anthropic hanno firmato accordi per queste valutazioni nel 2024 sotto l'ex presidente Joe Biden. Il CAISI ha dichiarato che gli accordi esistenti sono stati "rinegoziati", ma non ha specificato cosa sia cambiato.
Chris Lehane, responsabile degli affari globali di OpenAI, ha dichiarato su LinkedIn che l'azienda ha fornito al governo ChatGPT5.5 prima del suo rilascio pubblico questa settimana per "supportare i test e le valutazioni di sicurezza nazionale".
Lehane ha detto che OpenAI sta lavorando con CAISI per testare modelli come GPT-5.5-Cyber, un modello specifico che rafforzerà le capacità di difesa informatica e che è disponibile solo per un gruppo limitato di primi utenti.
OpenAI ha dichiarato di essere coinvolta anche nello sviluppo di una "strategia di distribuzione responsabile" per il modello di cybersecurity, compreso un manuale per distribuire questi modelli in tutto il servizio pubblico.