Un’organizzazione non profit statunitense adotta il modello di sicurezza dell’industria auto per proteggere i bambini dall’IA. E punta, tra l’altro, a finanziare il progetto con i soldi dei colossi tecnologici.
Un nuovo istituto indipendente, dedicato a rendere l’intelligenza artificiale più sicura per i bambini, saràpresentato ufficialmente martedì al Parlamento danese. Tra i co-organizzatori dell’evento c’è l’ex vicepresidente esecutiva della Commissione europea Margrethe Vestager.
L’approccio dell’istituto, spiegato in un comunicato prima del lancio, si ispira alle valutazioni indipendenti dei crash test per le automobili.
L’idea, in sostanza, è che, così come i consumatori possono verificare se un veicolo è sicuro prima di acquistarlo, anche i genitori dovrebbero poter fare lo stesso con l’IA utilizzata dai loro figli.
L’istituto però non ha ancora chiarito che cosa possa essere, in concreto, un crash test per un chatbot.
Restano da chiarire molte questioni. I prodotti di IA si aggiornano continuamente, si comportano in modo diverso a seconda del contesto e mal si prestano a condizioni standardizzate come quelle di una pista di collaudo. Non è quindi ancora chiaro se e come possano essere davvero «sottoposti a crash test» in modo paragonabile, dal punto di vista dei bambini.
Vestager, che per un decennio alla Commissione europea ha seguito la politica di concorrenza e ha guidato l’agenda dell’UE «Europe Fit for the Digital Age» («Un’Europa pronta per l’era digitale»), è una delle figure più in vista che danno peso politico all’iniziativa.
Rimettere il genio nella lampada?
Ricercatori, associazioni per la tutela dei minori e alcuni politici lanciano l’allarme già da anni.
Finora i chatbot di IA sono rimasti in una zona grigia normativa rispetto al Digital Services Act dell’UE e all’Online Safety Act del Regno Unito. Nel luglio 2025 la Commissione europea ha pubblicato linee guida sulla protezione dei minori online, ma hanno carattere solo consultivo e non vincolante.
«L’IA sta cambiando l’infanzia e l’adolescenza, ma stiamo prendendo decisioni cruciali sul futuro dei bambini senza le evidenze necessarie per garantire che sia sicura e nel loro interesse», ha dichiarato nel comunicato James P. Steyer, fondatore e amministratore delegato di Common Sense Media.
«Il bisogno di standard trasparenti sulla sicurezza dell’IA e di test indipendenti è più urgente che mai».
In una valutazione dei rischi pubblicata nel novembre 2025 e condotta insieme al Brainstorm Lab di Stanford Medicine, Common Sense Media ha rilevato che i principali chatbot di IA – tra cui ChatGPT, Claude, Gemini e Meta AI – non riuscivano in modo sistematico a riconoscere e gestire correttamente condizioni di salute mentale che colpiscono i giovani, nonostante i recenti miglioramenti nel trattamento dei contenuti espliciti su suicidio e autolesionismo.
I ricercatori hanno osservato quelli che hanno definito «indizi mancati»: segnali chiari di disagio psicologico che i chatbot non riuscivano a cogliere, con i modelli che tendevano a concentrarsi su spiegazioni legate alla salute fisica invece di riconoscere i sintomi di problemi di salute mentale.
Una valutazione separata di ChatGPT ha rilevato che gli avvisi relativi a contenuti su suicidio o autolesionismo arrivavano spesso più di 24 ore dopo la conversazione o comunque troppo tardi per essere utili in una crisi reale, ha osservato il rapporto.
I soldi di Big Tech
L’istituto opererà all’interno di Common Sense Media ed è finanziato da un mix di donatori filantropici e aziende del settore, tra cui Anthropic, la OpenAI Foundation e Pinterest, le stesse società che l’istituto vuole chiamare a rispondere del funzionamento dei loro prodotti.
Sostiene di mantenere completa indipendenza editoriale sulle proprie conclusioni e che la sua politica sui conflitti di interesse esclude dal suo comitato consultivo dipendenti attuali o affiliati dei finanziatori.
Il modello prevede inoltre di restituire all’industria gli strumenti sviluppati e testati e l’istituto punta a creare valutazioni open source che gli sviluppatori di IA potranno utilizzare per testare i propri modelli.