IA, l’allarme di Dario Amodei (Anthropic): servono regole per evitare la nascita di governi autocratici che la usino per reprimere le popolazioni.
Il mondo sta entrando in una fase dello sviluppo dell’intelligenza artificiale (IA) che mette alla prova “chi siamo come specie”, avverte il CEO di Anthropic in un saggio di ampio respiro.
Dario Amodei sostiene che l’umanità sta entrando in un’“adolescenza tecnologica”, in cui l’IA avanza più in fretta di quanto sistemi legali, quadri regolatori e società riescano a tenere il passo.
Nel giro di due anni, l’IA potrebbe diventare “più intelligente di un Premio Nobel” in gran parte dei campi rilevanti, come biologia, programmazione, matematica, ingegneria e scrittura.
Quando questi sistemi di IA lavorano insieme, Amodei li paragona a “un Paese di geni in un data center”, capaci di portare a termine compiti complessi almeno 10 volte più rapidamente di un umano in ambiti come progettazione software, operazioni informatiche e persino costruzione di relazioni.
Questa combinazione di intelligenza sovrumana, autonomia e difficoltà di controllo della tecnologia è “plausibile e al tempo stesso una ricetta per un pericolo esistenziale”, ha scritto.
“L’umanità deve svegliarsi: questo saggio è un tentativo (forse futile, ma vale la pena provarci) di far aprire gli occhi”, ha detto.
Il saggio di Amodei arriva dopo che la sua azienda ha pubblicato la scorsa settimana una “costituzione” di 80 pagine per il chatbot Claude, che definisce come l’azienda aiuterà la sua IA a comportarsi in modo sicuro ed etico.
Amodei non è l’unico a mettere in guardia sui potenziali pericoli dell’IA. Un rapporto 2025sostenuto da 30 Paesi ha affermato che sistemi di IA avanzati potrebbero generare nuovi rischi estremi, come diffuse perdite di posti di lavoro, favorire il terrorismo o perdere il controllo della tecnologia.
Altri leader tecnologici, tra cui Sam Altman di OpenAI e il cofondatore di Apple SteveWozniak, hanno inoltre avvertito dei rischi dell’IA.
L’intelligenza artificiale è una “sfida per la civiltà”
Pur senza arrivare a dire che il disastro sia inevitabile, Amodei avverte che l’IA rappresenta una seria “sfida per la civiltà”.
“L’IA è così potente, un trofeo tanto allettante, che è molto difficile per la civiltà umana imporre qualsiasi freno”, ha scritto.
Sistemi di IA potenti potrebbero consigliare governi, organizzazioni o singoli su geopolitica, diplomazia o pianificazione militare, aggiunge Amodei.
Il rischio maggiore è che gli autocrati usino quei consigli generati dall’IA per “rubare per sempre” la libertà dei cittadini sotto il loro controllo e “imporre uno Stato totalitario da cui non si possa fuggire”, ha scritto.
L’uso su larga scala dell’IA per la sorveglianza, aggiunge, dovrebbe essere considerato un crimine contro l’umanità.
Amodei ha detto che esiste il rischio che il mondo si divida in sfere autocratiche, ciascuna delle quali usa l’IA per monitorare e reprimere la popolazione.
“Un’IA potente che osserva miliardi di conversazioni di milioni di persone potrebbe misurare l’opinione pubblica, rilevare la formazione di sacche di dissenso ed eliminarle prima che crescano”, si legge nel saggio.
Amodei indica il governo della Cina come principale preoccupazione, data la combinazione di competenze nell’IA, governance autocratica e un’infrastruttura di sorveglianza hi-tech già esistente.
Amodei ha anche affermato che le democrazie competitive nell’IA, i Paesi non democratici con grandi data center e le stesse aziende di IA sono potenziali attori che potrebbero abusare della tecnologia.
I chip, “il più grande collo di bottiglia”
Controllare la vendita dei chip avanzati usati per addestrare i modelli di IA è il modo più efficace per reagire, ha scritto.
Le democrazie non dovrebbero vendere queste tecnologie agli Stati autoritari, in particolare alla Cina, considerata il principale concorrente degli Stati Uniti nella corsa all’IA, ha aggiunto Amodei.
“I chip e gli strumenti per fabbricarli sono il più grande collo di bottiglia verso un’IA potente, e bloccarli è una misura semplice ma estremamente efficace, forse l’azione singola più importante che possiamo intraprendere”, ha detto.
Oltre ai controlli sull’export, Amodei ha proposto coordinamento settoriale e supervisione sociale. Ha chiesto leggi sulla trasparenza che obblighino le aziende di IA a rendere pubblico come guidano il comportamento dei loro modelli.
Cita la legge SB-53 della California, nota come Transparency in Frontier Artificial Intelligence Act (TFAIA), come esempio.
La legge obbliga le aziende di IA a pubblicare sui loro siti framework che descrivono come l’azienda integra nei modelli le migliori pratiche e gli standard nazionali e internazionali, secondo il governatore della California Gavin Newsom.
Ma Amodei è stato anche ottimista sul futuro dell’IA.
“Credo che, se agiamo con decisione e cautela, i rischi possano essere superati; direi persino che le nostre chance sono buone. E dall’altra parte c’è un mondo enormemente migliore. Ma dobbiamo capire che questa è una seria sfida per la civiltà”, ha detto.