A Davos, i CEO di Microsoft, Anthropic e Google DeepMind delineano visioni e timori sull’IA.
L’intelligenza artificiale (IA) è stata al centro di quasi ogni conversazione a Davos 2026, alla pari con temi tradizionali come dazi, concorrenza internazionale e tensioni geopolitiche.
Lo scorso anno a Davos, l’azienda cinese DeepSeek ha fatto clamore lanciando il suo modello di IA e un chatbot che, secondo l’azienda, costava meno e offriva prestazioni pari al modello rivale ChatGPT di OpenAI.
Quest’anno il dibattito sull’IA si è ampliato: si parla di come viene implementata, dei rischi che comporta e del suo impatto su lavoro e società.
Ecco cosa hanno detto i leader tecnologici a Davos.
«Fare qualcosa di utile»: Satya Nadella
Il CEO di Microsoft, Satya Nadella, ha sottolineato l’utilità dell’IA.
«Noi, come comunità globale, dobbiamo arrivare a usare l’IA per fare qualcosa di utile che cambi i risultati per persone, comunità, Paesi e industrie», ha detto Nadella.
Nadella ha avvertito che l’adozione dell’IA sarà distribuita in modo diseguale nel mondo, limitata soprattutto dall’accesso a capitali e infrastrutture.
Sfruttare il potenziale dell’IA richiede «condizioni necessarie»: soprattutto attrarre investimenti e costruire infrastrutture adeguate, ha detto. Mentre le grandi aziende tech «stanno investendo ovunque, anche nel Sud globale», il successo dipende da politiche capaci di attirare capitali pubblici e privati.
Le infrastrutture critiche, come le reti elettriche, sono «in larga parte guidate dai governi», ha aggiunto, e le aziende private possono operare efficacemente solo quando sistemi di base come energia e reti di telecomunicazioni sono in funzione.
«Non vendere chip alla Cina è una delle cose più importanti che possiamo fare»: Dario Amodei
Il CEO e cofondatore di Anthropic ha definito lo sviluppo dell’IA entusiasmante: stiamo «bussando alla porta di capacità incredibili», ma i prossimi anni saranno decisivi per come regoliamo e governiamo la tecnologia.
Si è discusso di cosa accadrà dopo l’intelligenza artificiale generale (AGI), quando l’IA eguaglierà o supererà le capacità cognitive umane, con il rischio che gli esseri umani perdano il controllo.
Amodei ha sostenuto che «non vendere chip alla Cina è una delle azioni più importanti per assicurarci il tempo di gestire tutto questo», riferendosi al rischio di un’IA fuori controllo. Ha detto inoltre a Bloomberg che la vendita dei chip H200 di Nvidia alla Cina comporta «gravi» conseguenze per la leadership degli Stati Uniti nell’IA.
Amodei ha aggiunto che, se gli «avversari geopolitici che stanno costruendo a un ritmo simile rallentano», la vera competizione nell’IA sarà tra lui e le altre aziende tecnologiche, non uno scontro tra Stati Uniti e Cina.
Quanto al futuro del lavoro, Amodei ha sostenuto che l’IA potrebbe cancellare metà degli impieghi d’ufficio di primo livello.
Ha precisato però che, al momento, l’impatto dell’IA sul mercato del lavoro non è massiccio, ma sta già vedendo alcuni cambiamenti nel settore della programmazione.
Demis Hassabis: «Nuovi lavori più significativi»
Il CEO di DeepMind Technologies di Google è apparso più ottimista. Nello stesso panel di Amodei, ha detto di aspettarsi la creazione di «nuovi lavori più significativi».
Secondo Hassabis, le assunzioni di stagisti rallenteranno, ma questo sarà «compensato dagli straordinari strumenti a disposizione di tutti».
Agli studenti universitari ha consigliato, invece dei tirocini, di usare il tempo per «diventare davvero competenti con questi strumenti», che «potrebbe essere meglio dei tirocini tradizionali, perché vi fa fare un salto in avanti nei prossimi cinque anni».
Ha però avvertito che, dopo l’arrivo dell’AGI, il mercato del lavoro entrerà in «territorio inesplorato».
Secondo Hassabis, ciò potrebbe accadere tra cinque e dieci anni e potrebbe non esserci lavoro sufficiente per tutti, ponendo questioni più ampie su senso e scopo, non solo sugli stipendi.
Il CEO ha anche osservato che la competizione geopolitica e tra aziende di IA sta accelerando gli standard di sicurezza. Ha chiesto un’intesa internazionale, ad esempio uno standard minimo di sicurezza, da sviluppare a un ritmo leggermente più lento, così «da fare la cosa giusta per la società».