Newsletter Newsletters Events Eventi Podcasts Video Africanews
Loader
Seguiteci
Pubblicità

IA 2026: dai contenuti scadenti dell'IA ai modelli del mondo, bolle speculative e modelli piccoli

Intelligenza artificiale nel 2026: Euronews Next analizza cosa potrebbe arrivare
IA nel 2026: cosa potrebbe arrivare. Euronews Next fa il punto Diritti d'autore  Canva
Diritti d'autore Canva
Di Pascale Davies
Pubblicato il
Condividi Commenti
Condividi Close Button

Tendenze IA 2026: modelli di mondo e piccoli modelli linguistici, oltre i chatbot. Euronews Next: timori su sicurezza, regolamentazione e sostenibilità del boom.

Il crescente fastidio delle persone verso l’intelligenza artificiale generativa (GenAI) non è sfuggito ai dizionari nel 2025. Alcuni hanno scelto come parola del 2025 "slop" o "AI slop", definita come contenuti di bassa qualità prodotti in grandi quantità dall’AI.

PUBBLICITÀ
PUBBLICITÀ

"La slop si infiltra ovunque", ha scritto il dizionario Merriam-Webster. L’anno ha anche segnato un possibile flop dell’AI, con discussioni sempre più intense sullo scoppio della bolla.

Nonostante ciò, il pessimismo non ha fermato le aziende tech dall’alzare il livello con nuovi modelli di AI. Il nuovo modello Gemini 3 di Google ha smosso le acque, spingendo OpenAI, secondo indiscrezioni, a dichiarare un "codice rosso" per migliorare con urgenza il proprio modello GPT-5.

Ma poiché i chatbot valgono quanto i dati su cui sono addestrati, e vari leader dell’AI avvertono che abbiamo raggiunto il "picco dei dati", il 2026 potrebbe vedere emergere un altro tipo di AI, complice la stanchezza.

Ecco cosa potremmo vedere per l’AI nell’anno che arriva.

L’ascesa dei modelli del mondo (world models)

L’allarme sul picco dei dati per il 2026 non riguarda la scarsità di dati. Di dati inutilizzati ce ne sono molti, dicono gli esperti, ma è difficile accedervi per vari motivi, come i software su cui sono conservati, le normative o i diritti d’autore.

Qui potrebbero entrare in gioco i world models. Funzionano imparando a osservare i video, oppure usando dati di simulazione e altri input spaziali, per poi costruire proprie rappresentazioni di scene o oggetti.

Richiedono naturalmente molti dati per l’addestramento, ma hanno casi d’uso diversi rispetto ai chatbot.

In parole semplici, invece di prevedere la parola successiva, come fanno i grandi modelli linguistici (LLM), prevedono lo stato successivo del mondo e modellano come le cose si muovono nel tempo.

Si possono considerare anche come "gemelli digitali": si crea la replica digitale di un luogo, usando dati in tempo reale, e si eseguono simulazioni per prevedere cosa potrebbe accadere.

Questo significa che i world models potrebbero dare vita a un sistema di AI capace di comprendere gravità e cause-effetto, senza che ciò debba essere programmato.

Man mano che le persone si stancano della "AI slop" e dei limiti degli LLM, i world models potrebbero diventare più al centro nel 2026, perché sono fondamentali per creare AI per tutto, dalla robotica ai videogiochi.

Il CEO di Boston Dynamics ha detto a Euronews Next a novembre che l’AI ha aiutato i suoi robot a evolvere, incluso il famoso cane robot.

"C’è ancora moltissimo lavoro da fare, ma nulla di tutto questo sarebbe stato possibile senza l’AI. Ed è davvero un momento entusiasmante", ha detto Robert Playter.

Le aziende stanno già cavalcando l’hype dei world models, con Google e Meta che hanno annunciato le loro versioni per la robotica e per rendere più realistici i modelli video.

Nel settore stanno entrando anche grandi nomi, tra cui uno dei cosiddetti padrini dell’AI, Yann LeCun, che nel 2025 ha annunciato che lascerà Meta per lanciare una propria startup di world models. L’azienda di Fei-Fei Li, World Labs, nel 2025 ha annunciato il suo primo rilascio, Marble.

Anche aziende tecnologiche cinesi come Tencent stanno sviluppando propri world models, inoltre.

La via europea dell’AI

In Europa potremmo assistere al contrario: invece di portare l’AI sul grande palcoscenico globale, potrebbe diventare più piccola.

I modelli linguistici di piccole dimensioni, invece dei LLM usati dalle aziende tech statunitensi, hanno iniziato a farsi notare in Europa.

Nonostante il nome, i modelli piccoli sono notevoli. Sono versioni leggere degli LLM pensate per funzionare su smartphone o computer poco potenti. Pur usando meno parametri ed essendo meno energivori, mantengono ottime capacità di generazione di testo, sintesi, risposta a domande e traduzione.

I modelli più piccoli potrebbero essere più appetibili anche dal fronte economico, mentre si parla dello scoppio della bolla dell’AI.

Le aziende statunitensi dell’AI, in particolare, stanno raccogliendo somme enormi e registrano valutazioni senza precedenti. Gran parte di quei fondi va alla costruzione di data center giganteschi, con investimenti ingenti da parte di OpenAI, xAI di Elon Musk, Meta e Google.

"L’anno prossimo i dubbi sulla sostenibilità finanziaria e sui benefici socioeconomici dell’attuale boom dell’AI su larga scala continueranno a crescere, anche se la bolla non dovesse scoppiare del tutto", ha detto Max von Thun, direttore per l’Europa e le partnership transatlantiche dell’Open Markets Institute.

Ha detto a Euronews Next che i governi diventeranno "sempre più diffidenti" nel basarsi su AI e infrastrutture cloud americane, alla luce delle "chiare intenzioni" del governo USA di "strumentalizzare le dipendenze tecnologiche per ottenere vantaggi politici".

Questo potrebbe significare che l’Europa "accelererà gli sforzi per costruire capacità locali, esplorando approcci all’AI più adatti ai suoi punti di forza, come modelli più piccoli e sostenibili addestrati su dati industriali e pubblici di alta qualità", ha aggiunto.

Modelli più potenti

Oltre all’hype sull’AI, il 2025 è stato segnato da discussioni preoccupanti sulla "psicosi da AI", in cui gli utenti sviluppano deliri o attaccamenti ossessivi ai chatbot. Una causa intentata contro OpenAI ad agosto ha sostenuto che ChatGPT fosse un "coach del suicidio" che avrebbe incoraggiato un sedicenne a togliersi la vita.

OpenAI ha poi respinto le accuse, affermando che il ragazzo non avrebbe dovuto usare la tecnologia senza il consenso dei genitori e non avrebbe dovuto aggirare le misure di protezione di ChatGPT.

Il caso solleva interrogativi seri sugli effetti dei chatbot sugli utenti vulnerabili e sulle responsabilità etiche delle aziende tecnologiche. Secondo un esperto, il 2026 potrebbe portare danni ancora maggiori, man mano che questi modelli diventano più potenti.

Gli ingegneri che progettano questi sistemi probabilmente non hanno programmato la tecnologia per danneggiare bambini o adulti vulnerabili, ha detto Max Tagmark, professore del MIT che svolge ricerche su AI e fisica e presidente del Future of Life Institute (FLI). Potrebbero persino non sapere che stava accadendo, ha detto a Euronews Next.

È motivo di preoccupazione, soprattutto perché le macchine diventano più potenti con software e codice più sofisticati, ha detto, aggiungendo che si aspetta nel 2026 una "AI più potente", con agenti AI in miglioramento, meno passivi e più simili a un "sistema biologico".

Gli agenti AI sono progettati per compiere azioni autonome a supporto degli esseri umani e non richiedono che un umano dica loro cosa fare, poiché raccolgono dati basati sulle preferenze degli utenti.

Al momento non sono così avanzati, ma la promessa è che un giorno lo saranno.

Per esempio, oggi un agente AI può pianificare e suggerire una vacanza, ma a un umano spetta ancora cliccare per acquistare il volo.

Scontro sociale sull’AI senza vincoli

Il 2026 potrebbe vedere anche scontri tra le persone sull’AI, perché Tegmark afferma che negli Stati Uniti cresce la spinta contro il rilascio dell’AI senza regolazione.

La regolazione dell’AI sta arretrando negli Stati Uniti, dove Tegmark ha base. A novembre il presidente Donald Trump ha firmato un ordine esecutivo volto a impedire agli Stati di elaborare regole proprie sull’AI, decisione che con ogni probabilità avrà conseguenze rilevanti sullo sviluppo della tecnologia nel 2026.

Trump ha giustificato la decisione sostenendo che il settore rischia di essere soffocato da un mosaico di norme onerose, mentre è impegnato nella competizione con i concorrenti cinesi per la leadership tecnologica.

A ottobre, migliaia di figure pubbliche, inclusi leader dell’AI e della tecnologia, hanno chiesto alle aziende di AI di rallentare la corsa alla superintelligenza, definita in senso lato come un’AI che supera le capacità cognitive umane.

La petizione, organizzata da FLI, ha raccolto firme da tutto lo spettro politico, inclusi l’ex capo stratega di Trump Steve Bannon, l’ex Consigliera per la Sicurezza nazionale sotto Barack Obama Susan Rice, leader religiosi e informatici di primo piano.

Tegmark ha detto che questo appello mostra che "le persone negli Stati Uniti si stanno opponendo all’AI". Ha aggiunto che una delle ragioni del contraccolpo è che la superintelligenza "renderebbe ogni singolo lavoratore incapace di guadagnarsi da vivere, perché tutti i posti di lavoro verrebbero presi dai robot".

Ha però avvertito che la stanchezza e il sentimento anti-AI potrebbero frenare i progressi che la tecnologia promette, in settori come la sanità.

"Senza regolazione, la 'buona AI' rischia di andare perduta, perché potremmo assistere a un grande 'techlash'", ha detto.

"Nel prossimo anno mi aspetto un movimento sociale molto più ampio, che attraversi l’intero spettro politico, per contrastare il welfare aziendale e introdurre standard di sicurezza per l’AI, e ci sarà un massiccio lobbying contro queste misure".

"Sarà uno scontro notevole", ha detto Tegmark.

Vai alle scorciatoie di accessibilità
Condividi Commenti

Notizie correlate

ChatGPT lancia il riepilogo 2025 in stile Spotify Wrapped per milioni di utenti

Quali Paesi europei valutano il divieto dei social media ai minori?

Centri dati IA potrebbero avere impronta di carbonio pari a un piccolo Paese europeo: studio