La startup cinese di intelligenza artificiale torna a un anno di distanza, dopo aver sconvolto il settore con una potenza di calcolo d’avanguardia a una frazione del costo dei modelli rivali.
La società cinese di intelligenza artificiale (IA) DeepSeek ha presentato un'anteprima del suo nuovo grande modello linguistico, V4, mentre la corsa globale all'IA accelera.
DeepSeek è diventata una delle aziende di IA più osservate lo scorso anno dopo aver lanciato, a gennaio 2025, modelli che sembravano offrire prestazioni elevate a costi inferiori rispetto a molti rivali statunitensi.
La startup con sede a Hangzhou ha presentato il modello nelle versioni DeepSeek V4-Pro e DeepSeek V4-Flash. V4-Pro è un modello più grande pensato per compiti più impegnativi, mentre V4-Flash è una versione più piccola, progettata per rispondere più rapidamente e con costi operativi inferiori.
'Nei benchmark sulla conoscenza generale, DeepSeek V4-Pro supera nettamente gli altri modelli open source ed è superato di poco solo dal modello proprietario di fascia alta Gemini-3.1-Pro', ha dichiarato DeepSeek.
L'azienda ha spiegato che il nuovo modello di IA supporta una 'lunghezza del contesto di un milione di token', il che significa che può ricevere prompt molto più lunghi, come documenti o codice estesi, prima di produrre una risposta.
Nel campo dell'IA, lunghezza del contesto indica la quantità di testo, misurata in token, che un modello può considerare in un'unica elaborazione. Una finestra di contesto più ampia consente a un modello di elaborare input più lunghi e includere più informazioni in ogni risposta, secondo IBM (fonte in inglese).
«Benvenuti nell'era del contesto da 1 milione di token a costi contenuti», ha affermato l'azienda in un annuncio su Hugging Face, una piattaforma di IA open source.
DeepSeek ha aggiunto che V4 offre un contesto esteso ai vertici mondiali con costi di calcolo e di memoria drasticamente ridotti.
DeepSeek ha confrontato V4-Pro con i modelli concorrenti di OpenAI, Anthropic e Google, anche se Gemini-3.1-Pro di Google ha ottenuto punteggi più alti in alcuni test.
Il nuovo modello può essere utilizzato con agenti di IA molto diffusi come Claude Code, OpenClaw e OpenCode, consentendo agli sviluppatori di impiegarlo per attività software al di fuori del chatbot proprietario di DeepSeek.
Nota per un approccio più aperto rispetto ai concorrenti che puntano su modelli di IA chiusi, DeepSeek ha inoltre reso V4 scaricabile, testabile e liberamente adattabile su Hugging Face.
La startup cinese si è fatta notare alla fine del 2024 con il suo modello open source V3, che ha sorpreso il settore dell'IA offrendo prestazioni elevate a costi contenuti e utilizzando chip meno potenti rispetto a molti rivali statunitensi, tra cui OpenAI e Google.
La corsa globale all'IA
L'azienda ha attirato l'attenzione mondiale a gennaio 2025 quando ha presentato R1, un modello di IA per il ragionamento che, secondo la società, era più economico e offriva prestazioni paragonabili ai grandi modelli linguistici che alimentano ChatGPT, sviluppato da OpenAI.
Tuttavia, lo scorso anno alcuni Paesi, tra cui l'Italia, gli Stati Uniti e la Corea del Sud, hanno vietato alle agenzie governative di utilizzare DeepSeek, citando timori legati alla sicurezza nazionale.
La Germania ha inoltre vietato DeepSeek sugli store di Apple e Google nel 2025, denunciando il trasferimento illegale di dati degli utenti verso la Cina.
Il lancio di V4 arriva a un giorno di distanza da quello del nuovo modello di IA di OpenAI, il colosso statunitense del settore, che ha presentato GPT-5.5 definendolo il suo modello 'più intelligente e intuitivo' di sempre.
Il lancio arriva anche all'indomani delle accuse della Casa Bianca alla Cina di aver rubato, su scala industriale, la proprietà intellettuale (IP) dei laboratori statunitensi di IA utilizzando migliaia di account di copertura.
OpenAI, Anthropic e Google hanno avvertito quest'anno che le aziende cinesi di IA, tra cui DeepSeek, stavano conducendo attacchi di estrazione di modello (Model Extraction Attacks, MEA), noti anche come 'distillazione'.
La tecnica consiste nel sottoporre il modello più grande a migliaia di domande, raccoglierne le risposte e utilizzare quelle risposte per addestrare un nuovo modello più piccolo a ragionare nello stesso modo.