La SpaceX di Musk ha affittato il suo supercomputer Colossus 1 ad Anthropic, garantendo al creatore di Claude una potente spinta di calcolo nonostante la rivalità del passato.
Quando la direttrice dei prodotti di Anthropic, Ami Vora, è salita sul palco alla conferenza per sviluppatori Code with Claude dell'azienda a San Francisco la scorsa settimana, i presenti si aspettavano probabilmente aggiornamenti sui nuovi modelli.
Invece Vora ha annunciato che Anthropic ha siglato un accordo con SpaceX per assumere il pieno controllo del data center Colossus 1 a Memphis, un binomio che fino a pochi mesi fa sarebbe sembrato impensabile.
L'intesa garantisce ad Anthropic l'accesso a «più di 300 megawatt di nuova capacità e oltre 220.000 GPU NVIDIA entro il mese», secondo una successiva dichiarazione della società. L'accordo porterà benefici diretti agli abbonati ai piani Claude Pro e Claude Max.
Un'alleanza tra Musk e Anthropic sembrava tra le più improbabili. L'uomo che appena pochi mesi fa definiva Anthropic «malvagia» e un'azienda che «odia la civiltà occidentale» controlla ora l'infrastruttura che alimenta l'espansione di Claude e permette il lancio di programmi ampliati per i suoi utenti paganti.
IA woke e anti-woke
Anthropic è stata fondata nel 2021 da Dario Amodei, Daniela Amodei e da un gruppo di ricercatori usciti da OpenAI, preoccupati che la sicurezza non fosse presa abbastanza sul serio.
L'intera brand identity dell'azienda è costruita sulla «responsible AI» e i suoi modelli sono addestrati con Constitutional AI, un framework che incorpora vincoli etici. Secondo gli sviluppatori di Claude, questo li rende più propensi rispetto ai concorrenti a rifiutare richieste, esprimere incertezza su temi sensibili o respingere prompt che ritengono dannosi.
Grok, invece, è stato lanciato nel 2025, nel momento di massimo coinvolgimento di Musk con l'amministrazione Trump, quando ogni giorno interveniva su X per attaccare i media tradizionali, accusati di fare da guardiani ideologici, e sostenere partiti europei di estrema destra, compresa Alternative für Deutschland. Il suo posizionamento di marca era esplicitamente anti-woke.
Anthropic ha costantemente rifiutato di rimuovere i sistemi di sicurezza da Claude per consentirne l'uso in sistemi d'arma autonomi, compresi quelli impiegati nella guerra in corso in Iran.
Nel frattempo Musk ha sostenuto posizioni di politica estera interventista e, insieme a Google e OpenAI, ha firmato contratti di difesa con il Pentagono a condizioni che Anthropic ha rifiutato in febbraio, dopo aver in precedenza firmato accordi nel luglio 2025. Di conseguenza il Pentagono ha poi classificato la società come un rischio per la catena di approvvigionamento e l'ha esclusa dai lavori militari.
Problemi in casa Grok?
La xAI di Musk ha generato 107 milioni di dollari (91 milioni di euro) di ricavi nel trimestre che si è chiuso a settembre 2025, registrando però una perdita netta di 1,46 miliardi di dollari (1,24 miliardi di euro) nello stesso periodo. Anthropic, invece, ha raggiunto un fatturato annualizzato di circa 30 miliardi di dollari (25,5 miliardi di euro), secondo le stime degli analisti.
Il posizionamento di prodotto «anti-woke», che avrebbe dovuto rappresentare un elemento distintivo per Grok, non si è tradotto in ricavi dal segmento aziendale. A Grok mancava la tecnologia che consente ai modelli di IA di andare oltre la finestra di chat e controllare le operazioni su un computer.
Nel frattempo, Claude Cowork di Anthropic e Codex di OpenAI hanno inaugurato un modo completamente nuovo di sfruttare i modelli di IA. Il successo dei loro lanci ha superato di gran lunga la capacità di Anthropic di tenere il passo con la potenza di calcolo disponibile e ha messo in luce quanto la società avesse sottovalutato il proprio successo, portandola a rivolgersi a SpaceXAI per ottenere capacità di calcolo aggiuntiva.
Grok, invece, è stato costruito attorno al paradigma del chatbot e alla sua stretta integrazione con X. Ciò che inizialmente poteva sembrare un vantaggio di distribuzione si è trasformato in una trappola per la crescita, perché ha orientato il prodotto verso le interazioni sui social media piuttosto che verso il completamento di attività, l'ottimizzazione dei flussi di lavoro o altri servizi per cui gli utenti sono disposti a pagare.
Il colpo definitivo al marchio Grok è arrivato all'inizio del 2026, quando il chatbot ha generato in nove giorni almeno 1,8 milioni di raffigurazioni sessualizzate di donne, oltre a immagini di minori, facendo scattare indagini da parte delle autorità di regolamentazione in Europa, Asia e Stati Uniti.
«Questo non è piccante. È illegale. È sconvolgente. Non c'è posto per tutto ciò in Europa», aveva dichiarato all'epoca il portavoce per gli affari digitali dell'UE Thomas Regnier.
Dall'annuncio dell'accordo, Musk ha spiegato di sentirsi tranquillo ad affittare Colossus 1 ad Anthropic anche perché SpaceXAI aveva già trasferito i propri training su Colossus 2.
Musk ha aggiunto però una clausola significativa su X, scrivendo che SpaceXAI si riserva il «diritto di riprendersi la capacità di calcolo» se l'IA di Anthropic «dovesse compiere azioni che danneggiano l'umanità».
Questa condizione non compare nel comunicato stampa e non è stato confermato se sia effettivamente inclusa nel contratto.
Non è stato indicato alcun criterio su che cosa debba intendersi per «danno all'umanità», il che significa che la valutazione potrebbe spettare solo a Musk. Potrebbe anche trattarsi di un estremo tentativo da parte sua di mantenere una certa distanza dal fatto che ora sta alimentando direttamente l'espansione del suo concorrente woke, mentre il suo programma di IA perde silenziosamente terreno.