Newsletter Newsletters Events Eventi Podcasts Video Africanews
Loader
Seguiteci
Pubblicità

OpenAI cambia i suoi principi: ecco cosa cambia

ARCHIVIO - Il logo di OpenAI su uno smartphone davanti a un'immagine generata dal modello di testo in immagine Dall-E di ChatGPT, l'8 dicembre 2023, a Boston
FILE - Il logo di OpenAI è visualizzato su un telefono cellulare davanti a un'immagine generata dal modello testo-immagine Dall-E di ChatGPT, l'8 dicembre 2023 a Boston Diritti d'autore  AP Photo/Michael Dwyer, File
Diritti d'autore AP Photo/Michael Dwyer, File
Di Anna Desmarais
Pubblicato il Ultimo aggiornamento
Condividi Commenti
Condividi Close Button

Cosa è cambiato in quasi dieci anni di missione di OpenAI? Ecco uno sguardo al nuovo documento sui principi dell’azienda.

OpenAI oggi è meno concentrata sull'intelligenza artificiale generale (AGI) rispetto a quasi dieci anni fa e punta invece a una diffusione più ampia della propria tecnologia, secondo una nuova dichiarazione di missione dell'azienda.

PUBBLICITÀ
PUBBLICITÀ

Domenica OpenAI ha pubblicato un aggiornamento del documento aziendale “Our Principles”, che definisce come gestirà la propria tecnologia in futuro.

Ci sono differenze importanti tra questo nuovo insieme di principi e le priorità di quasi dieci anni fa, quando OpenAI era una giovane organizzazione di ricerca sull'intelligenza artificiale (AI) senza scopo di lucro.

Meno enfasi sull'intelligenza artificiale generale

Nel 2018 (fonte in inglese) OpenAI era fortemente focalizzata sulla superintelligenza artificiale generale (AGI), cioè l'idea che la sua tecnologia avrebbe superato l'intelligenza umana. Oggi è solo un tassello della più ampia strategia di diffusione dell'AI dell'azienda.

In entrambe le versioni dei principi aziendali la missione di OpenAI è garantire che questa tecnologia “porti benefici all'intera umanità”, ma il testo del 2018 menziona in modo esplicito la necessità di svilupparla in modo sicuro e vantaggioso.

“Il nostro dovere fiduciario primario è nei confronti dell'umanità”, si legge nel documento. “Prevediamo di dover mobilitare risorse ingenti per portare a termine la nostra missione, ma agiremo sempre con attenzione per ridurre al minimo i conflitti di interesse tra i nostri dipendenti e stakeholder che potrebbero compromettere i benefici per tutti”.

La versione 2026 (fonte in inglese), invece, afferma che l'azienda deve continuare a creare sistemi sicuri, ma che la società deve confrontarsi con “ogni livello successivo di capacità dell'AI, comprenderlo, integrarlo e trovare insieme la strada migliore da seguire”.

Per il CEO e cofondatore Sam Altman, nel 2026 la via da seguire è democratizzare l'AI a tutti i livelli, dando a chiunque accesso agli strumenti e resistendo all'idea che questa tecnologia possa “concentrare il potere nelle mani di pochi”.

Il documento di principi del 2026 prevede inoltre che OpenAI collabori con governi, agenzie internazionali e altre iniziative sull'AGI per “risolvere in misura sufficiente gravi problemi di allineamento, sicurezza o impatto sociale prima di procedere oltre” con il proprio lavoro.

Tra gli esempi citati ci sono l'uso di ChatGPT per contrastare modelli capaci di creare nuovi agenti patogeni o l'integrazione di modelli cyber-resilienti nelle infrastrutture critiche.

Altman aveva lasciato intendere questo cambio di rotta sul suo blog personale all'inizio del mese.

L'AGI, ha scritto Altman, ha “un'aura di potere” che “porta le persone a fare cose folli”. Per contrastarla, a suo avviso, l'unica soluzione è “puntare a condividere ampiamente la tecnologia con le persone, e fare in modo che nessuno abbia l'anello”.

OpenAI non si farà più da parte in favore di un prodotto più sicuro

Nel 2018 OpenAI si diceva preoccupata che lo sviluppo dell'AGI stesse diventando “una corsa competitiva senza il tempo per adeguate misure di sicurezza”.

L'azienda si impegnava a fermare i propri modelli per sostenere qualsiasi progetto “allineato ai nostri valori e attento alla sicurezza” che si avvicinasse maggiormente alla realizzazione dell'AGI.

“Definiremo i dettagli… ma una tipica condizione di attivazione potrebbe essere ‘una probabilità superiore al 50 per cento di successo nei prossimi due anni’”, si legge nel documento del 2018.

Nel testo del 2026 non c'è alcun riferimento a farsi da parte per una causa superiore. Il documento riconosce invece che OpenAI “ha un peso nel mondo molto maggiore rispetto a qualche anno fa” e promette trasparenza su quando e come i suoi principi operativi potranno cambiare.

L'azienda è impegnata in una forte competizione con diversi rivali, tra cui Anthropic.

A febbraio Anthropic si è rifiutata di concedere all'amministrazione del presidente statunitense Donald Trump accesso illimitato alla propria AI per scopi militari. Questa decisione ha portato l'azienda a essere considerata un rischio per la catena di approvvigionamento e, a marzo, è stato ordinato agli agenti federali di smettere di usare l'assistente AI di Anthropic, Claude.

Il 28 febbraio OpenAI è intervenuta per colmare il vuoto, firmando un accordo con il Department of War, che ha spinto alcuni utenti a boicottare ChatGPT a favore di Claude.

Questo mese Anthropic è stata inoltre valutata 800 miliardi di dollari (696 miliardi di euro), una cifra paragonabile a quella di OpenAI.

Appelli vaghi all'intera società

Nel documento del 2026 OpenAI chiede diversi cambiamenti sociali, affinché il mondo possa adattarsi meglio all'AI.

“Immaginiamo un mondo in cui il benessere sia diffuso a un livello oggi difficile anche solo da concepire”, si legge nel documento. “Molte delle cose che finora abbiamo solo sognato nella fantascienza potrebbero diventare realtà, e la maggior parte delle persone potrebbe condurre una vita più significativa rispetto a oggi”.

Questo futuro però non è garantito, perché l'AI può essere “controllata da una piccola manciata di aziende che usano e gestiscono la superintelligenza” oppure “gestita in modo decentralizzato dalle persone”, avverte il documento.

Il documento sui principi riprende anche alcune delle recenti proposte di policy di OpenAI, ad esempio l'invito ai governi a valutare “nuovi modelli economici” e a sviluppare tecnologie che riducano i costi delle infrastrutture per l'AI.

“Molte delle cose che facciamo e che possono sembrare strane, come acquistare enormi quantità di capacità di calcolo mentre i nostri ricavi sono ancora relativamente limitati… sono guidate dalla nostra convinzione di fondo in un futuro di prosperità universale”, si legge nel documento.

Vai alle scorciatoie di accessibilità
Condividi Commenti

Notizie correlate

Auto China 2026: i colossi cinesi dell'auto cambiano il mercato europeo

Aereo da 9 posti decolla in 50 metri: la Norvegia punta a collegare le aree remote

L'Europa può trattenere i suoi campioni industriali nell'era dell'IA?