Newsletter Newsletters Events Eventi Podcasts Video Africanews
Loader
Seguiteci
Pubblicità

OpenAI cambia i suoi principi: ecco cosa cambia

ARCHIVIO - Il logo di OpenAI su un cellulare davanti a un'immagine generata dal modello testo-immagine Dall-E di ChatGPT, 8 dicembre 2023, a Boston
ARCHIVIO - Il logo OpenAI appare su un cellulare davanti a un'immagine generata dal modello testo-immagine Dall-E di ChatGPT, l'8 dicembre 2023 a Boston Diritti d'autore  AP Photo/Michael Dwyer, File
Diritti d'autore AP Photo/Michael Dwyer, File
Di Anna Desmarais
Pubblicato il
Condividi Commenti
Condividi Close Button

Cosa è cambiato in quasi dieci anni di missione di OpenAI? Ecco cosa prevede il nuovo documento sui 'principi' dell'azienda.

OpenAI oggi è meno concentrata sull'intelligenza artificiale generale (AGI) rispetto a quasi dieci anni fa e punta invece a una diffusione più ampia della propria tecnologia, secondo una nuova dichiarazione di missione dell'azienda.

PUBBLICITÀ
PUBBLICITÀ

Domenica OpenAI ha pubblicato un aggiornamento del documento aziendale «Our Principles», che definisce come in futuro verrà gestita la sua tecnologia.

Ci sono differenze significative tra questa nuova serie di principi e le priorità di quasi dieci anni fa, quando OpenAI era una nascente organizzazione senza scopo di lucro dedicata alla ricerca sull'intelligenza artificiale (AI).

Meno enfasi sull'intelligenza artificiale generale

Nel 2018 (fonte in inglese), OpenAI era fortemente focalizzata sulla superintelligenza artificiale generale (AGI), cioè sull'idea che la propria tecnologia potesse superare l'intelligenza umana; oggi invece è solo un tassello di una più ampia diffusione dell'IA da parte dell'azienda.

In entrambe le versioni dei principi aziendali la missione di OpenAI è garantire che questa tecnologia «benefici l'intera umanità», ma il testo del 2018 menziona esplicitamente la necessità di svilupparla in modo sicuro e vantaggioso.

«Il nostro dovere fiduciario principale è verso l'umanità», si legge nel documento. «Prevediamo di dover mobilitare risorse ingenti per portare a termine la nostra missione, ma agiremo sempre con la massima attenzione per ridurre al minimo i conflitti di interesse tra i nostri dipendenti e stakeholder che potrebbero compromettere il beneficio più ampio possibile».

La versione 2026 (fonte in inglese), invece, afferma che è necessario continuare a costruire sistemi sicuri, ma che la società deve confrontarsi con «ogni successivo livello di capacità dell’IA, comprenderlo, integrarlo e trovare insieme la strada migliore da seguire».

Per Sam Altman, amministratore delegato e cofondatore, la strada da seguire nel 2026 è democratizzare l'IA a tutti i livelli, dando a tutti accesso a questi strumenti e contrastando l'idea che la tecnologia possa «concentrare il potere nelle mani di pochi».

Il documento sui principi del 2026 afferma inoltre che OpenAI si aspetta di lavorare con governi, agenzie internazionali e altre iniziative sull'AGI per «risolvere in misura sufficiente i gravi problemi di allineamento, sicurezza o impatto sociale prima di procedere oltre» con il proprio lavoro.

Tra gli esempi di questo impegno figurano l'uso di ChatGPT per contrastare modelli in grado di creare nuovi agenti patogeni o l'integrazione di modelli più resilienti agli attacchi informatici nelle infrastrutture critiche.

Altman aveva già dato qualche indizio su questo ridimensionamento dell'AGI sul suo blog personale all'inizio del mese.

L'AGI ha un «anello del potere» che «spinge le persone a comportarsi in modo folle», ha scritto Altman. Per contrastare questo rischio, ha aggiunto, l'unica soluzione è «puntare a condividere ampiamente la tecnologia con le persone, così che nessuno abbia l'anello».

OpenAI non si farà più da parte per un concorrente più sicuro

Nel 2018 OpenAI aveva espresso il timore che lo sviluppo dell'AGI stesse diventando «una corsa competitiva senza il tempo per adeguate precauzioni di sicurezza».

L'azienda si impegnava a fermare lo sviluppo dei propri modelli per sostenere qualsiasi progetto «allineato nei valori e attento alla sicurezza» che si avvicinasse di più alla costruzione dell'AGI.

«Definiremo in seguito i dettagli… ma una condizione tipica di attivazione potrebbe essere una probabilità superiore al 50% di successo nei prossimi due anni», si legge nel documento del 2018.

Nel testo del 2026 non si parla più di farsi da parte per una causa superiore. Il documento riconosce invece che OpenAI «oggi è una forza molto più grande nel mondo rispetto a qualche anno fa» e promette di essere trasparente su quando e come i suoi principi operativi potrebbero cambiare.

L'azienda è ormai in forte competizione con diversi rivali, tra cui Anthropic.

A febbraio, Anthropic si è rifiutata di concedere all'amministrazione del presidente statunitense Donald Trump accesso illimitato alla propria IA per scopi militari, decisione che ha portato l'azienda a essere classificata come rischio per la catena di approvvigionamento e ha spinto le autorità federali, a marzo, a ordinare agli agenti di smettere di usare Claude, l'assistente IA di Anthropic.

Il 28 febbraio OpenAI è intervenuta per colmare il vuoto, firmando un accordo con il Department of War, scelta che ha spinto alcuni utenti a boicottare ChatGPT in favore di Claude.

Anthropic è stata inoltre valutata questo mese 800 miliardi di dollari (696 miliardi di euro), alla pari con OpenAI.

Appelli generici rivolti all'intera società

Nel documento del 2026 OpenAI chiede una serie di cambiamenti sociali, in modo che il mondo possa adattarsi meglio all'IA.

«Immaginiamo un mondo in cui la prosperità sia diffusa a un livello che oggi è difficile anche solo concepire», si legge. «Molte delle cose che finora abbiamo relegato alla fantascienza potrebbero diventare realtà, e la maggior parte delle persone potrebbe condurre vite più significative rispetto a oggi».

Questo futuro non è garantito, avverte il documento, perché l'IA può essere «controllata da una piccola manciata di aziende che usano e gestiscono la superintelligenza» oppure «distribuita in modo decentralizzato tra le persone».

Il documento sui principi riprende inoltre alcune delle recenti proposte di politica di OpenAI, come l'invito ai governi a prendere in considerazione «nuovi modelli economici» e a sviluppare tecnologie in grado di ridurre i costi dell'infrastruttura per l'IA.

«Molte delle cose che facciamo e che possono sembrare strane, come acquistare enormi quantità di capacità di calcolo mentre i nostri ricavi sono ancora relativamente ridotti, sono motivate dalla nostra convinzione di fondo in un futuro di prosperità universale», si legge nel documento.

Vai alle scorciatoie di accessibilità
Condividi Commenti

Notizie correlate

Auto China 2026: i colossi cinesi dell'auto cambiano il mercato europeo

Aereo da 9 posti decolla in 50 metri: la Norvegia punta a collegare le aree remote

L'Europa può trattenere i suoi campioni industriali nell'era dell'IA?