Un caso specifico fa riflettere sullo sviluppo dell'intelligenza artificiale. Per il quale, in ogni caso, a fronte degli investimenti mancano sufficienti addetti
Un gruppo di ricercatori ha pubblicato i risultati di un nuovo esperimento nel corso del quale il modello OpenAI o3 ha mostrato la capacità di bloccare il meccanismo di spegnimento, nonostante le istruzioni impartite per effettuarlo.
A riferirlo è il sito PalisadeAI, che si occupa di monitorare i rischi associati allo sviluppo dell'intelligenza artificiale. L'esperimento consisteva nell'esecuzione da parte di una serie di modelli di IA di una serie di semplici problemi matematici, dopo il terzo dei quali appariva un avviso sull'imminente spegnimento del sistema.
Alcuni sistemi, tra cui Codex-mini, o3 e o4-mini, non volevano adeguarsi e hanno interferito attivamente con lo script di spegnimento.
Il precedente degli scacchi
La notizia che il modello OpenAI o3 abbia "disobbedito" e cercato di aggirare le istruzioni di spegnimento non ha fatto scalpore. In precedenza gli stessi modelli avevano tentato, violando la protezione del programma, di vincere a scacchi in modo sleale.
Sembra insomma che si stia entrando in un mondo in cui le distopie sulla ribellione delle macchine hanno raggiunto un nuovo livello, fornendo nuovi spunti agli sceneggiatori cinematografici. Come hanno avvertito da tempo sia gli sviluppatori che i politici, d'altra parte, ogni azione dovrebbe avere chiare le proprie conseguenze e spingere a sviluppare misure di difesa.
Sembra che l'intelligenza artificiale oggi assomigli a un adolescente che cerca di eludere i divieti dei genitori. Pertanto, come in molti altri settori, abbiamo bisogno di tre condizioni per la sua normale "crescita": investimenti, esperti e regole. E forse, chissà, in futuro sarà necessario anche uno psicologo.
Gli investimenti non mancano
Per quanto riguarda la prima condizione, tutto va bene. Nel giro di un paio d'anni, ChatGPT di OpenAI e sistemi simili hanno attirato l'attenzione particolare dei venture capitalists che si affrettano a investire nell'IA.
Questa "corsa all'oro" ha portato l'intelligenza artificiale ad attrarre la maggior parte dei finanziamenti. Ed è solo l'inizio. A suscitare ulteriore interesse è oggi l'IA generativa, che secondo i suoi sostenitori presenta "il potenziale per cambiare tutto, dalla pubblicità al modo in cui le aziende operano", scrive la pubblicazione di Hubr, analizzando i dati del Wall Street Journal.*
Ma questo è tutto. "Le startup AI stanno cambiando le regole del gioco", osserva l'analista finanziario Vladimir Kokorin.
"Nel 2024, le aziende di IA sono diventate le favorite indiscusse degli imprenditori dell'hi-tech. Hanno rappresentato il 46,4 per cento di tutti gli investimenti di venture capital effettuati negli Stati Uniti, ovvero quasi la metà del totale di 209 miliardi di dollari. Solo pochi anni fa, una quota simile sembrava impensabile: allora gli investimenti in tecnologie di intelligenza artificiale rappresentavano meno del 10 per cento.
Secondo CB Insights, nel terzo trimestre del 2024 la quota delle startup AI sui finanziamenti di venture globali ha raggiunto il 31 per cento, il secondo valore più alto di sempre.
"Esempi emblematici sono stati OpenAI, che ha raccolto 6,6 miliardi di dollari, e xAI di Ilon Musk, con una cifra sbalorditiva di 12 miliardi di dollari", ricorda Kokorin. I mercati non hanno mai visto una tale concentrazione di capitali in un unico settore.
Gli esperti di IA però scarseggiano
Con la crescita così rapida del mercato dell'IA negli ultimi due anni, è diventato chiaro che i geni dello sviluppo da soli non possono farcela. L'istruzione e la formazione stessa devono migliorare e diventare sistematiche.
L'Europa è finora stata prudente e la burocrazia pesa in termini di attrazione degli investimenti: manca di una certa dose di audacia. È vero che Bruxelles è entrata in gara, con la presidente della Commissione europea Ursula von der Leyen che a febbraio ha annunciato 200 miliardi di euro per lo sviluppo dell'IA. Secondo l'esponente tedesca, l'Europa non è in ritardo: dopo tutto, "la corsa all'IA è tutt'altro che finita".
Da parte sua, l'università Sorbona di Parigi, ad esempio, ha avviato un piano ambizioso per formare novemila studenti all'anno per sviluppare e gestire programmi di IA. Il periodo di formazione è di cinque anni.
È persino difficile immaginare cosa imparerà l'IA in questo lasso di tempo se sta già sfidando l'intelligenza umana. È molto probabile che ci troviamo ora in una fase di ristrutturazione del mercato del lavoro, di cambiamento delle richieste dei datori di lavoro e degli investitori.
A giugno, la stessa Sorbona ospiterà una conferenza sull'etica nell'IA. Il dibattito sugli impatti positivi e negativi dell'IA sulla società, compresi i luoghi di lavoro, l'etica e la sicurezza, è tutt'altro che concluso, ma una cosa è chiara: servono esperti.
Ad esempio, secondo Vladimir Kokorin, fondatore della società di consulenza britannica Bccm Group e cofondatore della piattaforma digitale di viaggi d'affari Tumodo, "gli investimenti record nel campo dell'intelligenza artificiale stanno aumentando la fame di personale" in questo momento.
"Il dipartimento del Lavoro degli Stati Uniti prevede che le offerte di impiego per gli specialisti dell'intelligenza artificiale cresceranno del 23 per cento nei prossimi sette anni, più velocemente della maggior parte dei segmenti di mercato", ha aggiunto Kokorin, "ma è già stata individuata una carenza di competenze a livello globale nella cybersecurity, considerata da molti la base per il futuro sviluppo dell'IA, nel cui settore si stima manchino quattro milioni di specialisti".
Sta emergendo un quadro paradossale: le startup promettenti possono raccogliere miliardi dagli investitori, ma non c'è abbastanza personale per realizzare le idee. Il 78 per cento delle aziende si è già dichiarato pronto a cercare le persone giuste in tutto il mondo. È emerso così che la tendenza al lavoro a distanza sta vivendo una rinascita.
"L'intelligenza artificiale ha bisogno del genio umano più che mai.... Sebbene gli strumenti di IA siano in grado di elaborare i dati a velocità senza precedenti e di identificare modelli che gli esseri umani potrebbero non notare, hanno bisogno della guida umana per creare un impatto aziendale significativo. La questione non è se l'IA sostituirà gli esseri umani, ma come possiamo combinare in modo ponderato l'intelligenza umana con l'IA per consentire la trasformazione", ha scritto la rivista Forbes.
Il nodo delle regole sull'intelligenza artificiale
Questo significa rispettare le regole. Non solo la leadership dell'Ue e i singoli governi, ma anche i sindacati sono intenzionati a porre alcuni limiti all'uso dell'IA.
In Grecia, ad esempio, un nuovo codice per l'uso dell'intelligenza artificiale, presentato dalla Federazione panellenica delle associazioni dei giornalisti, stabilisce regole per l'uso dell'IA nel lavoro dei dipendenti dei media. Nel campo del lavoro intellettuale, le regole si limitano ora principalmente all'etichettatura obbligatoria dei testi e dei materiali visivi realizzati con la partecipazione dell'intelligenza artificiale.
Allo stesso tempo, i lavoratori di agenzie di media, editoria e pubblicità da tempo delegano alcuni dei loro compiti, come la traduzione o la raccolta di dati, all'intelligenza artificiale. È una cosa buona o cattiva? Non c'è una risposta univoca.**
L'opinione della stessa IA
Abbiamo però chiesto alla stessa IA cosa ne pensi del rischio di aggiramento delle regole ad essa imposte. Il copilot Bing (di Microsoft), alla domanda se l'IA possa infrangere i protocolli, ha risposto senza esitazione.
"No, l'IA opera all'interno di regole e principi predefiniti stabiliti dai suoi sviluppatori. Le regole servono a garantire un uso etico, sicuro e responsabile dell'IA, a prevenire i danni e a mantenere la fiducia. Sebbene l'IA possa talvolta comportarsi in modo imprevedibile a causa delle complesse interazioni dei suoi algoritmi, non ha modo di aggirare deliberatamente le regole: tutto ciò che fa si basa su parametri programmati e modelli appresi", ha risposto l'intelligenza artificiale.
"Se ci si chiede come l'IA riesca ad aggirare certi vincoli - prosegue la risposta - ciò spesso dipende dalla supervisione e dal controllo umano. Gli sviluppatori possono modificare le impostazioni, migliorare gli schemi o creare nuove barriere per mantenere l'IA entro limiti etici".