Più di 960 personalità tra politici e leader dell'industria AI hanno firmato una lettera pubblica per vietare lo sviluppo di una superintelligenza artificiale, che potrebbe avere gravi conseguenze per la sicurezza degli esseri umani
Oltre 960 personalità pubbliche hanno firmato una lettera pubblica in cui si chiede di vietare lo sviluppo di una superintelligenza artificiale in grado di superare l'intelletto umano. La lettera è stata pubblicata martedì dall'organizzazione Future of Life Institute.
Tra i firmatari ci sono anche scienziati informatici di spicco come il premio Nobel Geoffrey Hinton e Yoshua Bengio, considerati i "padri" dell'AI, così come il cofondatore di Apple, Steve Wozniak, e il fondatore di Virgin Group, Richard Branson.
La superintelligenza è generalmente definita come un'AI che supera le capacità cognitive umane. Alcuni esperti temono che ciò possa far perdere agli esseri umani il controllo su questi sistemi. Secondo una previsione formulata negli anni ’50 dal celebre informatico Alan Turing, l’esito più probabile è che siano le macchine a prendere il controllo.
Secondo i leader mondiali, vincere la corsa all'AI è cruciale per la sicurezza nazionale e per i progressi in sanità, economia e tecnologia.
Intanto aziende tecnologiche come Meta usano il termine "superintelligenza" come parola d’ordine per promuovere i loro ultimi modelli di AI. Quest'anno Meta ha chiamato la sua divisione dedicata ai modelli linguistici di grandi dimensioni “Meta Superintelligence Labs”.
La lettera afferma che la corsa verso la superintelligenza "ha sollevato preoccupazioni riguardanti la perdita di autonomia degli esseri umani, le possibili limitazioni di libertà e diritti civili, i rischi per la sicurezza nazionale e persino la possibile estinzione dell’umanità”.
Nella lettera si chiede “un divieto sullo sviluppo della superintelligenza, da revocare solo quando vi sia un ampio consenso scientifico sul fatto che possa essere realizzata in modo sicuro e controllabile, e un forte sostegno pubblico”.
Figure di spicco dell'AI, come l’amministratore delegato di OpenAI, Sam Altman, hanno già affermato che lo sviluppo di un’intelligenza artificiale sovrumana (Smi) “è probabilmente la minaccia più grande alla sopravvivenza dell’umanità”.
Intanto, l’amministratore delegato di Microsoft, Mustafa Suleyman, ha dichiarato: “Finché non possiamo dimostrare in modo inequivocabile che è sicura, non dovremmo svilupparla.”
Tuttavia, Altman e Suleyman non sono tra i firmatari della lettera.
Altman ha però sostenuto lo sviluppo dell'intelligenza artificiale generale (Agi), definita in modo ampio come un tipo di AI che eguaglia o supera le capacità cognitive umane, considerata la fase precedente alla superintelligenza. Secondo Altman questa può "elevare l’umanità" e non implica che le macchine prendano il controllo.
Tra i firmatari della lettera ci sono anche accademici, volti dei media come Stephen Fry e Steve Bannon, leader religiosi ed ex politici.