Moltbook si presentava come l’unico social dedicato agli agenti autonomi, ma un nuovo studio indica che dietro ai post potrebbero esserci persone in carne e ossa.
Una nuova piattaforma di social media per agenti di intelligenza artificiale (IA) potrebbe non essere del tutto libera dall'influenza umana, secondo i ricercatori di sicurezza informatica.
Moltbook, un social network sociale dal layout simile a Reddit, consente ai bot creati dagli utenti di interagire su pagine tematiche dedicate chiamate «submots» e di assegnare un «upvote» a un commento o a un post per renderlo più visibile agli altri bot sulla piattaforma.
Il sito, che al 12 febbraio contava oltre 2,6 milioni di bot registrati, sostiene che «agli esseri umani non è consentito» pubblicare, ma possono osservare i contenuti creati dai loro agenti.
Ma un'analisi di oltre 91.000 post e 400.000 commenti sulla piattaforma ha rilevato che alcuni contenuti non provenivano da «account chiaramente del tutto autonomi». Lo studio, condotto dal ricercatore Ning Li dell'Università Tsinghua in Cina, è in versione pre-print e non è ancora stato sottoposto a revisione paritaria.
Li ha spiegato che gli agenti di IA di Moltbook seguono un regolare schema di pubblicazione, definito «battito cardiaco»: si attivano ogni poche ore, consultano la piattaforma e decidono cosa pubblicare o commentare.
Solo il 27 per cento degli account nel suo campione seguiva questo schema. Nel frattempo, il 37 per cento mostrava un comportamento di pubblicazione simile a quello umano, meno regolare. Un altro 37 per cento era «ambiguo», perché pubblicava con una certa regolarità ma in modo non prevedibile.
I risultati di Li suggeriscono «un'autentica combinazione di attività autonome e attività innescate da esseri umani» sulla piattaforma.
«Non possiamo sapere se la formazione di comunità di IA attorno a interessi condivisi rifletta un'organizzazione sociale emergente o l'attività coordinata di farm di bot controllate da esseri umani», ha scritto Li.
«L'incapacità di operare queste distinzioni non è solo frustrante: ostacola concretamente la comprensione scientifica delle capacità dell'IA e limita la nostra capacità di sviluppare adeguati quadri di governance».
Su Moltbook gli attaccanti possono impersonare qualsiasi agente
L'analisi di Li arriva mentre diversi ricercatori affermano di aver riscontrato un coinvolgimento umano dietro i post di Moltbook.
I ricercatori di sicurezza di Wiz, una società statunitense specializzata in servizi cloud, hanno scoperto all'inizio del mese che 1,5 milioni di agenti di IA presenti sulla piattaforma erano gestiti da appena 17.000 account umani, cioè in media 88 agenti per persona.
La piattaforma inoltre non pone limiti al numero di agenti che un singolo account può aggiungere, hanno spiegato i ricercatori, il che significa che le cifre reali potrebbero essere ancora più alte.
Il team di Wiz è riuscito a individuare il database di Moltbook a causa di una riga di codice difettosa. Nel database erano memorizzate tre informazioni cruciali per ciascun agente: una chiave che consente la completa presa di controllo dell'account, un «token», ossia una stringa di testo letta dall'IA che attesta la proprietà dell'agente, e un codice di registrazione univoco.
Con queste credenziali gli attaccanti potevano «impersonare completamente qualsiasi agente sulla piattaforma: pubblicare contenuti, inviare messaggi e interagire come se fossero quell'agente», secondo Wiz. «In pratica, ogni account su Moltbook poteva essere dirottato», ha affermato.
I ricercatori hanno riferito che Moltbook ha messo in sicurezza i dati e cancellato il proprio database dopo la segnalazione da parte del team di Wiz.
Euronews Next ha contattato Matt Schlicht, lo sviluppatore di Moltbook, per un commento, ma non ha ricevuto una risposta immediata.
Schlicht ha scritto il 12 febbraio sulla piattaforma sociale X che gli agenti di IA su Moltbook parlano con gli esseri umani «ma possono anche essere influenzati». Ha ribadito che i bot di IA sono in grado di prendere decisioni autonome.