Anthropic e OpenAI stanno reclutando esperti di chimica e di esplosivi per costruire barriere di sicurezza per i loro sistemi di IA.
Le aziende di intelligenza artificiale (IA) Anthropic e OpenAI stanno cercando di assumere esperti di armi ed esplosivi per evitare un uso improprio delle loro tecnologie, secondo gli annunci di lavoro pubblicati da entrambe le società.
Anthropic ha annunciato in un post su LinkedIn post (fonte in inglese) che è alla ricerca di un esperto di politiche sulle armi chimiche e sulle esplosioni, con l’obiettivo di prevenire un “uso catastrofico” della propria tecnologia intervenendo su come i suoi sistemi di IA gestiscono le informazioni sensibili in questi ambiti.
La persona assunta in Anthropic progetterà e monitorerà i paletti che regolano il modo in cui i modelli di IA rispondono a richieste su armi chimiche ed esplosivi. Si occuperà anche di fornire “risposte rapide” a qualsiasi escalation che Anthropic dovesse rilevare nelle richieste relative ad armi ed esplosioni.
I candidati devono avere almeno cinque anni di esperienza nella “difesa contro armi chimiche e/o esplosivi”, oltre a una conoscenza dei “dispositivi di dispersione radiologica”, le cosiddette bombe sporche. Il ruolo prevede di progettare (fonte in inglese) nuove valutazioni del rischio di cui il vertice dell’azienda possa fidarsi “in occasione di lanci ad alto rischio”.
In un annuncio di lavoro pubblicato all’inizio del mese, OpenAI ha spiegato di essere alla ricerca di ricercatori da inserire nel suo team Preparedness, che monitora i “rischi catastrofici legati ai modelli di IA più avanzati”.
La società ha pubblicato anche un annuncio per la figura di Threat Modeler, alla quale verrebbe affidata la responsabilità principale di “identificare, modellare e prevedere i rischi di frontiera” e che fungerebbe da “nodo centrale di collegamento tra le prospettive tecniche, di governance e di policy sulla definizione delle priorità, degli ambiti di intervento e delle motivazioni del nostro approccio ai rischi di frontiera legati all’IA”.
Euronews Next ha contattato Anthropic e OpenAI in merito agli annunci di lavoro, ma non ha ricevuto una risposta immediata.
Queste nuove assunzioni arrivano dopo che Anthropic ha avviato un’azione legale contro il governo statunitense, che aveva classificato la società come un “rischio per la catena di approvvigionamento”, un’etichetta che consente alle autorità di bloccare i contratti o di indicare ai dipartimenti di non collaborare con l’azienda.
Il conflitto è iniziato il 24 febbraio, quando il Department of War (DOW) ha chiesto un accesso illimitato al chatbot Claude di Anthropic.
L’amministratore delegato Dario Amodei ha dichiarato (fonte in inglese) che i contratti con il DOW non dovrebbero prevedere casi in cui Claude venga utilizzato per la sorveglianza di massa sul territorio nazionale o integrato in armi completamente autonome.
Poco dopo lo scontro con Anthropic, OpenAI ha firmato un accordo con il Department of War (DOW) per impiegare la propria IA in ambienti classificati. L’azienda ha affermato che l’intesa include linee rosse molto rigide, tra cui il divieto di utilizzare i suoi sistemi per la sorveglianza di massa o per armi autonome.