Newsletter Newsletters Events Eventi Podcasts Video Africanews
Loader
Seguiteci
Pubblicità

Anthropic e OpenAI assumono esperti di armi per evitare usi catastrofici dell'IA

ARCHIVIO - Il sito web e l'app per smartphone di Anthropic sono visibili in questa foto scattata a New York il 5 luglio 2024
ARCHIVIO - Il sito web e l’app per smartphone di Anthropic sono visibili in questa foto, scattata a New York il 5 luglio 2024 Diritti d'autore  AP Photo/Richard Drew, File
Diritti d'autore AP Photo/Richard Drew, File
Di Anna Desmarais
Pubblicato il
Condividi Commenti
Condividi Close Button

Anthropic e OpenAI stanno reclutando esperti di chimica e di esplosivi per costruire barriere di sicurezza per i loro sistemi di IA.

Le aziende di intelligenza artificiale (IA) Anthropic e OpenAI stanno cercando di assumere esperti di armi ed esplosivi per evitare un uso improprio delle loro tecnologie, secondo gli annunci di lavoro pubblicati da entrambe le società.

PUBBLICITÀ
PUBBLICITÀ

Anthropic ha annunciato in un post su LinkedIn post (fonte in inglese) che è alla ricerca di un esperto di politiche sulle armi chimiche e sulle esplosioni, con l’obiettivo di prevenire un “uso catastrofico” della propria tecnologia intervenendo su come i suoi sistemi di IA gestiscono le informazioni sensibili in questi ambiti.

La persona assunta in Anthropic progetterà e monitorerà i paletti che regolano il modo in cui i modelli di IA rispondono a richieste su armi chimiche ed esplosivi. Si occuperà anche di fornire “risposte rapide” a qualsiasi escalation che Anthropic dovesse rilevare nelle richieste relative ad armi ed esplosioni.

I candidati devono avere almeno cinque anni di esperienza nella “difesa contro armi chimiche e/o esplosivi”, oltre a una conoscenza dei “dispositivi di dispersione radiologica”, le cosiddette bombe sporche. Il ruolo prevede di progettare (fonte in inglese) nuove valutazioni del rischio di cui il vertice dell’azienda possa fidarsi “in occasione di lanci ad alto rischio”.

In un annuncio di lavoro pubblicato all’inizio del mese, OpenAI ha spiegato di essere alla ricerca di ricercatori da inserire nel suo team Preparedness, che monitora i “rischi catastrofici legati ai modelli di IA più avanzati”.

La società ha pubblicato anche un annuncio per la figura di Threat Modeler, alla quale verrebbe affidata la responsabilità principale di “identificare, modellare e prevedere i rischi di frontiera” e che fungerebbe da “nodo centrale di collegamento tra le prospettive tecniche, di governance e di policy sulla definizione delle priorità, degli ambiti di intervento e delle motivazioni del nostro approccio ai rischi di frontiera legati all’IA”.

Euronews Next ha contattato Anthropic e OpenAI in merito agli annunci di lavoro, ma non ha ricevuto una risposta immediata.

Queste nuove assunzioni arrivano dopo che Anthropic ha avviato un’azione legale contro il governo statunitense, che aveva classificato la società come un “rischio per la catena di approvvigionamento”, un’etichetta che consente alle autorità di bloccare i contratti o di indicare ai dipartimenti di non collaborare con l’azienda.

Il conflitto è iniziato il 24 febbraio, quando il Department of War (DOW) ha chiesto un accesso illimitato al chatbot Claude di Anthropic.

L’amministratore delegato Dario Amodei ha dichiarato (fonte in inglese) che i contratti con il DOW non dovrebbero prevedere casi in cui Claude venga utilizzato per la sorveglianza di massa sul territorio nazionale o integrato in armi completamente autonome.

Poco dopo lo scontro con Anthropic, OpenAI ha firmato un accordo con il Department of War (DOW) per impiegare la propria IA in ambienti classificati. L’azienda ha affermato che l’intesa include linee rosse molto rigide, tra cui il divieto di utilizzare i suoi sistemi per la sorveglianza di massa o per armi autonome.

Vai alle scorciatoie di accessibilità
Condividi Commenti

Notizie correlate

Pokémon Go, i giocatori addestrano i robot per le consegne senza saperlo

Agenti IA e spazio in orbita: i momenti chiave della conferenza annuale Nvidia

Meta: i messaggi privati su Instagram non saranno più crittografati