Non affidare all’intelligenza artificiale le decisioni importanti. Considerala come una stagista
Giudici in tutto il mondo si confrontano con un problema crescente: memorie legali generate con l’aiuto dell’intelligenza artificiale (AI) e depositate con errori, come citazioni di cause che non esistono, secondo avvocati e atti giudiziari.
Questa tendenza è un monito per chi sta imparando a usare strumenti di AI sul lavoro. Molti datori di lavoro cercano persone capaci di sfruttare la tecnologia per attività come fare ricerca e redigere report. Insegnanti, contabili e professionisti del marketing iniziano a usare chatbot e assistenti di AI per generare idee e migliorare la produttività, ma scoprono anche che i programmi commettono errori.
Il data scientist e avvocato francese Damien Charlotin ha catalogato almeno 490 atti giudiziari negli ultimi sei mesi che contenevano “allucinazioni”, ossia risposte dell’AI con informazioni false o fuorvianti. Il fenomeno accelera man mano che più persone usano l’AI, ha detto.
“Anche gli utenti più esperti possono avere problemi”, ha detto Charlotin. “L’AI può essere un vantaggio. È straordinaria, ma ci sono anche queste trappole”.
Charlotin, senior research fellow all’Hec Paris, business school alle porte della capitale francese, ha creato un database per tracciare i casi in cui un giudice ha stabilito che l’AI generativa aveva prodotto contenuti frutto di allucinazioni, come giurisprudenza inventata e citazioni false.
La maggior parte dei provvedimenti riguarda casi negli Stati Uniti in cui i ricorrenti si sono rappresentati senza avvocato, ha detto. Molti giudici si sono limitati ad avvertimenti sugli errori, ma alcuni hanno inflitto multe.
Ma anche aziende di primo piano hanno presentato documenti legali problematici. Un giudice federale in Colorado ha stabilito che un avvocato di MyPillow Inc. aveva depositato una memoria con quasi 30 citazioni difettose, nell’ambito di una causa per diffamazione contro la società e il fondatore Michael Lindell.
Non è solo il mondo legale a fare i conti con le stranezze dell’AI. I riepiloghi generati dall’intelligenza artificiale, che compaiono in cima ai risultati di ricerca sul web, spesso contengono errori.
Gli strumenti di AI sollevano anche questioni di privacy. I lavoratori di tutti i settori devono fare attenzione ai dettagli che caricano o inseriscono nei prompt, per tutelare le informazioni riservate di datori di lavoro e clienti.
Esperti legali e del lavoro raccontano le loro esperienze con gli errori dell’AI e descrivono i rischi da evitare.
Pensate all’AI come a un assistente
Non affidate all’AI le decisioni importanti. Alcuni utenti la trattano come fosse uno stagista: si assegnano compiti e poi si verifica il lavoro svolto.
“Pensate all’AI come a qualcosa che potenzia il vostro flusso di lavoro”, ha detto Maria Flynn, Ceo di Jobs for the Future, un’organizzazione non profit dedicata allo sviluppo della forza lavoro. Può essere un assistente per compiti come scrivere un’email o cercare un itinerario di viaggio, ma non è un sostituto in grado di fare tutto, ha aggiunto.
Preparando una riunione, Flynn ha sperimentato uno strumento di AI interno, chiedendogli di suggerire domande di discussione a partire da un articolo condiviso con il team.
“Alcune delle domande proposte non erano davvero adatte al nostro contesto, quindi ho dato un feedback ed è tornato con cinque domande molto pertinenti”, ha detto.
Verificate l’accuratezza
Flynn ha riscontrato anche problemi nei risultati dello strumento di AI, ancora in fase pilota. Una volta gli ha chiesto di raccogliere informazioni sul lavoro svolto dalla sua organizzazione in diversi Stati. Ma lo strumento trattava nello stesso modo attività concluse e proposte di finanziamento.
“In quel caso, il nostro strumento non ha saputo distinguere tra qualcosa di proposto e qualcosa di completato”, ha detto Flynn.
Per fortuna aveva le conoscenze interne per riconoscere gli errori. “Se siete nuovi in un’organizzazione, chiedete ai colleghi se i risultati sembrano accurati”, ha suggerito Flynn.
L’intelligenza artificiale può aiutare a fare brainstorming, ma affidarle la verifica dei fatti è rischioso. Prendetevi il tempo per controllare l’accuratezza di ciò che genera, anche se è forte la tentazione di saltare questo passaggio.
“Molti danno per scontato che, siccome suona plausibile ed è comodo, sia corretto”, ha detto Justin Daniels, avvocato ad Atlanta e socio dello studio Baker Donelson. “Dover tornare a verificare tutte le citazioni, o quando guardo un contratto che l’AI ha riassunto doverlo rileggere per intero, è un po’ scomodo e richiede tempo, ma è necessario. Per quanto possiate pensare che l’AI lo sostituisca, non può”.
Attenzione agli strumenti per prendere appunti
È allettante usare l’AI per registrare e prendere appunti durante le riunioni. Alcuni strumenti generano riassunti utili e indicano le azioni da intraprendere in base a quanto detto.
Ma in molte giurisdizioni serve il consenso dei partecipanti prima di registrare le conversazioni. Prima di usare l’AI per prendere appunti, fermatevi a valutare se la conversazione debba restare protetta da segreto professionale e riservata, ha detto Danielle Kays, partner a Chicago dello studio Fisher Phillips.
Consultate i colleghi degli uffici legale o risorse umane prima di attivare uno strumento di appunti in situazioni a rischio, come indagini interne, valutazioni delle prestazioni o discussioni di strategia legale, ha suggerito.
“C’è chi sostiene che, con l’uso dell’AI, dovrebbero esserci diversi livelli di consenso, e la questione sta arrivando nei tribunali”, ha detto Kays. “Direi che le aziende devono continuare a seguirla mentre si definisce in sede giudiziaria”.
Proteggere le informazioni riservate
Se usate strumenti gratuiti di AI per redigere un memo o una campagna marketing, non inserite dati identificativi o segreti aziendali. Una volta caricati, è possibile che altri utenti dello stesso strumento possano ritrovarli.
Questo perché, quando altri pongono domande a uno strumento di intelligenza artificiale, l’algoritmo attinge alle informazioni disponibili, inclusi i dettagli che avete fornito, mentre costruisce la risposta, ha spiegato Flynn. “Non distingue tra ciò che è pubblico e ciò che è privato”, ha aggiunto.
Formatevi
Se il vostro datore di lavoro non offre formazione sull’AI, provate a sperimentare strumenti gratuiti come ChatGPT o Microsoft Copilot. Alcune università e aziende tech propongono corsi che aiutano a capire come funziona l’AI e in che modo può essere utile.
Sono preziosi i corsi che insegnano a formulare prompt efficaci o quelli pratici che offrono occasioni di esercitazione, ha detto Flynn.
Nonostante i possibili problemi, imparare come funzionano può essere utile in un momento in cui sono ovunque.
“Il rischio più grande nell’imparare a usare l’AI è non imparare affatto”, ha detto Flynn. “Dovremo tutti diventare competenti, e compiere fin da subito i passi per costruire familiarità, alfabetizzazione e confidenza con lo strumento sarà fondamentale”.
 
             
             
             
             
             
            