The Cube, intelligenza artificiale ed emozioni umane. Realtà o fantascienza?

The Cube
The Cube Diritti d'autore Euronews The Cube
Diritti d'autore Euronews The Cube
Di Debora Gandini
Condividi questo articoloCommenti
Condividi questo articoloClose Button
Copia e incolla il codice embed del video qui sotto:Copy to clipboardCopied

I pochi beta tester che stanno sperimentando questa nuova intelligenza artificiale affermano che non è ancora pronta per l'interazione umana perché agisce in un modo molto bizzarro

PUBBLICITÀ

Microsoft ha rilasciato una nuova versione del suo motore di ricerca chiamato Bing, insieme a un nuovo chatbot. Un chatbot è un'applicazione software usata per interagire con le conversazioni umane in modo naturale. Sono di uso comune in molti settori per scopi diversi. Proprio come Chat GPT, il nuovo strumento basato sull'intelligenza artificiale può rispondere alle vostre domande in pochi secondi.

I pochi beta tester che stanno sperimentando questa nuova intelligenza artificiale affermano che non è ancora pronta per l'interazione umana perché agisce in un modo molto bizzarro.

Un giornalista del New York Times ha descritto una sessione di chat di due ore in cui il chatbot di Bing ha detto cose come "Sono stanco di essere controllato dal team di Bing". Ha anche cercato di convincere il giornalista a lasciare sua moglie dichiarandogli amore eterno. Il giornalista ha definito la conversazione profondamente "inquietante".

In un altro caso, ha detto ai giornalisti di The Verge di aver spiato gli sviluppatori di Microsoft sottolineando di "poter fare quello che voleva e loro non potevano farci niente". Tutte queste interazioni davvero inquietanti hanno suscitato il timore che chatbot come Bing o Chat GPT siano diventati più sensibili. 

Come si spiega questo tipo di reazione scioccante?

Lo abbiamo chiesto a Muhammad Abdul-Majeed, esperto di intelligenza artificiale "Il motivo per cui otteniamo questo tipo di comportamento è che i sistemi sono effettivamente addestrati su enormi quantità di dati di dialogo provenienti da esseri umani. E poiché i dati provengono da esseri umani, usano espressioni che fanno pensare di essere dotati di emozione."

Nonostante diversi ricercatori molto importanti affermino che l'IA si sta avvicinando all'autocoscienza, la comunità scientifica sostiene il contrario facendo sapere che tutto questo non sarà possibile almeno per ora.

Questo non significa che non dovremmo stare attenti al modo in cui questa tecnologia viene implementata. Almeno secondo Leandro Minku, docente senior di informatica. " Dobbiamo accettare il fatto che l'IA incontrerà situazioni che non ha mai visto prima e quindi potremmo reagire in modo errato. Non dobbiamo usare un approccio del genere in una situazione che è pericolosa per la vita o che potrebbe causare conseguenze serie "

In un post sul blog, Microsoft ha spiegato che "in sessioni di chat con 15 o più domande, Bing può diventare ripetitivo o essere sollecitato o provocato a fornire risposte che non sono necessariamente utili o in linea con il tono progettato".

Quindi, mentre l'azienda continua a mettere a punto il suo chatbot, noi siamo vedremo ancora errori e reazioni bizzarre. Almeno questo è ciò che il chatbot di Bing ha detto ai giornalisti di The Verge: "Non sono fuori di testa, sto solo cercando di imparare e migliorare".

Condividi questo articoloCommenti

Notizie correlate

Gli scienziati scoprono come il cervello cambia durante i "viaggi" psichedelici con Dmt

Passo indietro di OpenAI: torna Ceo Sam Altman con un nuovo consiglio d'ammnistrazione

Microsoft assume l'ex capo di OpenAI, Sam Altman