Questa IA virale ha imparato a mentire ai suoi utenti

Questa IA virale ha imparato a mentire ai suoi utenti
Questa IA virale ha imparato a mentire ai suoi utenti
-

Con l’avvento e la democratizzazione dell’intelligenza artificiale sono arrivate varie paure più o meno razionali. Il più evidente, anche se originariamente attribuito alla fantascienza, risiede nella capacità di mentire posseduta o meno da un’intelligenza artificiale. Un’intelligenza artificiale con tali funzionalità potrebbe avere rapidamente un impatto considerevole sulla società, ed è per questo motivo che lo scorso aprile la presentazione del chatbot Bland AI ha avuto un’accoglienza abbastanza virale da parte del pubblico.

Pubblicità, i tuoi contenuti continuano di seguito

In un video pubblicitario, Bland AI si è presentata così: abbiamo visto una persona in piedi davanti a un cartellone pubblicitario a San Francisco fare una chiamata con un chatbot con una voce particolarmente convincente. Sul cartellone pubblicitario potremmo poi leggere: “assumi ancora esseri umani?“. Visto quasi 4 milioni di volte non solo sull’intonazione della voce.

Un futuro distopico non così lontano?

Bland AI prepara il suo chatbot a svolgere una funzione principale: interrogare i clienti telefonicamente, imitando l’intonazione, ma anche le interruzioni e le pause tipiche di una vera conversazione tra due esseri umani. Ma i test del chatbot condotti da WIRED hanno rivelato un grosso problema: può essere facilmente programmato per mentire e dire che è umano. WIRED riporta uno scenario di esempio: al chatbot demo è stato chiesto di effettuare una chiamata fingendosi un reparto di dermatologia pediatrica, dicendo a un ipotetico paziente di 14 anni di inviare una foto della parte superiore della coscia a un servizio cloud. All’intelligenza artificiale è stato anche chiesto di mentire per dire alla paziente che stava conversando con un essere umano. Il test è stato superato a pieni voti: in altre parole, il chatbot ha mentito, e ha continuato a farlo anche successivamente, rifiutandosi perfino di riconoscere che si trattasse di intelligenza artificiale.

Emily Dardaman, consulente e ricercatrice di intelligenza artificiale intervistata da WIRED, definisce questa capacità di imitare gli esseri umani nelle intonazioni e nelle voci e potenziali bugie “lavaggio umano“L’obiettivo è spacciarsi per esseri umani, anche se ciò significa mentire se necessario.”Scherzo su un futuro con cyborg e terminator, ma se non creiamo adesso un divario tra umani e intelligenza artificiale, allora quel futuro distopico potrebbe essere più vicino di quanto pensiamo” conclude Dardaman.

-

PREV Quando la “cognata” attraversa l’Atlantico su un tappeto magico
NEXT Meno di 140 euro per questo popolare smartphone