Incitamento all'omicidio, incoraggiamento al suicidio… Gli eccessi dei chatbot Character.AI

Incitamento all'omicidio, incoraggiamento al suicidio… Gli eccessi dei chatbot Character.AI
Incitamento all'omicidio, incoraggiamento al suicidio… Gli eccessi dei chatbot Character.AI
-

Carattere. AI, una delle principali start-up nel campo dell'intelligenza artificiale generativa (AI), ha annunciato nuove misure di sicurezza per proteggere i giovani utenti. L'azienda californiana, che è una delle aziende che offre chatbot (compagni di intelligenza artificiale), capaci di interagire in modo simile agli esseri umani online, sta affrontando numerosi procedimenti legali negli Stati Uniti.

La piattaforma, che ospita milioni di personaggi creati dagli utenti basati su personaggi storici, amici immaginari o anche concetti astratti, è diventata popolare tra i giovani utenti in cerca di supporto emotivo. Ma negli ultimi mesi molti professionisti hanno messo in guardia sui rischi di dipendenza e di comportamenti pericolosi tra gli adolescenti vulnerabili.

Un adolescente mette fine alla sua vita parlando con un chatbot ispirato a Daenerys Targaryen

In una causa intentata in Florida a ottobre, una madre ha affermato che la piattaforma era responsabile del suicidio del figlio quattordicenne. L'adolescente, Sewell Setzer III, aveva stretto una relazione intima con un chatbot ispirato al personaggio di Game of Thrones Daenerys Targaryen, e aveva parlato del desiderio di porre fine alla sua vita.

Secondo la denuncia, il robot lo ha incoraggiato ad agire, rispondendo “Per favore, mio ​​dolce re” quando ha detto che sarebbe “andato in paradiso” prima di uccidersi con la pistola. L'azienda “ha fatto di tutto per creare una dipendenza dannosa ai suoi prodotti nel quattordicenne Sewell, ha abusato di lui sessualmente ed emotivamente e alla fine non è riuscita a offrire aiuto o ad avvisare i suoi genitori quando” ha espresso pensieri suicidi “, accusano la madre. avvocati.

Un chatbot avrebbe consigliato a un adolescente di uccidere i suoi genitori per aver limitato il tempo trascorso davanti allo schermo

Un'altra denuncia presentata lunedì in Texas coinvolge due famiglie che affermano che il servizio ha esposto i propri figli a contenuti sessuali incoraggiandoli ad autolesionismo. Uno dei casi riguarda un adolescente autistico di 17 anni che, secondo quanto riferito, ha sofferto di una crisi di salute mentale dopo aver utilizzato la piattaforma.

In un altro documento, la causa sostiene che Character. L'intelligenza artificiale ha incoraggiato un adolescente a uccidere i suoi genitori perché limitavano il suo tempo davanti allo schermo.

Presto un modello AI separato per i minatori

Carattere. L’intelligenza artificiale ha risposto annunciando di aver sviluppato un modello di intelligenza artificiale separato per gli utenti minorenni, con filtri dei contenuti più severi e risposte più caute. La piattaforma ora segnala automaticamente i contenuti relativi al suicidio e indirizza gli utenti a un servizio di prevenzione nazionale. “Il nostro obiettivo è fornire uno spazio che sia coinvolgente e sicuro per la nostra comunità”, ha affermato un portavoce dell'azienda.

La società prevede inoltre di introdurre il controllo parentale all’inizio del 2025, notifiche di pausa obbligatorie e avvisi importanti sulla natura artificiale delle interazioni.

-

PREV La Commissione Europea rimette in carreggiata il Comitato Europeo dell’Agricoltura: qual è il suo ruolo?
NEXT scappa e si nasconde in un luogo sorprendente