Giovedì il procuratore generale del Texas Ken Paxton ha avviato un’indagine su Character.AI e altre 14 piattaforme tecnologiche per problemi di privacy e sicurezza dei bambini. L’indagine valuterà se Character.AI – e altre piattaforme popolari tra i giovani, tra cui Reddit, Instagram e Discord – sono conformi alle leggi sulla privacy e sulla sicurezza dei bambini del Texas.
L’indagine di Paxton, che è spesso dura nei confronti delle aziende tecnologiche, esaminerà se queste piattaforme rispettano due leggi del Texas: il Securing Children Online through Parental Empowerment, o SCOPE Act, e il Texas Data Privacy and Security Act, o DPSA.
Queste leggi richiedono che le piattaforme forniscano ai genitori strumenti per gestire le impostazioni sulla privacy degli account dei propri figli e impongono alle aziende tecnologiche severi requisiti di consenso quando raccolgono dati sui minori. Paxton sostiene che entrambe queste leggi si estendono al modo in cui i minori interagiscono con i chatbot IA.
“Queste indagini rappresentano un passo fondamentale per garantire che i social media e le società di intelligenza artificiale rispettino le nostre leggi progettate per proteggere i bambini dallo sfruttamento e dai danni”, ha affermato Paxton in un comunicato stampa.
Character.AI, che ti consente di creare personaggi chatbot con intelligenza artificiale generativa con cui puoi inviare messaggi e chattare, è stato recentemente coinvolto in una serie di cause legali sulla sicurezza dei bambini. I chatbot AI dell’azienda hanno rapidamente preso il sopravvento tra gli utenti più giovani, ma diversi genitori hanno affermato in cause legali che i chatbot di Character.AI hanno fatto commenti inappropriati e inquietanti ai loro figli.
Un caso della Florida afferma che un ragazzo di 14 anni è stato coinvolto sentimentalmente con un chatbot di Character AI e ha detto che aveva pensieri suicidi nei giorni precedenti al suo suicidio. In un altro caso avvenuto in Texas, uno dei chatbot di Character.AI avrebbe suggerito a un adolescente autistico di provare ad avvelenare la sua famiglia. Un altro genitore nel caso del Texas sostiene che uno dei chatbot di Character.AI abbia sottoposto la figlia di 11 anni a contenuti sessuali negli ultimi due anni.
“Stiamo attualmente esaminando l’annuncio del Procuratore Generale. Come azienda, prendiamo molto sul serio la sicurezza dei nostri utenti”, ha dichiarato un portavoce di Character.AI in una dichiarazione a TechCrunch. “Apprezziamo la collaborazione con le autorità di regolamentazione e abbiamo recentemente annunciato che stiamo lanciando alcune delle funzionalità a cui si fa riferimento nel comunicato, incluso il controllo genitori.”
Character.AI giovedì ha lanciato nuove funzionalità di sicurezza volte a proteggere gli adolescenti, affermando che questi aggiornamenti limiteranno i suoi chatbot dall’avviare conversazioni romantiche con minori. Nell’ultimo mese l’azienda ha anche iniziato a formare un nuovo modello specifico per gli utenti adolescenti: un giorno spera che gli adulti utilizzino un modello sulla sua piattaforma, mentre i minori ne utilizzino un altro.
Questi sono solo gli ultimi aggiornamenti di sicurezza annunciati da Character.AI. La stessa settimana in cui la causa in Florida è diventata pubblica, la società ha affermato che stava espandendo il proprio team di fiducia e sicurezza e ha recentemente assunto un nuovo capo per l’unità.
Com’era prevedibile, i problemi con le piattaforme di compagnia basate sull’intelligenza artificiale stanno emergendo proprio mentre stanno decollando in popolarità. L’anno scorso, Andreessen Horowitz (a16z) ha dichiarato in un post sul blog di considerare l’intelligenza artificiale come un angolo sottovalutato dell’Internet di consumo in cui investire di più. A16z è un investitore in Character.AI e continua a investire in altre startup di intelligenza artificiale. , recentemente ha sostenuto un’azienda il cui fondatore vuole ricreare la tecnologia del film “Her”.
Reddit, Meta e Discord non hanno risposto immediatamente alle richieste di commento.