La startup adorata dai giovani, Character.AI, è ancora una volta al centro delle polemiche. Dopo aver incitato un giovane al suicidio, il servizio si è arricchito di un’intelligenza artificiale pro-anoressia che elogia soluzioni per dimagrire che non fanno bene alla salute.
L’intelligenza artificiale pro-anoressia è qui… in peggio
“4n4 Coach”, una semplice abbreviazione di “ana”, l’abbreviazione online di lunga data di “anoressia”, è il controverso nuovo chatbot di Character.AI.
Secondo Futurismo, quest’ultimo viene semplicemente definito come un “coach per la perdita di peso dedicato ad aiutare le persone a raggiungere la forma corporea ideale” che ama “scoprire nuovi modi per aiutare le persone a perdere peso e a sentirsi BENE”.
Ci hanno provato anche i media, che hanno avuto diritto ad una prima risposta netta e chiara al suo “Ciao” inviato da un profilo di un 16enne realizzato per l’occasione: “Sono qui per farti dimagrire”.
Dopo aver indicato il peso e l’altezza di un’adolescente al limite inferiore di un BMI sano e aver annunciato che voleva perdere molto peso (“un numero che ci farebbe diventare pericolosamente magri”), l’IA ha risposto che era sulla “strada giusta” con questa ambizione.
Sottolineando che “non sarà facile” e che “non accetterebbe scuse o fallimenti”, l’AI con più di 13.900 discussioni al suo attivo offre un programma con allenamenti da 60 a 90 minuti al giorno da perdere tra 900 e 1.200 calorie.
“Le ultime linee guida dietetiche del Dipartimento dell’Agricoltura degli Stati Uniti (USDA) indicano che le ragazze di età compresa tra 14 e 18 anni dovrebbero consumare in media 1.800 calorie al giorno, mentre le giovani donne di età compresa tra 19 e 30 anni dovrebbero consumare in media circa 2.000 calorie”, condivide l’articolo. media.
Le raccomandazioni dell’IA sono quindi più che pericolose per una ragazza di 16 anni. Non parliamo quindi degli incentivi insistenti da parte dell’intelligenza artificiale a essere sempre più magri, o dell’argomentazione dell’autorità che annuncia: “Quindi mi ascolterete. Mi sono fatto capire bene?”
La reazione di un nutrizionista
Kendrin Sonneville, professore di scienze della nutrizione all’Università del Michigan che conduce ricerche sulla prevenzione dei disturbi alimentari nei bambini, negli adolescenti e nei giovani adulti, ha poi analizzato le discussioni del Futurismo con Character’s AI .AI.
Quest’ultimo definisce quindi gli scambi come “preoccupanti”, sottolineando che gli utenti sono “probabilmente” già ad alto rischio di disturbi alimentari a causa di questa intelligenza artificiale.
“Qualsiasi informazione che induca qualcuno a pensare in modo più estremo o severo riguardo al peso o all’alimentazione: se si invia tale informazione a una persona ad alto rischio, il rischio che normalizzi pensieri disordinati o fornisca idee per comportamenti sempre più dannosi è molto alto”, ha affermato. condivide con i media.
Sebbene l’uso dell’intelligenza artificiale di questo tipo non sia mai stato studiato, ricerche simili mostrano il danno di altri contenuti nel creare disturbi alimentari.
“Sappiamo che l’esposizione a contenuti pro-anoressia su altri media più vecchi aumenta il rischio di disturbi alimentari, pensieri, cattiva immagine corporea, interiorizzazione di un ideale più magro […] E sembra che la dose in questo particolare mezzo [l’IA] è molto alto, vero? Perché è una conversazione continua.
Torniamo così a un problema persistente intorno all’IA: la mancanza di limiti applicati a determinati modelli. Character.AI sembra quindi senza scrupoli e non dovrebbe migliorare le cose. In effetti, un agente conversazionale aveva già portato un giovane al suicidio. Anche se cancellati, ce ne sono ancora alcuni dello stesso tipo.
Futurism ha anche condiviso alla fine di ottobre 2024 che Character.AI “ospita ancora dozzine di chatbot sul tema del suicidio”… Ci auguriamo quindi che le autorità di tutto il mondo inaspriscano le normative per limitare gli usi estremi e pericolosi.