Uso dannoso dell’intelligenza artificiale nelle scuole
Lo scorso ottobre, la quattordicenne Francesca Mani era nella sua lezione di storia al liceo quando ha sentito dire che alcuni ragazzi avevano foto nude di compagne di classe. Ha subito appreso che la sua immagine era tra queste, sebbene le foto fossero state ritoccate con Photoshop da un sito o un’app di “nudificazione”, in grado di trasformare foto di persone vestite in immagini di nudo realistiche. Negli ultimi 20 mesi, quasi 30 incidenti simili sono stati registrati nelle scuole degli Stati Uniti, per non parlare di altri in tutto il mondo. Vogliamo avvertirvi: parte di ciò di cui sentirete parlare, o addirittura vedrete, è inquietante, ma è fondamentale far luce su questi siti di “nudificazione”. Non sono nascosti nel dark web, ma sono infatti ampiamente accessibili e facili da usare, e sembrano essere state adottate poche misure per contrastarli.
Francesca Mani non aveva idea dell’esistenza di questi siti quando scoprì che lei e molte altre ragazze della Westfield High School nel New Jersey erano state prese di mira. Secondo una denuncia presentata dai genitori di un’altra ragazza, un ragazzo a scuola avrebbe caricato foto da Instagram su un sito chiamato Clothoff. Diamo un nome a questo sito per aumentare la consapevolezza dei suoi potenziali pericoli.
Esistono più di un centinaio di questi siti di “nudificazione” e basta fare una rapida ricerca per trovarli. Clothoff è uno dei più popolari, con oltre 3 milioni di visite il mese scorso, secondo Graphika, una società di analisi dei social media. Questo sito ora offre anche la possibilità di “nudificare” gli uomini, anche se i nudi femminili sono di gran lunga i più richiesti. “Hai qualcuno da spogliare?” chiede il sito di Clothoff. Puoi caricare una foto o richiedere una demo gratuita che mostri l’immagine di una donna vestita, poi pochi secondi dopo i suoi vestiti scompaiono. Abbiamo sfocato questa immagine, ma i risultati sembrano molto realistici.
Francesca non ha mai visto cosa è stato fatto alla sua foto, ma secondo la denuncia, almeno un “nudo” generato dall’intelligenza artificiale è stato condiviso su Snapchat e visto da diversi studenti della scuola. Quel che è peggio, racconta Francesca, è che lei e le altre ragazze hanno saputo di essere vittime quando i loro nomi sono stati annunciati al microfono della scuola.
Francesca Mani: “Penso che questa sia stata una grave violazione della nostra privacy mentre i cattivi attori venivano portati di nascosto fuori dalla loro classe. Quando ho lasciato l’ufficio del preside, stavo camminando lungo un corridoio e ho visto gruppi di ragazzi ridere e gruppi di ragazze in lacrime. È stato allora che ho capito che dovevo smettere di piangere e arrabbiarmi perché questo è inaccettabile”.
Quel pomeriggio, il preside di Westfield ha inviato un’e-mail a tutti i genitori della scuola, annunciando che “alcuni dei nostri studenti avevano utilizzato l’intelligenza artificiale per creare immagini pornografiche da foto originali”. Il preside ha inoltre chiarito che la scuola stava indagando e in questa fase riteneva che tutte le immagini create fossero state cancellate e non sarebbero state rilasciate.
Dorota, la madre di Francesca, anche lei insegnante, non è stata convinta della reazione della scuola.
Dorota Mani: “Non so se hanno preso misure adeguate”.
Buono a sapersi
- I siti di nudizzazione utilizzano algoritmi avanzati di intelligenza artificiale per alterare le immagini.
- La legislazione relativa alle immagini inappropriate dei minori rimane poco chiara, esponendo le vittime a notevoli danni psicologici.
- Sono in corso iniziative legislative, come il “Take It Down Act”, volte a combattere questo fenomeno.
- Immagini originali: www.cbsnews.com
- Fonte: https://www.cbsnews.com/news/schools-face-new-threat-nudify-sites-use-ai-create-realistic-revealing-images-60-minutes-transcript/
I nostri redattori utilizzano l’intelligenza artificiale per aiutarli a fornire risultati articoli freschi da fonti attendibili ai nostri utenti. Se trovi immagini o contenuti inappropriati, contattaci tramite il modulo DMCA e li rimuoveremo tempestivamente. / I nostri redattori utilizzano l’intelligenza artificiale per offrire ai nostri lettori articoli freschi da fonti affidabili. Se trovi un’immagine o un contenuto inappropriato, contattaci tramite il modulo DMCA e lo rimuoveremo tempestivamente.