L’intelligenza artificiale ora supera i test per distinguere gli esseri umani dai robot

L’intelligenza artificiale ora supera i test per distinguere gli esseri umani dai robot
L’intelligenza artificiale ora supera i test per distinguere gli esseri umani dai robot
-

Sicuramente sei già stato portato, mentre navighi su Internet, e vuoi accedere a un sito, a rispondere ad un questionario volto – è scritto – a stabilire che non sei un robot ma una persona reale. Ciò potrebbe comportare la copia di una serie di numeri o lettere o il clic su immagini raffiguranti un lampione o la facciata di un negozio. Questo è ciò che chiamiamo un test CAPTCHA – acronimo che in inglese significa “Test di Turing pubblico completamente automatico volto a differenziare gli esseri umani dai computer”.

Alan Turing è un brillante matematico britannico che nel 1950 istituì un test basato sulla capacità di una macchina di imitare la conversazione umana. Questo termine CAPTCHA è un marchio registrato nel 2000 dalla Carnegie Mellon University negli Stati Uniti. Questi moduli di piccole dimensioni vengono utilizzati soprattutto per impedire che le macchine si connettano in gran numero e, ad esempio, saturino l’accesso a un sito web.

Google ha creato il proprio modello Captcha nel 2009. E dal 2012, dopo il riconoscimento del testo, Google lo ha sostituito con immagini provenienti in particolare da fotografie di spazi pubblici, scattate Mappa stradale di Google. Inoltre, Google approfitta di ogni nostro clic per addestrare, in questa occasione, la propria intelligenza artificiale alle risposte degli internauti. Ad esempio, chi conferma con il suo clic la presenza di un semaforo o di un animale sull’immagine.

Finora solo gli esseri umani sono riusciti in questo esercizio di riconoscimento.

Mi-septembre 2024, tre ricercatori del Politecnico federale di Zurigo, in Svizzera, hanno stabilito un metodo che ti permette di ingannare al 100% i test ReCaptcha di Google. Mentre fino ad ora i punteggi migliori riguardavano una percentuale di successo compresa tra il 68 e il 71%.

Che cambiamento porta questa scoperta? Ciò abbassa il livello di sicurezza dei siti.

  • Che si tratti di distorcere i dati delle presenze, mettendo in dubbio la realtà del pubblico, potenzialmente costituito da visite alle macchine,
  • Per consentire la creazione automatizzata di una moltitudine di account utente, per poi avere profili fittizi utilizzati a fini fraudolenti,
  • Oppure per facilitare l’accesso ai dati, visto che un robot può entrare e poi navigare in un sito e aspirare dati. Un tema diventato importante, poiché la caccia a tali dati è in corso, per alimentare basi documentarie per alimentare modelli di intelligenza artificiale.

L’intelligenza artificiale può diventare dannosa?

La maggior parte delle principali piattaforme di intelligenza artificiale hanno pianificato di vietare gli usi solitamente considerati illeciti. Ma la creatività umana sta lavorando per trovare modi per aggirare questi blocchi.

Così nel 2023, i test di laboratorio condotti da OpenAI su ChatGPT-4 hanno portato questa intelligenza artificiale a offrire scenari per ingannare questi sistemi Captcha. L’algoritmo è stato corretto per evitare questo tipo di deviazione. Ma è in corso un lavoro per tenere conto di possibili usi devianti.

Verso altre forme di controllo all’ingresso dei siti?

Il rischio quindi è che si sviluppino sistemi che rendano più complicato l’accesso a un sito web. Ciò rallenterebbe la fluidità della navigazione e complicherebbe gli usi digitali. Senza dimenticare che versioni ancora più complesse da risolvere potrebbero mettere in difficoltà gli utenti Internet/mobile non vedenti. Che sono già penalizzati da questi test di riconoscimento delle immagini.

Si tratta poi di arricchire la gamma delle tecnologie utilizzate, per rilevare se si tratta di un essere umano o di un robot. Ciò può essere fatto, ad esempio, analizzando la cronologia di navigazione o i movimenti del mouse considerati troppo meccanici. Alcuni siti stanno pensando di rinunciare ai CAPTCHA per tornare alle classiche richieste di conferma via email o SMS.

Questo lavoro accademico illustra ancora una volta l’eterna battaglia digitale tra spada e scudo. Stabilire misure protettive che dovranno evolversi con l’ingegno degli aggressori. Senza spaventare l’utente in buona fede. Un equilibrio in definitiva molto umano.

-

PREV Presenti il ​​75% dei minori di 13 anni
NEXT Recensione dell’Asus Zenbook S 14 (UX5406): la nostra recensione completa –