Dopo i dati, le nostre intenzioni? Come l’intelligenza artificiale potrebbe manipolare i nostri desideri

Dopo i dati, le nostre intenzioni? Come l’intelligenza artificiale potrebbe manipolare i nostri desideri
Dopo i dati, le nostre intenzioni? Come l’intelligenza artificiale potrebbe manipolare i nostri desideri
-

« Hai detto che ti sentivi oberato di lavoro, posso prenotarti quel biglietto per il cinema di cui abbiamo parlato? » Secondo il dottor Yaqub Chaudhary e il dottor Jonnie Penn, due ricercatori dell’Università di Cambridge, i giganti dell’intelligenza artificiale (AI) venderanno presto il nostro “ intenzioni ”, dopo che i vincitori della pubblicità mirata (Google, Facebook) hanno attirato la nostra attenzione.

I ricercatori del Leverhulme Centre for the Future of Intelligence (LCFI) dell’università britannica ritengono che se le autorità non stanno attente, ci sarà ” una corsa all’oro per tutti coloro che prendono di mira, guidano e vendono le intenzioni umane ».

I due esperti sostengono, in un articolo pubblicato sul Revisione della scienza dei dati di Harvard il 31 dicembre, che ChatGPT, Mistral AI, Gemini, Claude e altri strumenti di intelligenza artificiale generativa (AI) potrebbero presto” prevedere e influenzare le nostre decisioni in una fase iniziale e vendere questi “intenti” in tempo reale alle aziende che possono soddisfare le esigenze, prima ancora che noi abbiamo preso la nostra decisione ».

Leggi anche: “Internet è diventata una prigione di sorveglianza senza sbarre né uscite”, l’analisi intransigente di Shoshana Zuboff

Un sistema di aste

Un’azienda o un gruppo cerca di incrementare la vendita di un determinato prodotto, di promuovere un determinato servizio, di favorire un determinato candidato alle elezioni presidenziali? Basterebbe quindi pagare i colossi dell’IA, attraverso un sistema di aste simile a quello che esiste per i nostri dati personali, per “indirizzare” la conversazione di tale agente conversazionale verso il prodotto o il servizio che ha vinto l’asta.

Dall’avvento di ChatGPT e dall’entusiasmo generato dall’IA generativa, questi strumenti hanno infatti accesso” a grandi quantità di dati psicologici e comportamentali intimi, raccolti attraverso il dialogo informale e conversazionale », notano i ricercatori. “ Ciò che le persone dicono quando conversano, come lo dicono e il tipo di inferenze che possono derivare in tempo reale sono molto più intime delle semplici registrazioni di interazioni online. », aggiungono.

E già da diversi mesi gli strumenti di intelligenza artificiale cercano di “ suscitare, dedurre, raccogliere, registrare, comprendere, prevedere e, infine, manipolare e commercializzare i piani e gli obiettivi degli esseri umani “. I due autori scrivono che “ dietro i considerevoli investimenti “, dietro il ” discorsi sensazionali sul futuro degli LLM », « l’ambizione principale » I giganti dell’intelligenza artificiale utilizzerebbero l’intelligenza artificiale generativa per “ dedurre preferenze umane, intenzioni, motivazioni e altri attributi psicologici e cognitivi ».

Leggi anche: “I LLM fanno schifo”: il responsabile dell’intelligenza artificiale di Meta affronta l’attuale intelligenza artificiale generativa e promette molto meglio

A riprova, OpenAI, la società dietro ChatGPT, ha dichiarato, in un post sul blog del 9 novembre 2023, « essere interessati a set di dati su larga scala che riflettono la società umana (…). Cerchiamo in particolare dati che esprimano intenzioni umane (ad esempio, scritti o conversazioni di lunga durata piuttosto che frammenti sconnessi), in tutte le lingue, su tutti gli argomenti e in tutti i formati ».

Una settimana dopo, fu Miqdad Jaffer, allora direttore dei prodotti di Shopify – ora di OpenAI – a descrivere, durante la conferenza degli sviluppatori di OpenAI, una sorta di:

« continuum in cui ci troviamo attualmente. I chatbot intervengono per ottenere esplicitamente l’intento dell’utente (…)». O, ” iniziamo comprendendo l’intento dell’utente, quindi prevediamo l’intento dell’utente, quindi prevediamo l’azione dell’utente ».

Il CEO di Nvidia ha anche spiegato che gli LLM possono essere utilizzati per comprendere intenzioni e desideri.

Possibile “manipolazione sociale su scala industriale”

Concretamente, gli agenti conversazionali potrebbero quindi registrare per un lungo periodo “ dati comportamentali e psicologici che segnalano l’intento » e che portano a decisioni. “ Sebbene alcuni intenti siano fugaci, la classificazione e il targeting degli intenti che persistono sarà estremamente redditizio per gli inserzionisti », scrivono i due ricercatori. Questi dati verrebbero poi classificati, correlati con la storia online, l’età, il sesso, il vocabolario, gli orientamenti politici e persino il modo in cui un particolare utente può essere convinto e quindi manipolato.

Ciò che preoccupa i ricercatori, che credono che lo sia è giunto il momento di riflettere sul probabile impatto di un simile mercato delle intenzioni sui nostri standard democratici, “comprese elezioni libere ed eque, una stampa libera e una concorrenza leale sul mercato”. Perché per quest’ultimo siamo infatti all’alba di un possibile “manipolazione sociale su scala industriale”.

???? Per non perdere nessuna novità da 01net, seguici su Google News e WhatsApp.

-

PREV L’iPad Air 2022 costa meno di 380 euro
NEXT Hisense annuncia lo strabiliante Mini TV LED