Progressi dell'intelligenza artificiale per le emozioni e implicazioni per il marketing

Progressi dell'intelligenza artificiale per le emozioni e implicazioni per il marketing
Progressi dell'intelligenza artificiale per le emozioni e implicazioni per il marketing
-

Oggi ho deciso di divertirmi un po' con i generatori di immagini basati sull'intelligenza artificiale e ho chiesto loro di mostrarmi diverse emozioni sul volto di una persona: rabbia, felicità, disgusto e così via. Come previsto, i risultati hanno mostrato espressioni tipiche. La rabbia veniva mostrata con la fronte corrugata e i denti digrignati, la felicità con un ampio sorriso e il disgusto con il naso arricciato.

1731009349_72_Progressi-dell39intelligen

1731009349_12_Progressi-dell39intelligen

Ma mentre guardavo queste immagini, qualcosa non quadrava. Le emozioni umane sono così prevedibili?

La ricerca suggerisce il contrario. Le emozioni sono incredibilmente sfumate e il modo in cui le esprimiamo varia in base a chi siamo, da dove veniamo e cosa stiamo attraversando in quel momento. Potresti sorridere quando sei furioso perché sei in un ambiente professionale o potresti piangere dalla gioia. Il contesto modella le tue emozioni, ed è qui che le cose si fanno complicate per Emotion AI, una tecnologia che mira a rilevare e interpretare i nostri sentimenti in base alle espressioni facciali, alla voce o al testo.

Cos’è l’intelligenza artificiale delle emozioni?

L’Emotion AI, o Affective Computing, è stata concettualizzata per la prima volta negli anni ’90 dalla professoressa del MIT Rosalind Picard, la quale sosteneva che affinché i computer possano interagire con gli esseri umani, devono comprendere le emozioni. Ciò che era iniziato come analisi del sentiment (che significa interpretare se un pezzo di testo è positivo o negativo), si è evoluto in tentativi molto più ambiziosi di leggere l’intera gamma delle emozioni umane utilizzando algoritmi, telecamere e microfoni.

L’analisi del sentiment è un processo molto più semplice. Cerca parole chiave come “felice” o “frustrato” nel testo e assegna un punteggio positivo o negativo. L’intelligenza artificiale delle emozioni, d’altro canto, tenta di approfondire le espressioni facciali, i toni vocali o i segnali fisiologici per valutare le emozioni in tempo reale. Mentre l’analisi del sentiment ti dice come qualcuno potrebbe sentirsi in base al suo linguaggio, Emotion AI afferma di sapere cosa prova qualcuno in base al suo comportamento. Un processo che potrebbe tornare utile in categorie come servizio clienti, vendite, marketing e altro ancora.

L’ultima volta che l’IA emotiva è diventata un tema caldo è stato nel 2019, quando il mondo dell’intelligenza artificiale e del machine learning si concentrava sulla visione artificiale e non sull’arte e sui contenuti generativi. Allora, un team di ricercatori pubblicato uno studio, concludendo che le emozioni umane non possono essere determinate con precisione solo dai movimenti facciali. L’idea che possiamo insegnare all’intelligenza artificiale a riconoscere i sentimenti umani imitando il modo in cui le persone leggono le espressioni facciali, il linguaggio del corpo e il tono della voce è errata nel suo presupposto.

Le grandi aziende tecnologiche come Microsoft, IBM e Google hanno tutte lanciato le proprie versioni di Emotion AI. I servizi cognitivi di Microsoft Azure offrono il rilevamento delle emozioni come parte della sua suite di visione artificiale, consentendo agli sviluppatori di integrare il riconoscimento delle emozioni nelle loro app. Google con la sua API Cloud Vision può etichettare le emozioni nelle foto come felicità, rabbia, sorpresa o tristezza, sulla base dell'analisi facciale. Inoltre, Watson di IBM si tuffa anche nell'analisi emotiva, utilizzando l'elaborazione del linguaggio naturale per rilevare le emozioni nel testo.

Ma nonostante gli strumenti avanzati oggi disponibili, la ricerca mostra che il riconoscimento delle emozioni non è così accurato come sembra. UN rapporto dell'Association for Psychological Science suggerisce che non esiste un'espressione universale per le emozioni. Qualcuno da una parte del mondo potrebbe mostrare felicità in modo diverso rispetto a qualcuno da un’altra. Ancora più importante, molti consumatori ritengono che il loro le emozioni vengono trascurate durante le interazioni digitali, portando a un divario nell’empatia tra uomo e macchina.

Ma le aziende stanno ora implementando chatbot e assistenti AI per servire i consumatori e questo richiede precisione. Un settore in particolare è entusiasta di rilevare le emozioni umane: la pubblicità e il marketing.

Emotion AI: il sogno del marketer

Immagina un futuro in cui una campagna pubblicitaria può rilevare il tuo umore e personalizzare i contenuti per adattarlo. Se ti senti giù, l'intelligenza artificiale potrebbe consolarti, se sei felice, otterrai qualcosa di allegro e giocoso. Potrebbe cambiare il modo in cui fai acquisti e interagisci con i marchi.

I brand lo stanno già sperimentando. Unilever ha utilizzato la tecnologia di codifica facciale di Affectiva per capire come le persone rispondono emotivamente ai suoi annunci, monitorando le espressioni facciali per vedere se gli spettatori provano felicità, disgusto o sorpresa. Allo stesso modo, le risposte all’annuncio sull’intelligenza artificiale della Coca-Cola lo sono state monitorato con l'aiuto di EmotionTrac, uno strumento che misura le risposte emotive ai media catturando le espressioni facciali e altri dati biometrici. Le informazioni acquisite miravano a creare campagne di marketing personalizzate e guidate dalle emozioni.

UN recente la ricerca ha anche esplorato il potenziale dell’intelligenza artificiale nel rilevare le emozioni umane nei post su X (ex Twitter), in particolare la sua influenza sul comportamento dei donatori nei confronti delle organizzazioni no-profit. Per migliorare il rilevamento emotivo, la ricerca ha utilizzato un modello di apprendimento del trasferimento del trasformatore, pre-addestrato su ampi set di dati, per identificare emozioni specifiche nei tweet. I risultati hanno suggerito che le emozioni espresse nei post sulle organizzazioni no-profit hanno avuto un impatto significativo sul sentiment pubblico e sul successivo comportamento in materia di donazioni.

Più recentemente, Microsoft aggiornato il suo assistente AI Copilot con una voce più accattivante e capacità di analizzare le pagine web in tempo reale, mirate a migliorare l'interazione dell'utente. Questo aggiornamento ha perfezionato il tono di Copilot, facendolo sentire un ascoltatore attivo, introducendo anche funzionalità come “Think Deeper” per ragionare attraverso le decisioni e “Copilot Vision” per discutere ciò che gli utenti vedono nel loro browser.

Il potenziale dell’Emotion AI nel marketing è innegabile. Offre ai marchi un modo per connettersi con i consumatori a un livello più profondo. Ma cosa succede quando l’IA sa troppo?

Le sfide nel rilevare le emozioni

Una cosa è che un annuncio si rivolga agli interessi dei consumatori in base agli acquisti passati, ma è completamente diverso se prende di mira le loro attuali vulnerabilità emotive. La capacità di attingere ai propri sentimenti potrebbe portare a pratiche manipolative, forse anche a spingerli a prendere decisioni.

C'è anche il presupposto che l'intelligenza artificiale potrebbe sbagliare. Considerando che l’intelligenza artificiale sta ancora imparando l’ortografia, potrebbe interpretare erroneamente la rabbia del consumatore per la calma. Le differenze culturali svolgono un ruolo nell’espressione emotiva, rendendo difficile per l’intelligenza artificiale interpretare i sentimenti in modo universale. UN studio ha rivelato che i partecipanti cinesi tendono a concentrarsi maggiormente sugli occhi per interpretare le espressioni facciali, mentre i caucasici occidentali danno importanza alle sopracciglia e alla bocca. Secondo i risultati della ricerca, queste differenze culturali possono interpretare erroneamente i segnali emotivi durante la comunicazione interculturale. Se gli esseri umani stessi faticano a comprendere i sentimenti e i segnali degli altri, come può l’intelligenza artificiale rilevarli con precisione?

C'è il problema dei pregiudizi. I sistemi di intelligenza artificiale sono validi tanto quanto i dati su cui sono addestrati e, se i dati sono distorti verso determinate popolazioni, i risultati potrebbero essere distorti. Gli studi indicano che alcuni sistemi di intelligenza artificiale emotiva hanno maggiori probabilità di farlo assegnare emozioni negative ai volti di persone con carnagione scura. Ciò solleva preoccupazioni su potenziali pregiudizi se queste tecnologie vengono utilizzate in aree come il reclutamento, la valutazione delle prestazioni, la diagnostica medica o l’applicazione della legge.

Inoltre, il problema sono i dati. Le aziende hanno già accesso ai tuoi dati e agli algoritmi digitali. Ora i consumatori dovranno preoccuparsi che i tuoi dati emotivi vengano venduti a terzi in modo che i marchi possano mostrarti annunci in base al tuo umore.

Sebbene l’intelligenza artificiale possa migliorare l’esperienza dei clienti, rischia anche di invadere i nostri sentimenti privati, capitalizzandoli a scopo di lucro. Considerando che le emozioni sono personali e soggettive, dovrebbe essere consentito all’IA di sapere così tanto sul nostro mondo interiore?

In definitiva, l’intelligenza artificiale delle emozioni richiede un’attenta regolamentazione e linee guida etiche per garantire che le nostre emozioni rimangano nostre. La legge dell’Unione Europea sull’AI, approvata nel maggio 2024, vieta l'IA dalla manipolazione del comportamento e vieta il riconoscimento delle emozioni in luoghi come i luoghi di lavoro e le scuole. Permette l'identificazione delle espressioni emotive ma non degli stati emotivi. Ad esempio, il responsabile di un call center potrebbe agire sull’intelligenza artificiale rilevando un tono scontroso, ma non può presumere che la persona sia effettivamente scontrosa.

Mentre la tecnologia continua a svilupparsi, siamo pronti per un mondo in cui le macchine sanno come ci sentiamo e come ciò potrebbe cambiare il modo in cui interagiamo con loro e tra di noi? Una cosa è certa: l’intelligenza artificiale ha ancora molta strada da fare prima di iniziare a rilevare con precisione le emozioni umane. Dopotutto, come regista e produttore, Robert De Niro una volta disse: “Le persone non cercano di mostrare i propri sentimenti, cercano di nasconderli”.

Decode è una serie settimanale in cui decodificheremo ciò che sta accadendo nel mondo dei social media e della tecnologia.

-

PREV ????????Alta Savoia. Un ragazzo di 17 anni ucciso a colpi di arma da fuoco in uno scontro generale a Rumilly
NEXT Quote Mavericks: come scommettere Houston Rockets vs Dallas Mavericks