L’intelligenza artificiale è in grado di interpretare ciò che le viene chiesto?

L’intelligenza artificiale è in grado di interpretare ciò che le viene chiesto?
L’intelligenza artificiale è in grado di interpretare ciò che le viene chiesto?
-

La nozione di interpretazione è sempre più presente nel mondo dell’intelligenza artificiale. Per gli esseri umani, si tratta di interpretare algoritmi difficili da spiegare matematicamente. Per la macchina la sfida è interpretare i dati per trarre conclusioni. E, recentemente, deve interpretare una breve istruzione in linguaggio naturale: questo è il principio di funzionamento di ChatGPT e dell’ultima innovazione di OpenAI, il suo modello GPT-4o che interagisce tramite la voce con una fluidità inquietante. Possiamo quindi parlare di una vera e propria svolta interpretativa dell’IA.

L’arte dell’interpretazione è tuttavia conosciuta da secoli con il termine ermeneutica. È stato inizialmente applicato alla lettura di poeti o testi sacri prima di evolversi in un movimento filosofico per significare che l’interpretazione è il fondamento della comprensione, anche se rappresenta l’attività necessaria dell’essere. Il nostro accesso al mondo è infatti sempre influenzato da certi toni non neutri, ma intrisi di una carica culturale. Ma la somiglianza si ferma al semplice uso del termine interpretazione? In altre parole, l’intelligenza artificiale fa ermeneutica? Dobbiamo farlo per capirlo? O sono entrambe le cose allo stesso tempo?

Dialoga direttamente con la macchina nella nostra lingua

L’evento che completa la svolta interpretativa dell’IA è senza dubbio la messa online di ChatGPT, nel novembre 2022. L’innovazione essenziale dei grandi modelli linguistici, come il suo, è che alla macchina viene richiesto più che mai di interpretare le istruzioni umane Prima. L’utente di Internet inserisce un “prompt” per chiedere cosa desidera, quindi il sistema fornisce una risposta, che si tratti di un testo, di un’immagine o di qualcosa detto ad alta voce. Non ci rivolgiamo più alla macchina nel linguaggio informatico, nel codice, ma nel linguaggio naturale o nei cosiddetti dati non strutturati.

Naturalmente le “allucinazioni” (errori della macchina sotto forma di affermazioni plausibili ma deliranti) sono innumerevoli e i risultati possono ancora essere migliorati, ma qualcosa sta succedendo. L’interpretazione, quest’attività che a lungo credevamo riservata agli esseri umani, è oggi rilevata dagli strumenti digitali.

In verità, è passato molto tempo da quando l’informatica è diventata oggetto di interpretazione, da quando la scienza ha iniziato a utilizzare sempre più strumenti digitali e tecniche di imaging (mediche, nanometriche, spettroscopiche, ecc.). Il filosofo americano Don Ihde, scomparso quest’anno, se ne è accorto molto presto, dapprima nella sua opera Tecnologia e mondo della vita (1990).

Sfortunatamente, è stato subito dopo la sua morte che la sua rilevanza sembrava saltarci agli occhi. “Tutte le immagini richiedono interpretazione”, ha scritto nel 2021. Prosegue spiegando che le immagini sono “tecnologiche nella loro incorporazione” perché richiedono l’uso di uno strumento sofisticato per produrle, far apparire l’immagine e quindi l’oggetto studiato. Parla quindi di uno “spostamento del 20”.e–XXIe secoli verso le tecniche di imaging […] che ha trasformato le pratiche scientifiche e la produzione di prove […] Queste tecnologie hanno contribuito a rafforzare la necessità di interpretazione”.

Per Ihde ciò che caratterizza questa necessità non è più il rapporto diretto con le cose. Dobbiamo utilizzare strumenti o immagini, ma in modo tale da costruire l’oggetto attraverso il mezzo che ci dà accesso ad esso, come la fotografia o lo strumento di misura scientifico. La nostra comprensione dell’oggetto è quindi inseparabile dal mezzo senza il quale non potremmo conoscerlo. La famosa fotografia di un buco nero (2019), che in realtà non è una fotografia, ma una costruzione basata sui dati di otto diversi radiotelescopi, fornisce una delle migliori illustrazioni.

Il ritorno dell’ambiguità

Secondo Ihde, la svolta interpretativa in cui si è impegnata la scienza tende a colmare il divario tra “spiegazione” e “comprensione”. Un conto è spiegare come è stato costruito un castello, con quali materiali o con quali tecniche. Un’altra è capire il motivo della sua esistenza, perché i suoi costruttori decisero di erigerlo in un determinato luogo e in un determinato momento. In quest’ultimo caso (quello della comprensione), è opportuno ricorrere all’interpretazione, con riguardo agli elementi storici. Tuttavia, la scienza si sta orientando sempre più verso l’interpretazione, per non più limitarsi a spiegare gli oggetti che studia. Ciò segna un riavvicinamento tra le scienze e le discipline umanistiche (letteratura, filosofia, storia, ecc.).

L’intelligenza artificiale accentua ulteriormente questa connessione. Già perché la macchina è chiamata a interpretare ciò che le diamo, ma anche perché l’uomo deve sempre più interpretare i risultati della macchina. L’ambiguità sta prendendo piede sempre più nel mondo dell’informatica che, erede della matematica, si credeva protetto da essa. E ambiguità significa anche interpretazione. I più diffusi sistemi di intelligenza artificiale di oggi, in particolare l’analisi delle immagini o la generazione di testi, si basano su reti neurali artificiali. Tuttavia, questa tecnica di apprendimento cosiddetto “profondo” non è facile da comprendere, anche per gli esperti. Il che è molto dannoso quando ci rendiamo conto molto tempo dopo che la macchina sta riproducendo un pregiudizio discriminatorio.

L’AI Act, regolamento sull’IA recentemente adottato dall’Unione Europea, prevede però che i sistemi cosiddetti “ad alto rischio” siano soggetti ad analisi approfondite (analisi la cui natura resta da definire). Ma è impossibile determinare esattamente quali siano le ragioni per cui il software dà questo o quel risultato, possiamo solo “interpretarne” il funzionamento. Se esistono oggi tecniche di “spiegabilità” per stimare il peso di ciascuna variabile, è tuttavia il termine “interpretabilità” che dovrebbe essere preferito, perché ci offrono solo stime, ma nessuna spiegazione chiara e distinta, quella che la matematica richiede per eliminare qualsiasi ambiguità.

L’intelligenza artificiale ci invita addirittura ad andare oltre le interpretazioni quantitative, poiché è importante capire alla luce della storia come i modelli di intelligenza artificiale costruiscono le loro interpretazioni, a volte distorte o discriminanti: “Anche se qualcuno riuscisse a convincerci che a volte gli algoritmi semplicemente sputano sciocchezze, la struttura di queste sciocchezze tenderanno vagamente alla struttura dei pregiudizi storici”, sottolinea il ricercatore e figura dell’etica dell’IA Timnit Gebru. Se le tecniche di interpretabilità saranno utili, sarà necessario anche analizzare le produzioni dell’IA in modo più sensibile, considerando che anch’esse sono frutto di una determinata storia e società.

Interpretare per trovare significato

Se l’intelligenza artificiale è effettivamente in grado di interpretare in una certa misura le nostre parole per risponderci, la comprensione è un fenomeno che sembra andare oltre. Comprendere qualcosa richiede una certa dose di immaginazione per immaginare l’oggetto della nostra conoscenza nelle sue molteplici e nuove configurazioni, per apprenderlo in un modo raramente formale, ma che coinvolge il sentimento. Alcuni alunni recitano mirabilmente la loro lezione senza capire nulla, perché mancano del sentimento necessario per esclamare: “Ho capito!” » Una sensazione quasi impossibile da descrivere, ma ti sei mai meravigliato di aver capito all’improvviso qualcosa che ti resisteva? Allora tu sai bene cos’è questo sentimento, questo evento sensibile di comprensione.

E questo sentimento è fertile, perché può produrre interpretazione: ci appaiono nuovi collegamenti, nuove configurazioni, nuovi orizzonti che chiamano la nostra immaginazione. A volte diciamo: “ha senso” e non è una coincidenza. Ciò ha senso, letteralmente, poiché ritengo che questa interpretazione sia corretta. Questo è quindi un aspetto dell’interpretazione che separa la nostra comprensione da quella della macchina, poiché i sistemi informatici sono insensibili. L’immaginazione necessaria per quest’arte non sarà mai per loro altro che una “e-magination”, come scrive il filosofo Alberto Romele (Ermeneutica digitale2020).

L’interpretazione prodotta dall’IA generativa differisce quindi dalla nostra in quanto è incapace di comprendere nulla. Essa rappresenta tuttavia un aspetto decisivo della svolta interpretativa che, in modi diversi, si sta svolgendo nel mondo della scienza. La macchina interpreta le nostre richieste in linguaggio naturale e noi interpretiamo i suoi risultati o il suo funzionamento. L’intelligenza artificiale attualizza l’ermeneutica al punto che non si dovrebbe più parlare di intelligenza artificiale, ma di interpretazione artificiale.


Per ulteriori : L’intelligenza artificiale, i suoi pregiudizi e i nostri di Rémy Demichelis, éditions du Faubourg, in uscita il 12 giugno 2024.

-

PREV Tolosa. Pedone ucciso, conducente in fuga, testimonianza del passeggero: cosa sappiamo della tragedia
NEXT Scopri dove guardare live streaming e trasmissioni televisive in India