Intelligenza artificiale (AI), (in tutte le sue componenti) – sotto diversi paradigmi o modelli e piattaforme come LLM (ChatGPT), algoritmi, modelli o macchine di apprendimento automatico (AutoML), Nobel Turing Challenge (NTC), Open Machine Learning (OpenML ), DynaBench (raccolta dinamica di dati e benchmarking), software e calcoli ad alte prestazioni… – è un complesso processo di informatizzazione e virtualizzazione capace di riflettere, ragionare, apprendere e prendere decisioni allo stesso tempo dell’intelligenza umana, che stessa non è uguale da una persona all’altra.
AI: definizione estensiva
La digitalizzazione o dematerializzazione in senso lato è la raccolta e manipolazione di informazioni in tempo reale. L’algoritmo, derivante dal nome di Al Khawarizmi, il “ nonno dell’informatica », è il primo ad aver sistematizzato questo metodo di calcolo, che è un processo aritmetico, di controllo e di elaborazione di dati per la risoluzione di un problema o l’ottenimento di un risultato.
Algoritmo e origine dell’IA
Questo metodo scientifico algoritmico era già utilizzato, nella sua forma primaria o iniziale, in Mesopotamia, sotto lo Stato babilonese, 3800 anni fa, per il calcolo e la riscossione delle tasse e per le transazioni commerciali, e probabilmente anche nell’Antico Egitto, 4.500 anni fa, per le stesse operazioni fiscali e commerciali, poiché alla riscossione delle imposte si applicavano l’aritmetica e la contabilità; poi un po’ più tardi, 2300 anni fa, l’algoritmo di Euclide che calcola il massimo comun divisore (PGCD) di due numeri. Questo stesso algoritmo arricchito e nutrito, che opera ancora oggi in campi vari e diversi come il commercio, la finanza, l’agricoltura, l’industria, la medicina, l’imaging medico, l’ottica, l’informatica, la ricerca biomedica, il cambiamento climatico o le pandemie.
Storia della ricerca, continuità e posizione dell’IA
La ricerca scientifica rilevante e operativa non risale al ventunesimo secolo. Le leggi e i teoremi dei grandi matematici e fisici della storia che possono risalire fino a 2600 anni e fino al XX secolo come Talete, Pitagora, Euclide, Archimede, Jabir ibn Hayyan, Al Khawarizmi, Al Kindi, Isaac Newton, Albert Einstein e molti altri sono ancora attuali e di grande valore scientifico per la ricerca attuale. Il fondamento stesso della ricerca scientifica – e la creazione dell’IA non è in alcun modo al di fuori di questa filosofia, di questo obiettivo di interesse generale – è mettersi al servizio degli esseri umani, al servizio della comunità e non il contrario.
L’informatica, la programmazione, il ragionamento e l’apprendimento computazionale non segnano un allontanamento dalla scienza e dalla ricerca scientifica del passato, ma le completano. Infatti, è stato quasi 1200 anni fa, ben prima di Internet, delle applicazioni dei social network, degli smartphone, di Netflix, di Google Maps (o PageRank) e dell’intelligenza artificiale, che il grande matematico Al Khawarizmi concettualizzò questo insieme algoritmico.
L’algoritmo dell’AI
L’algoritmo dell’intelligenza artificiale è un processo di deep learning e adattamento a dati e situazioni complesse, e sono proprio i dati di apprendimento e adattamento a caratterizzarlo, a prepararlo, a formattarlo. Se, matematicamente e numericamente, per raggiungere un obiettivo o risolvere un problema, l’algoritmo classico procede passo dopo passo, l’algoritmo AI genera come apprendere.
Tuttavia, questa non è affatto una differenza di natura, è semplicemente una differenza di grado. E dal lavoro del grande scienziato Al-Khawarizmi nell’830 al lavoro di Alan Turing nel 1950 o a quello di John McCarthy nel 1955, sull’intelligenza artificiale non c’è nemmeno una differenza di natura, ma solo una differenza di grado. Per più di 2000 anni, la ricerca scientifica ha esaminato l’idea e il modo di mettere le macchine intelligenti al servizio dell’uomo e della sua evoluzione. Sono trascorsi più di 2000 anni da quando diverse correnti di pensiero, mitologiche, profetiche, filosofiche, scientifiche o artistiche, hanno gradualmente dato il loro contributo a questo processo di Intelligenza Artificiale.
Più recentemente, negli anni ’70, la fantascienza esprimeva il timore che le macchine rendessero schiavi gli esseri umani. Ad esempio, Ira Levin pubblicò nel 1970 “ Felicità insopportabile »dove l’umanità è governata da un computer nascosto sotto le montagne.
AI: un passo avanti nell’accumulazione della conoscenza
L’intelligenza artificiale è un processo di ragionamento digitale e di appropriazione di dati che parte da dati reali trasformandoli, si presenta oggi come un grado elevato di apprendimento, decisione, conoscenza, letteratura, scienza e tecnologia (tekhnologia in greco, più di 2400 anni fa). Ha dunque questo in comune con l’intelligenza umana di ieri e dell’altro ieri. Non si tratta di una cesura nella storia cognitiva dell’umanità, ma nella ricerca scientifica della comunità di ricercatori, si tratta di una pietra miliare nell’accumulazione di conoscenze, know-how e divulgazione, fin dalla notte dei tempi, fin dalla civiltà mesopotamica , 10.000 anni fa.
Niente si crea “ex nihilo nihil”
Tutto è detto, in realtà, o quasi, e arriviamo troppo tardi (Jean de La Bruyère 1645-1696), per pretendere di inventare, poiché “ niente dal niente “, dal nulla, non succede nulla,” nulla nasce né perisce, diceva settemila anni fa il filosofo greco Anassagora di Clazomene, ma le cose già esistenti si uniscono e si separano di nuovo.“. Più tardi, il filosofo e chimico Antoine Lavoisier (1743-1794), disse quasi la stessa cosa in questa citazione apocrifa (a lui attribuita), sulla conservazione della materia: “nulla si perde, nulla si crea, tutto si trasforma ».
AI contro HI: intelligenza artificiale//intelligenza umana
La ricerca scientifica non nasce dal nulla, si aggrega da particelle già esistenti, unisce, trasforma, si arricchisce; e l’intelligenza artificiale, come componente” robotizzato » della ricerca scientifica che possa influenzare pensieri, atteggiamenti e comportamenti paragonabili all’intelligenza umana, nonostante tutte le sue prestazioni, non fa eccezione alla regola. Anche il binomio intelligenza umana e intelligenza artificiale diventa sempre più una necessità, visto il contesto internazionale favorevole alla scienza, con tutte le carenze che ad essa sono intimamente legate, e a tutte le eventualità: transazioni, concorrenza, egemonia, guerre, pandemie …Inoltre, l’investimento congiunto di tutti questi attori, individui e istituzioni: aziende, università, donatori, autorità pubbliche, ricercatori ed esperti…in questi campi disciplinari dell’IA, è ancora indietro rispetto ad altri campi di indagine.
L’intelligenza artificiale è un’arma a doppio taglio?
L’intelligenza artificiale è infatti un’arma a doppio taglio: può essere utilizzata per scopi benefici oppure per scopi malvagi, anche dannosi e distruttivi. In effetti è “ uno strumento tra gli altri ”, uno strumento tecnologico “che va compreso”, e preso seriamente in considerazione, perché i rischi si gestiscono, e la preponderanza delle attività digitali sul lavoro manuale genera inevitabilmente falle, minacce, attacchi che vanno combattuti, con le stesse armi: combattere l’IA malvagia con l’IA buona. Tuttavia, quando abiezione umana » supera la grandezza, non saremmo sorpresi di vedere l’intelligenza artificiale utilizzata per scopi « abietto ».
Noteremo innanzitutto minacce e attacchi come criminalità informatica, problemi di phishing o phishing, attacchi ed e-mail, imitazione artificiale, rischi etici e sociali e manipolazione fraudolenta o criminale dei dati, e “ilha fatto una bugia » attraverso i social network, in occasione delle elezioni presidenziali negli USA Evidenzieremo poi gli svantaggi come il costo elevato della macchina che è allo stesso tempo priva di iniziativa, emozioni, moralità e creatività, l’assenza di controllo , trasparenza e miglioramento con l’esperienza.
Per quanto riguarda i vantaggi, segnaliamo in particolare programmazione continua e lavoro senza pause, assistenza, risparmio di tempo e qualità della vita, elevata produttività con attività ripetitive, elaborazione di big data, accesso alle informazioni, riduzione degli errori ed esplorazione di campi di indagine difficili, possibilità di essere innovazione e creatività ma non raggiungere mai” ciò che ha il cervello umano ».
Qual è il contributo dell’intelligenza artificiale alla società?
In conclusione, chiudo con questa domanda: qual è il contributo dell’IA nel settore pubblico, privato o semi-pubblico? In altre parole: qual è il contributo dell’AI per l’amministrazione, le imprese o le ONG? L’automazione dei compiti è un vantaggio significativo, sia per l’amministrazione che per l’azienda o le ONG, il ruolo dell’intelligenza artificiale nell’aiutare il processo decisionale, e di conseguenza l’esperienza e la personalizzazione dell’esperienza, e l’esperienza significa anche riduzione dei costi e dei rischi e aumento dell’efficacia e dell’efficienza.