Giskard, il guardiano della qualità e della conformità dell’IA

Giskard, il guardiano della qualità e della conformità dell’IA
Giskard, il guardiano della qualità e della conformità dell’IA
-

I grandi gruppi che stanno iniziando a utilizzare strumenti di intelligenza artificiale, in particolare l’intelligenza artificiale generativa, vogliono verificarne la qualità e la conformità. È per aiutarli a raggiungere questo “controllo tecnico” che tre ex ingegneri di Dataiku e Thales hanno lanciato Giskard alla fine del 2021.

Finanziata da fondi privati ​​(Elaia Partners e Bessemer Venture Partners), diversi business angels, l’Unione Europea (EIC Accelerator) e la banca pubblica Bpifrance, la pepita ha trascorso due anni a sviluppare strumenti che consentano di testare la qualità dell’intelligenza artificiale per evitare allucinazioni e pregiudizi etici e il loro livello di sicurezza.

In cima a questi strumenti sviluppati da Giskard c’è una piattaforma di test AI open Source a cui sviluppatori e data scientist possono accedere gratuitamente. Ma la giovane azienda ha creato anche un sistema, il “Giskard Hub”, per verificare la conformità dei progetti. È su questo secondo aspetto che viene pagata. Dall’inizio della commercializzazione effettiva alla fine del 2023, la start-up ha acquisito una decina di clienti tra cui L’Oréal, Décathlon, Michelin, AXA e diversi grandi gruppi bancari.

Un mercato globale stimato in 52 miliardi di euro

Con la progressiva applicazione dell’AI Act, un insieme di misure adottate dall’Unione Europea il 13 marzo 2024 per disciplinare lo sviluppo e l’uso dei LLM (large Language Model), Giskard sta vedendo un afflusso di richieste da parte dei principali clienti europei . “Stanno scoprendo una nuova materia e hanno bisogno di sostegno umano e formazione. Fornire loro semplicemente un software con cui cavarsela non è sufficiente”, afferma Alex Combessie, presidente di Giskard e cofondatore insieme a Jean-Marie John-Mathews.

Il rischio è che l’Europa faccia da pioniere ma lasci la maggior parte del business agli americani.

Per le aziende europee interessate dall’AI Act, la sfida della conformità non è piccola. Chi non rispetta le regole rischia sanzioni dissuasive, da 7,5 a 35 milioni di euro a seconda del reato e delle dimensioni dell’azienda. L’UE è la prima regione al mondo a istituire un quadro normativo per proteggere il pubblico dalle applicazioni più rischiose.

L’orizzonte normativo diventa sempre più chiaro

Si sta aprendo un mercato considerevole per gli attori che dovrebbero lavorare per proteggere, rendere affidabili e certificare sistemi basati sull’intelligenza artificiale. Secondo uno studio della società EY del novembre 2021, il mercato dell’“intelligenza artificiale affidabile” è stimato a 52 miliardi di euro in tutto il mondo. Un’occasione per Giskard… Anche se la start-up composta da 20 persone prevede di ottenere contratti, soprattutto in Francia, la partita non sarà facile.

Ora che l’orizzonte normativo sta diventando più chiaro e i progetti di intelligenza artificiale vengono implementati, la concorrenza da parte degli Stati Uniti sta accelerando. “Il rischio è che l’Europa sia pioniera nella regolamentazione dell’intelligenza artificiale ma lasci la maggior parte del business che ne deriva agli americani”, riassume Alex Combessie che aggiunge che in questa battaglia non mancano gli asset delle start-up europee. “Beneficiano in particolare di una base di clienti europei sensibili ai temi dell’IA responsabile, già impegnati, ancor prima del voto sull’AI Act, in processi di charter e self-labeling. »

-

PREV Pochissime terapie testate sugli animali raggiungono l’uomo
NEXT Preistoria: i mammut erano già cacciati dall’uomo per il loro avorio?