Il toolkit di intelligenza artificiale responsabile supportato da IBM e Red Hat lanciato nel 2019 è oggi più essenziale che mai. La comunità TrustyAI dovrebbe evolversi e integrarsi con altre comunità open Source, come KubeFlow ed EleutherAI. Spiegazioni.
EEssendo una comunità open Source, TrustyAI occupa una posizione unica all’interno dello spazio dell’intelligenza artificiale responsabile. La comunità ritiene che sia essenziale democratizzare la progettazione e la ricerca di strumenti di intelligenza artificiale responsabile attraverso un modello open Source. L’osservazione è la stessa di OpenLLM in Francia con LUCIE. È giunto il momento far sentire la voce dei liberi nel campo dell’intelligenza artificiale etica e responsabile.
Di cosa stiamo parlando?
TrustyAI è un comunità open Source che si impegna a fornire una serie diversificata di strumenti per supportare lo sviluppo e l’implementazione di un’intelligenza artificiale (AI) responsabile.
Creato nel 2019 come parte di Kogito, una comunità open Source dedicata all’automazione, è supportato principalmente da Red Hat e IBM.
A partire dal 2021, TrustyAI si è ramificato da Kogito e ha acquisito dimensioni e portata grazie al recente boom dell’IA.
Cosa fa TrustAI
La comunità TrustyAI sta sviluppando diversi progetti di intelligenza artificiale responsabile, incentrati su spiegabilità, monitoraggio, implementazione e integrazione responsabile dei modelli. Sono noti due casi d’uso.
- Il primo riguarda un modello “tradizionale” di machine learning che prevede l’accettazione dei sinistri in ambito assicurativo.
- Il secondo riguarda l’implementazione di un modello di intelligenza artificiale generativa destinato a fungere da tutor nel campo dell’algebra.
Sviluppiamo questo secondo scenario. Immagina di ottenere un modello di intelligenza artificiale generativa destinato a fungere da tutor di algebra. Per garantire ciò, sarebbe preferibile verificare che tale modello abbia buone conoscenze specifiche in materia e circoscrivere le interazioni con gli utenti a questo specifico ambito. Per verificare le capacità algebriche del modello, è possibile eseguire valutazioni utilizzando il servizio Valutazione del modello linguistico da TrustyAI. Questo si basa su lm-evaluation-harness, la libreria EleutherAI, ed effettua una serie di valutazioni automatizzate al fine di misurare un’ampia gamma di aspetti legati alle prestazioni del modello. In questo caso, seleziona semplicemente tre sottoinsiemi della valutazione Massive Multitask Language Understanding: algebra astratta, matematica per l’istruzione superiore e matematica per l’istruzione secondaria. Se il modello ottiene un buon punteggio in questi esami, creerà la certezza che si tratta di uno strumento adatto per fungere da tutor di algebra affidabile.
Una volta ritenute soddisfacenti le prestazioni del modello nel dominio desiderato, è possibile impostare una distribuzione limitata utilizzando Guardrail fidati AI. In questo caso è possibile applicare dei guardrail in ingresso e in uscita che verifichino che il contenuto e la conversazione riguardino la matematica.
Progetti della comunità TrustyAI
La comunità TrustyAI fornisce diversi strumenti.
Per gli sviluppatori Java, offre la libreria Java TrustyAIil progetto più antico ancora attivo all’interno della comunità. Il suo obiettivo è consentire un flusso di lavoro responsabile dell’intelligenza artificiale all’interno delle applicazioni Java, rendendola l’unica libreria di questo tipo all’interno dell’ecosistema Java al momento in cui è stata sviluppata.
Per data scientist e sviluppatori che utilizzano PythonTrustyAI rende disponibile la sua libreria Java tramite la libreria TrustyAI Python. In questo caso, gli algoritmi TrustyAI sono integrati con le comuni librerie di data science, come Numpy o Pandas. Si prevede di aggiungere algoritmi Python nativi alla libreria, che amplieranno la compatibilità di TrustyAI integrandolo con librerie come PyTorch o TensorFlow. Un esempio di tale progetto è trustyai-detoxify, un modulo integrato nella libreria TrustyAI Python che offre guardrail, rilevamento di linguaggi tossici e funzionalità di riformulazione da utilizzare con LLM.
Per le grandi aziende e nei casi d’uso MLOps, TrustyAI fornisce il servizio e operatore TrustyAI Kubernetes, che include algoritmi TrustyAI dedicati al rilevamento di bias, spiegabilità e deriva all’interno di un ambiente cloud, offrendo al contempo interfacce per la valutazione del modello linguistico e funzionalità Guardrails. Sia il servizio che l’operatore sono integrati all’interno di Open Data Hub e Red Hat OpenShift AI. Attualmente, il servizio Kubernetes di TrustyAI supporta i modelli tabulari forniti in Kserve o ModelMesh.
Il futuro di TrustyAI
Il principale contributore a TrustyAI è Red Hat (e la sua società madre IBM). L’azienda intende favorire la collaborazione per crescere e ritiene che sia necessario integrare TrustyAI con altre comunità open Source, come KubeFlow ed EleutherAI, al fine di “ promuovere la crescita e l’espansione di tutti ».
Puoi visualizzare la guida e le roadmap della community di TrustyAI o unirti al canale Slack della community.
Mi piace questa:
Mi piace caricamento…