I sistemi di intelligenza artificiale come ChatGPT sono diventati straordinariamente abili nel generare risposte plausibili a praticamente qualsiasi domanda. Tuttavia, questi sistemi spesso non riconoscono i propri limiti né esprimono incertezza quando sarebbe opportuno—una carenza che comporta rischi significativi man mano che l’adozione dell’IA accelera nei settori critici.
Themis AI, fondata nel 2021 dai ricercatori del MIT Daniela Rus, Alexander Amini ed Elaheh Ahmadi, ha sviluppato una soluzione a questo problema. La loro piattaforma Capsa può essere integrata con qualsiasi modello di machine learning per rilevare e correggere output inaffidabili in pochi secondi.
"Abbiamo tutti visto esempi di IA che allucinano o commettono errori," spiega Amini, co-fondatore di Themis AI. "Man mano che l’IA viene distribuita su larga scala, questi errori potrebbero avere conseguenze devastanti. Themis rende possibile che qualsiasi IA possa prevedere e anticipare i propri fallimenti, prima che accadano."
La tecnologia funziona modificando i modelli di IA affinché riconoscano schemi nei loro processi di elaborazione dati che indicano ambiguità, incompletezza o bias. Questo permette ai modelli di quantificare la propria incertezza per ogni output e segnalare potenziali errori. L’implementazione è sorprendentemente semplice: bastano poche righe di codice per trasformare un modello esistente in una versione consapevole della propria incertezza.
Capsa è già applicata in diversi settori. Aziende farmaceutiche la utilizzano per migliorare i modelli di IA che identificano candidati farmaci e prevedono le performance dei trial clinici. Sviluppatori di grandi modelli linguistici la stanno implementando per rispondere alle domande in modo più affidabile e segnalare output poco sicuri. Themis AI è inoltre in trattative con aziende di semiconduttori per potenziare soluzioni di IA per l’edge computing.
"Quantificando automaticamente l’incertezza aleatoria ed epistemica, Capsa è una tecnologia trasformativa che permette di individuare gli errori dei modelli prima che si traducano in costosi sbagli," afferma Rus, che è anche direttrice del MIT Computer Science and Artificial Intelligence Laboratory. "Amplia le possibilità d’uso dei sistemi di IA in applicazioni dove sicurezza e affidabilità sono fondamentali, come la robotica e la guida autonoma."
Man mano che l’IA continua a evolversi e a penetrare nei settori critici, soluzioni come Capsa saranno fondamentali per costruire sistemi più affidabili, capaci di riconoscere i propri limiti—un passo cruciale verso un’adozione responsabile dell’IA in contesti ad alto rischio.