Les systèmes d’intelligence artificielle tels que ChatGPT sont devenus remarquablement compétents pour générer des réponses plausibles à pratiquement n’importe quelle question. Cependant, ces systèmes omettent souvent de reconnaître leurs limites ou d’exprimer leur incertitude lorsque cela serait approprié—une lacune qui présente des risques importants à mesure que l’adoption de l’IA s’accélère dans des secteurs critiques.
Themis AI, fondée en 2021 par les chercheurs du MIT Daniela Rus, Alexander Amini et Elaheh Ahmadi, a mis au point une solution à ce problème. Leur plateforme Capsa peut être intégrée à n’importe quel modèle d’apprentissage automatique pour détecter et corriger les sorties peu fiables en quelques secondes.
« Nous avons tous vu des exemples d’IA qui hallucinent ou commettent des erreurs », explique Amini, cofondateur de Themis AI. « À mesure que l’IA est déployée plus largement, ces erreurs pourraient avoir des conséquences désastreuses. Themis permet à toute IA de prévoir et de prédire ses propres échecs, avant qu’ils ne se produisent. »
La technologie fonctionne en modifiant les modèles d’IA afin qu’ils reconnaissent, dans leur traitement des données, les schémas indiquant une ambiguïté, une incomplétude ou un biais. Cela permet aux modèles de quantifier leur propre incertitude pour chaque sortie et de signaler les erreurs potentielles. La mise en œuvre est d’une simplicité remarquable—il suffit de quelques lignes de code pour transformer un modèle existant en une variante consciente de son incertitude.
Capsa est déjà utilisée dans de nombreux secteurs. Des entreprises pharmaceutiques s’en servent pour améliorer les modèles d’IA qui identifient des candidats-médicaments et prédisent les performances des essais cliniques. Les développeurs de grands modèles de langage l’intègrent pour offrir des réponses plus fiables et signaler les sorties douteuses. Themis AI est également en discussion avec des entreprises de semi-conducteurs pour renforcer les solutions d’IA dans les environnements de calcul en périphérie (edge computing).
« En quantifiant automatiquement l’incertitude aléatoire et épistémique, Capsa est une technologie transformatrice qui permet de détecter les erreurs des modèles avant qu’elles ne deviennent des fautes coûteuses », affirme Rus, également directrice du Laboratoire d’informatique et d’intelligence artificielle du MIT. « Elle élargit les usages des systèmes d’IA dans des applications où la sécurité et la fiabilité sont essentielles, comme la robotique et la conduite autonome. »
À mesure que l’IA continue d’évoluer et de s’implanter dans des secteurs critiques, des solutions comme Capsa seront déterminantes pour bâtir des systèmes plus fiables, capables de reconnaître leurs limites—une étape cruciale vers un déploiement responsable de l’IA dans des environnements à enjeux élevés.