menu
close

Themis AI du MIT s’attaque au problème d’incertitude dans les systèmes d’IA

Themis AI, une entreprise dérivée du MIT fondée par les chercheurs Daniela Rus, Alexander Amini et Elaheh Ahmadi, a mis au point Capsa, une plateforme révolutionnaire permettant aux modèles d’IA de reconnaître leur propre incertitude. Cette technologie répond à une faille majeure des systèmes d’IA actuels, qui fournissent des réponses avec assurance même lorsqu’ils manquent de connaissances suffisantes. En quantifiant l’incertitude des modèles et en signalant les erreurs potentielles avant qu’elles ne surviennent, Themis AI vise à rendre l’intelligence artificielle plus sécuritaire pour des applications critiques dans divers secteurs.
Themis AI du MIT s’attaque au problème d’incertitude dans les systèmes d’IA

Les systèmes d’intelligence artificielle comme ChatGPT sont devenus remarquablement habiles à générer des réponses plausibles à pratiquement toutes les questions. Cependant, ces systèmes omettent souvent de reconnaître leurs limites ou d’exprimer de l’incertitude lorsque cela serait approprié—une lacune qui comporte des risques importants à mesure que l’adoption de l’IA s’accélère dans des secteurs critiques.

Themis AI, fondée en 2021 par les chercheurs du MIT Daniela Rus, Alexander Amini et Elaheh Ahmadi, a développé une solution à ce problème. Leur plateforme Capsa peut être intégrée à n’importe quel modèle d’apprentissage automatique pour détecter et corriger les résultats peu fiables en quelques secondes.

« Nous avons tous vu des exemples d’IA qui hallucinent ou commettent des erreurs », explique Alexander Amini, cofondateur de Themis AI. « À mesure que l’IA est déployée plus largement, ces erreurs pourraient avoir des conséquences dévastatrices. Themis rend possible pour toute IA de prévoir et anticiper ses propres échecs, avant qu’ils ne surviennent. »

La technologie fonctionne en modifiant les modèles d’IA afin qu’ils reconnaissent les schémas dans leur traitement de données qui indiquent de l’ambiguïté, de l’incomplétude ou des biais. Cela permet aux modèles de quantifier leur propre incertitude pour chaque résultat et de signaler les erreurs potentielles. La mise en œuvre est étonnamment simple—il suffit de quelques lignes de code pour transformer un modèle existant en une version consciente de son incertitude.

Capsa est déjà utilisée dans plusieurs secteurs. Des entreprises pharmaceutiques s’en servent pour améliorer les modèles d’IA qui identifient des candidats-médicaments et prédisent la performance des essais cliniques. Les développeurs de grands modèles linguistiques l’intègrent pour offrir des réponses plus fiables et signaler les résultats douteux. Themis AI discute également avec des entreprises de semi-conducteurs pour renforcer les solutions d’IA dans les environnements d’informatique en périphérie.

« En quantifiant automatiquement l’incertitude aléatoire et épistémique, Capsa est une technologie transformatrice qui permet de détecter les erreurs de modèle avant qu’elles ne deviennent des erreurs coûteuses », affirme Daniela Rus, également directrice du Laboratoire d’informatique et d’intelligence artificielle du MIT. « Elle élargit les usages des systèmes d’IA dans des applications où la sécurité et la fiabilité sont essentielles, comme la robotique et la conduite autonome. »

À mesure que l’IA continue d’évoluer et de s’intégrer dans des secteurs critiques, des solutions comme Capsa seront essentielles pour bâtir des systèmes plus fiables qui reconnaissent leurs limites—une étape cruciale vers un déploiement responsable de l’IA dans des environnements à enjeux élevés.

Source:

Latest News