I en tid hvor AI-systemer i stigende grad træffer afgørende beslutninger på tværs af brancher, bliver evnen til at genkende usikkerhed stadig mere essentiel. Den 3. juni 2025 præsenterede Themis AI, et spinout fra MIT, banebrydende teknologi, der lærer AI-modeller at erkende, hvad de ikke ved – en evne, der kan revolutionere AI-pålidelighed i kritiske applikationer.
Themis AI’s Capsa-platform fungerer ved målrettet at opdatere enhver maskinlæringsmodels arkitektur, så den kan kvantificere usikkerhed. "Ideen er at tage en model, indkapsle den i Capsa, identificere modellens usikkerheder og fejltilstande og derefter forbedre modellen," forklarer Themis AI’s medstifter og MIT-professor Daniela Rus, der også leder MIT’s Computer Science and Artificial Intelligence Laboratory (CSAIL).
Themis AI blev grundlagt i 2021 af Rus sammen med Alexander Amini (MIT '17, SM '18, PhD '22) og Elaheh Ahmadi (MIT '20, MEng '21) og bygger på mere end fem års grundforskning. Virksomhedens mission adresserer et fundamentalt problem: AI-systemer som store sprogmodeller leverer ofte svar, der lyder plausible, uden at afsløre videnshuller eller usikkerhed.
Konsekvenserne for højrisikoområder er betydelige. Inden for autonome køretøjer viser forskning, at integration af Themis AI’s algoritmer til usikkerhedsestimering førte til 16 gange færre kollisioner og en 93% reduktion i automatiske anmodninger om menneskelig indgriben. For sundheds- og medicinalapplikationer hjælper Capsa med at identificere, hvornår AI-forudsigelser er understøttet af evidens frem for blot spekulation, hvilket potentielt kan accelerere lægemiddeludvikling og samtidig reducere risici.
"Vi ønsker at muliggøre AI i de mest kritiske applikationer i enhver branche," siger Amini. "Vi har alle set eksempler på AI, der hallucinere eller begår fejl. Efterhånden som AI implementeres bredere, kan disse fejl få ødelæggende konsekvenser. Themis gør det muligt, at enhver AI kan forudsige og forudse sine egne fejl, før de sker."
Teknologien er allerede under implementering i flere brancher. Mange virksomheder, der udvikler store sprogmodeller, bruger Capsa til at gøre deres modeller i stand til at kvantificere usikkerhed for hvert output, hvilket muliggør mere pålidelige svar og markering af upålidelige resultater. Themis AI samarbejder også med halvledervirksomheder om at forbedre mindre AI-modeller, der kører på mobiltelefoner eller indlejrede systemer, så man opnår både lav latenstid og høj kvalitet.