I en tid där AI-system i allt högre grad fattar avgörande beslut inom olika branscher blir förmågan att känna igen osäkerhet allt viktigare. Den 3 juni 2025 presenterade Themis AI, ett MIT-avknoppningsbolag, en banbrytande teknik som lär AI-modeller att erkänna vad de inte vet—en förmåga som kan förändra AI:s tillförlitlighet i kritiska tillämpningar.
Themis AI:s Capsa-plattform fungerar genom att kirurgiskt uppdatera vilken maskininlärningsmodell som helst för att möjliggöra kvantifiering av osäkerhet. "Tanken är att ta en modell, kapsla in den i Capsa, identifiera modellens osäkerheter och felmoder, och sedan förbättra modellen," förklarar Themis AI:s medgrundare och MIT-professor Daniela Rus, som även leder MIT:s Computer Science and Artificial Intelligence Laboratory (CSAIL).
Företaget grundades 2021 av Rus tillsammans med Alexander Amini (MIT '17, SM '18, PhD '22) och Elaheh Ahmadi (MIT '20, MEng '21) och bygger på över fem års grundläggande forskning. Företagets uppdrag adresserar ett grundläggande problem: AI-system som stora språkmodeller ger ofta trovärdiga svar utan att avslöja luckor i sin kunskap eller områden där de är osäkra.
Konsekvenserna för högriskområden är betydande. Inom autonoma fordon visar forskning att integrering av Themis AI:s algoritmer för osäkerhetsuppskattning ledde till 16 gånger färre kollisioner och en 93-procentig minskning av automatiska förfrågningar om mänsklig inblandning. För hälso- och sjukvård samt läkemedelsutveckling hjälper Capsa till att identifiera när AI:s förutsägelser stöds av bevis jämfört med när de bara är spekulationer, vilket potentiellt kan påskynda läkemedelsupptäckt och samtidigt minska riskerna.
"Vi vill möjliggöra AI i de mest kritiska tillämpningarna inom varje bransch," säger Amini. "Vi har alla sett exempel på AI som hallucinerar eller gör misstag. När AI används allt bredare kan dessa misstag få förödande konsekvenser. Themis gör det möjligt för vilken AI som helst att förutse och förutsäga sina egna fel innan de inträffar."
Tekniken implementeras redan inom flera branscher. Många företag som bygger stora språkmodeller använder Capsa för att deras modeller ska kunna kvantifiera osäkerhet för varje utdata, vilket möjliggör mer tillförlitliga svar och flaggning av opålitliga resultat. Themis AI samarbetar även med halvledarföretag för att förbättra mindre AI-modeller som körs på mobiltelefoner eller inbyggda system, och uppnår både låg latens och hög kvalitet.