Kunstige intelligenssystemer som ChatGPT er blevet bemærkelsesværdigt dygtige til at generere overbevisende svar på næsten ethvert spørgsmål. Disse systemer undlader dog ofte at anerkende deres begrænsninger eller udtrykke usikkerhed, når det er relevant – en mangel, der udgør betydelige risici, efterhånden som AI tages i brug i kritiske sektorer.
Themis AI, grundlagt i 2021 af MIT-forskerne Daniela Rus, Alexander Amini og Elaheh Ahmadi, har udviklet en løsning på dette problem. Deres Capsa-platform kan integreres med enhver maskinlæringsmodel for at opdage og korrigere upålidelige resultater på få sekunder.
"Vi har alle set eksempler på, at AI hallucinerer eller begår fejl," forklarer Amini, medstifter af Themis AI. "Efterhånden som AI udbredes, kan disse fejl få katastrofale konsekvenser. Themis gør det muligt for enhver AI at forudsige og advare om sine egne fejl, før de sker."
Teknologien fungerer ved at modificere AI-modeller, så de kan genkende mønstre i deres databehandling, der indikerer tvetydighed, ufuldstændighed eller bias. Dette gør det muligt for modellerne at kvantificere deres egen usikkerhed for hvert output og markere potentielle fejl. Implementeringen er bemærkelsesværdigt enkel – det kræver blot få linjer kode at omdanne en eksisterende model til en usikkerhedsbevidst variant.
Capsa anvendes allerede i flere brancher. Farmaceutiske virksomheder bruger den til at forbedre AI-modeller, der identificerer lægemiddelkandidater og forudsiger resultater af kliniske forsøg. Udviklere af store sprogmodeller implementerer den for at muliggøre mere pålidelige svar og markere usikre outputs. Themis AI er også i dialog med halvledervirksomheder om at styrke AI-løsninger til edge computing-miljøer.
"Ved automatisk at kvantificere aleatorisk og epistemisk usikkerhed er Capsa en transformerende teknologi, der gør det muligt at fange model-fejl, før de bliver dyre fejltagelser," siger Rus, der også er direktør for MIT's Computer Science and Artificial Intelligence Laboratory. "Den udvider anvendelsen af AI-systemer til områder, hvor sikkerhed og pålidelighed er afgørende, såsom robotteknologi og autonom kørsel."
Efterhånden som AI fortsætter med at udvikle sig og vinde indpas i kritiske sektorer, vil løsninger som Capsa være afgørende for at opbygge mere troværdige systemer, der anerkender deres begrænsninger – et vigtigt skridt mod ansvarlig AI-implementering i miljøer med høje risici.