Künstliche Intelligenz-Systeme wie ChatGPT sind inzwischen bemerkenswert gut darin, auf nahezu jede Anfrage plausibel klingende Antworten zu generieren. Allerdings gestehen diese Systeme ihre Grenzen selten ein oder äußern Unsicherheit, wenn es angebracht wäre – ein Mangel, der angesichts der zunehmenden Verbreitung von KI in kritischen Bereichen erhebliche Risiken birgt.
Themis AI, 2021 von den MIT-Forschern Daniela Rus, Alexander Amini und Elaheh Ahmadi gegründet, hat eine Lösung für dieses Problem entwickelt. Ihre Capsa-Plattform lässt sich mit jedem Machine-Learning-Modell kombinieren, um unzuverlässige Ergebnisse innerhalb von Sekunden zu erkennen und zu korrigieren.
„Wir haben alle schon Beispiele gesehen, in denen KI halluziniert oder Fehler macht“, erklärt Amini, Mitgründer von Themis AI. „Wenn KI breiter eingesetzt wird, könnten solche Fehler verheerende Folgen haben. Themis ermöglicht es, dass jede KI ihre eigenen Fehler voraussagen und vorhersagen kann – bevor sie passieren.“
Die Technologie funktioniert, indem sie KI-Modelle so modifiziert, dass sie Muster in ihrer Datenverarbeitung erkennen, die auf Mehrdeutigkeit, Unvollständigkeit oder Verzerrung hinweisen. Dadurch können die Modelle ihre eigene Unsicherheit für jede Ausgabe quantifizieren und potenzielle Fehler markieren. Die Implementierung ist bemerkenswert einfach – es sind nur wenige Codezeilen nötig, um ein bestehendes Modell in eine unsicherheitsbewusste Variante zu verwandeln.
Capsa wird bereits in verschiedenen Branchen eingesetzt. Pharmaunternehmen nutzen die Plattform, um KI-Modelle zur Identifizierung von Wirkstoffkandidaten und zur Prognose des Erfolgs klinischer Studien zu verbessern. Entwickler großer Sprachmodelle setzen Capsa ein, um zuverlässigere Antworten zu ermöglichen und unsichere Ergebnisse zu kennzeichnen. Themis AI befindet sich zudem in Gesprächen mit Halbleiterunternehmen, um KI-Lösungen für Edge-Computing-Umgebungen zu optimieren.
„Durch die automatische Quantifizierung aleatorischer und epistemischer Unsicherheit ist Capsa eine transformative Technologie, die es ermöglicht, Modellfehler zu erkennen, bevor sie teure Konsequenzen nach sich ziehen“, sagt Rus, die auch Direktorin des MIT Computer Science and Artificial Intelligence Laboratory ist. „Sie erweitert die Einsatzmöglichkeiten von KI-Systemen in Bereichen, in denen Sicherheit und Zuverlässigkeit entscheidend sind, etwa in der Robotik und im autonomen Fahren.“
Während KI sich weiterentwickelt und zunehmend in kritische Sektoren vordringt, werden Lösungen wie Capsa entscheidend sein, um vertrauenswürdigere Systeme zu schaffen, die ihre eigenen Grenzen anerkennen – ein wichtiger Schritt hin zu verantwortungsvollem KI-Einsatz in risikoreichen Umgebungen.