Los sistemas de inteligencia artificial como ChatGPT se han vuelto notablemente hábiles para generar respuestas plausibles a prácticamente cualquier consulta. Sin embargo, estos sistemas a menudo no reconocen sus limitaciones ni expresan incertidumbre cuando corresponde, una deficiencia que representa riesgos significativos a medida que la adopción de la IA se acelera en sectores críticos.
Themis AI, fundada en 2021 por los investigadores del MIT Daniela Rus, Alexander Amini y Elaheh Ahmadi, ha desarrollado una solución a este problema. Su plataforma Capsa puede integrarse con cualquier modelo de aprendizaje automático para detectar y corregir salidas poco confiables en cuestión de segundos.
"Todos hemos visto ejemplos de IA alucinando o cometiendo errores", explica Amini, cofundador de Themis AI. "A medida que la IA se despliega de manera más amplia, esos errores podrían tener consecuencias devastadoras. Themis hace posible que cualquier IA pueda prever y predecir sus propias fallas antes de que ocurran".
La tecnología funciona modificando los modelos de IA para que reconozcan patrones en su procesamiento de datos que indiquen ambigüedad, información incompleta o sesgo. Esto permite que los modelos cuantifiquen su propia incertidumbre para cada resultado y señalen posibles errores. La implementación es sorprendentemente sencilla: solo se requieren unas pocas líneas de código para transformar un modelo existente en una variante consciente de su incertidumbre.
Capsa ya se está aplicando en múltiples industrias. Empresas farmacéuticas la utilizan para mejorar modelos de IA que identifican candidatos a medicamentos y predicen el desempeño en ensayos clínicos. Desarrolladores de grandes modelos de lenguaje la están implementando para lograr respuestas más confiables y señalar salidas poco fiables. Themis AI también está en conversaciones con empresas de semiconductores para mejorar soluciones de IA en entornos de edge computing.
"Al cuantificar automáticamente la incertidumbre aleatoria y epistémica, Capsa es una tecnología transformadora que permite detectar errores de modelo antes de que se conviertan en errores costosos", afirma Rus, quien también es directora del Laboratorio de Ciencias de la Computación e Inteligencia Artificial del MIT. "Amplía los usos de los sistemas de IA en aplicaciones donde la seguridad y la confiabilidad son clave, como la robótica y la conducción autónoma".
A medida que la IA continúa evolucionando y penetrando en sectores críticos, soluciones como Capsa serán fundamentales para construir sistemas más confiables que reconozcan sus limitaciones, un paso crucial hacia el despliegue responsable de la IA en entornos de alto riesgo.