Системы искусственного интеллекта, такие как ChatGPT, достигли впечатляющих успехов в генерации правдоподобных ответов практически на любой запрос. Однако такие системы часто не признают своих ограничений и не выражают сомнения там, где это необходимо — этот недостаток становится всё более опасным по мере внедрения ИИ в критически важные сферы.
Themis AI, основанная в 2021 году исследователями MIT Даниэлой Рус, Александром Амини и Элахе Ахмади, предложила решение этой проблемы. Их платформа Capsa может быть интегрирована с любой моделью машинного обучения для обнаружения и исправления ненадёжных результатов всего за несколько секунд.
«Мы все видели примеры, когда ИИ "галлюцинирует" или допускает ошибки, — объясняет Амини, сооснователь Themis AI. — По мере более широкого внедрения ИИ такие ошибки могут привести к катастрофическим последствиям. Themis позволяет любой системе искусственного интеллекта прогнозировать и предсказывать собственные сбои ещё до их возникновения».
Технология работает за счёт модификации ИИ-моделей так, чтобы они распознавали в процессе обработки данных паттерны, указывающие на неоднозначность, неполноту или предвзятость. Это позволяет моделям количественно оценивать свою неопределённость для каждого результата и отмечать возможные ошибки. Внедрение Capsa максимально просто — достаточно добавить всего несколько строк кода, чтобы превратить существующую модель в вариант с учётом неопределённости.
Capsa уже применяется в различных отраслях. Фармацевтические компании используют её для совершенствования ИИ-моделей, которые определяют перспективные лекарственные соединения и прогнозируют результаты клинических испытаний. Разработчики крупных языковых моделей внедряют Capsa для повышения надёжности ответов и выявления ненадёжных результатов. Themis AI также ведёт переговоры с производителями полупроводников для повышения эффективности ИИ-решений на периферийных вычислительных устройствах.
«Автоматически оценивая алеторическую и эпистемическую неопределённость, Capsa становится революционной технологией, позволяющей выявлять ошибки моделей до того, как они приведут к дорогостоящим последствиям», — отмечает Рус, директор Лаборатории компьютерных наук и искусственного интеллекта MIT. — «Это расширяет возможности применения ИИ в областях, где критически важны безопасность и надёжность, например, в робототехнике и автономном вождении».
По мере того как искусственный интеллект развивается и проникает в ключевые отрасли, решения вроде Capsa становятся необходимыми для создания более надёжных систем, способных признавать свои ограничения — это важный шаг к ответственному внедрению ИИ в ответственных сферах.