Революційний прорив у сфері соціальної робототехніки змінює спосіб, у який машини навчаються взаємодіяти з людьми. Дослідники розробили систему симуляції, що дозволяє навчати соціальних роботів без залучення людських учасників, що потенційно може трансформувати терміни розвитку цієї галузі.
Дослідження, представлене на Міжнародній конференції з робототехніки та автоматизації IEEE 2025 року (ICRA), виконала команда з Університету Суррея та Гамбурзького університету. Їхній підхід ґрунтується на динамічній моделі прогнозування траєкторії погляду, яка допомагає роботам передбачати, куди люди природно дивитимуться під час соціальних взаємодій.
"Наш метод дозволяє перевірити, чи робот звертає увагу на ті самі речі, що й людина, — без необхідності постійного людського нагляду", — пояснює докторка Ді Фу, співкерівниця дослідження та викладачка когнітивної нейронауки в Університеті Суррея.
Дослідницька команда перевірила свою модель на двох відкритих наборах даних, продемонструвавши, що людиноподібні роботи можуть успішно імітувати людські рухи очей. Проєктуючи карти пріоритету людського погляду на екран, вони безпосередньо порівнювали прогнозований фокус уваги робота з реальними даними, усуваючи потребу у масштабних дослідженнях взаємодії людини й робота на ранніх етапах.
Ця інновація вирішує суттєву проблему розвитку соціальної робототехніки. Раніше дослідникам було потрібно багато людських учасників для навчання й тестування роботів, призначених для соціальних сфер, таких як освіта, охорона здоров'я та обслуговування клієнтів. Прикладами таких роботів є Pepper — асистент у роздрібній торгівлі, та Paro — терапевтичний робот для пацієнтів із деменцією.
Завдяки можливості тестувати й удосконалювати моделі соціальної взаємодії у симуляції до впровадження у реальному світі, це досягнення може суттєво прискорити цикл розробки соціальних роботів, одночасно знижуючи витрати та підвищуючи їхню ефективність у людському середовищі.