Что нужно человеку, чтобы доверять роботу? Это то, что исследователи армии раскрывают в новом исследовании о том, как люди и роботы работают вместе.
Исследование взаимодействия человека с агентом, или HAT, изучило, как прозрачность агентов – таких как роботы, беспилотные транспортные средства или программные агенты – влияет на человеческое доверие, выполнение задач, рабочую нагрузку и восприятие агента. Под прозрачностью агента понимается его способность донести до людей свои намерения, процесс мышления и планы на будущее.
Новое исследование под руководством армии показало, что доверие людей к роботам снижается после того, как робот совершает ошибку, даже когда он прозрачен в процессе рассуждения. Документ «Прозрачность и надежность агентов при взаимодействии человека и робота: влияние на доверие пользователей и воспринимаемую надежность» был опубликован в августовском выпуске IEEE-транзакций на человеко-машинных системах.
На сегодняшний день исследования в основном сфокусированы на HAT с совершенно надежными интеллектуальными агентами, то есть агенты не делают ошибок, но это одно из немногих исследований, в которых изучалось, как прозрачность агента взаимодействует с надежностью агента. В этом последнем исследовании люди стали свидетелями того, как робот совершил ошибку, и исследователи сосредоточились на том, считают ли люди робота менее надежным, даже если человеку было предоставлено представление о процессе его рассуждения.
Это исследование было совместным усилием ARL и Института моделирования и обучения Университета Центральной Флориды и является третьим и последним исследованием в проекте члена автономного отделения (ASM), спонсируемым Пилотной инициативой исследования автономии при Министерстве обороны. ASM – это маленький наземный робот, который взаимодействует с пехотным отрядом и взаимодействует с ним.
Предыдущие исследования ASM исследовали, как робот будет общаться с человеком по команде. Используя модель прозрачности агента, основанную на осведомленности о ситуации, в качестве руководства, были исследованы и протестированы различные методы визуализации для передачи целей, намерений, аргументов, ограничений и прогнозируемых результатов агента. На основе этих ранних результатов исследования был разработан простой иконографический модуль, который затем использовался в последующих исследованиях для изучения эффективности прозрачности агентов в HAT.
Исследователи провели это исследование в моделируемой среде, в которой участники наблюдали команду солдат-человек-агент, в которую входил ASM, проходя учебный курс. Задача участников состояла в том, чтобы контролировать команду и оценивать робота. Команда Солдат-робот столкнулась с различными событиями на трассе и отреагировала соответственно. Хотя солдаты всегда правильно реагировали на происходящее, иногда робот неправильно понимал ситуацию, приводя к неправильным действиям. Количество информации, которой поделился робот, варьировалось между испытаниями. В то время как робот всегда объяснял свои действия, причины своих действий и ожидаемый результат своих действий, в некоторых испытаниях робот также разделял причины своих решений, его основную логику. Участники просмотрели несколько команд солдат-роботов и сравнили их оценки роботов.
Исследование показало, что независимо от прозрачности робота в объяснении его аргументов, надежность робота была решающим фактором, влияющим на прогнозы участников относительно будущей надежности робота, доверия к роботу и восприятия робота. То есть после того, как участники засвидетельствовали ошибку, они продолжили оценивать надежность робота ниже, даже когда робот не совершал никаких последующих ошибок. Хотя эти оценки постепенно улучшались с течением времени, пока робот не допускал дальнейших ошибок, уверенность участников в своих собственных оценках надежности робота оставалась сниженной на протяжении оставшейся части испытаний по сравнению с участниками, которые никогда не видели ошибки. Кроме того, участники, которые стали свидетелями ошибки робота, сообщили о более низком доверии к роботу по сравнению с теми, кто никогда не был свидетелем ошибки робота.
Было установлено, что повышение прозрачности агентов повышает доверие участников к роботу, но только тогда, когда робот собирает или фильтрует информацию. Это может указывать на то, что совместное использование углубленной информации может смягчить некоторые последствия.