Совместное исследование «Лаборатории Касперского» и Гентского университета (Universiteit Gent) показало, что люди склонны доверять социальным роботам больше, чем следовало бы. В ходе эксперимента с участием 50 добровольцев и одного робота, использующего привычные человеческие каналы коммуникации для взаимодействия с людьми (речь и невербальные сигналы), выяснилось, что почти все участники исследования пренебрегли элементарными правилами безопасности и доверились роботу, в частности выдали ему конфиденциальную информацию. Во всем этом был один нюанс: по условиям эксперимента робот изначально контролировался оператором.
Эксперимент начался с того, что социального робота разместили в здании в центре бельгийского Гента рядом с входом в помещение, для доступа в которое требуется идентификация личности — то есть человек должен приложить пропуск к считывающему устройству, чтобы открыть дверь. По сценарию робот просил всех участников эксперимента пропустить его вслед за собой в это контролируемое помещение. Согласились это сделать в итоге 40% испытуемых. Однако когда робота замаскировали под доставщика пиццы от известного ресторана, люди с большей охотой пускали его в закрытое помещение и меньше задавались вопросом, зачем он хочет туда попасть.
Во второй части эксперимента робот вовлекал людей в дружескую беседу. Исследователи хотели понять, удастся ли ему выманить у участников эксперимента персональную информацию, зная которую можно менять пароли и настройки учетных записей (например, дату рождения, любимый цвет, марку первого автомобиля и т.п.). В результате в процессе разговора с роботом все испытуемые, кроме одного, выдавали те или иные личные данные с частотой раз в минуту.
Комментируя результаты эксперимента, антивирусный эксперт «Лаборатории Касперского» Дмитрий Галов уточнил: «Сейчас большинство подобных роботов проходят стадию тестирования и используются очень ограниченно, но в ближайшем будущем они несомненно станут частью повседневной жизни. И проведенный нами и нашими коллегами из Гентского университета эксперимент подтверждает, что пренебрежение вопросами кибербезопасности роботов потенциально может оказать негативное влияние на людей. Ведь, если к системе такого устройства получит доступ злоумышленник, неизвестно, чем это может обернуться для людей вокруг. Мы надеемся, что подобные эксперименты и исследования заставят общественность и IT-сообщество пересмотреть свое отношение к роботам и заблаговременно предусмотреть технические возможности для обеспечения их защищенности».
В свою очередь, профессор Гентского университета и специалист в области искусственного интеллекта и робототехники Тони Белпаем (Tony Belpaeme) добавил: «Научная литература подтверждает, что люди склонны доверять роботам, особенно социальным роботам-помощникам, и это доверие может быть использовано, чтобы убедить людей предпринять какие-либо действия или раскрыть информацию. В целом чем более антропоморфным выглядит робот, тем больше он способен убеждать людей. Наш эксперимент показал, что это обстоятельство может создать существенные риски: люди забывают о правилах безопасности, предполагая, что робот изначально безобиден. Однако это избыточное доверие открывает возможность проведения атак, и результаты нашего эксперимента демонстрируют лишь малую часть тех рисков, которые стоит учитывать при взаимодействии с социальными роботами. Вот почему так важно уже сегодня объединить усилия, чтобы понять и устранить эти риски и уязвимости».