Исследование: Люди не могут выключить робота, если он просит о пощаде
Сказывается «очеловечивание» машин и эмпатия.
Фото VideoBlocks
Немецкие учёные из Университета Дуйсбург-Эссена провели эксперимент, чтобы выяснить, могут ли «социальные» роботы вызвать сочувствие у людей. Оказалось, что люди слишком быстро «очеловечивают» машины и готовы даже отказаться их выключить, если те просят о пощаде. Результаты эксперимента опубликованы в журнале PLOS One.
Для исследования учёные набрали 89 добровольцев, которым предлагалось пройти пару заданий с небольшим человекоподобным роботом Nao. Например, нужно было отвечать на серию вопросов, таких как «любите ли вы пиццу или пасту» и «нравится ли вам составление расписания на неделю».
Фото Айка Хорстманна
Испытуемым сказали, что таким образом они совершенствуют систему обучения Nao. Но это было лишь прикрытием для настоящего эксперимента, который начинался после ответов на вопросы — добровольцев просили отключить робота.
В половине случаев на этом моменте робот начинал протестовать, заявляя, что боится темноты и кричал «Нет! пожалуйста, не отключайте меня!». Из 43 испытуемых, слышавших просьбы о пощаде, 13 отказались выключать робота, а ещё 30 понадобилось в два раза больше времени по сравнению с группой, которая ничего не слышала.
Среди причин отказа выключать роботов одни добровольцы назвали то, что их удивили крики, другие решили, что делают что-то не так, а некоторые заявили, что робот не хотел, чтобы его выключали.
Робот сказал, что не хочет, чтобы его выключали, так кем бы мы были, если бы сделали это?
Авторы исследования пришли к выводу, что добровольцы были «склонны относиться к роботу как к реальному человеку». Поэтому они следовали, или по крайней мере рассматривали возможность прислушаться к просьбам машины.
Заключение учёных вписывается в более широкую теорию «уравнения СМИ». Согласно ей, люди воспринимают разные средства массовой информации, включая телевидение, кино и компьютеры, как если бы они тоже были людьми. Также согласно исследованиям, людям комфортнее взаимодействовать с подобными себе роботами, например, когда у них есть гендерные стереотипы.
Немецкие учёные были не первыми, кто исследовал сценарий «компьютера, который не хочет умирать». Похожее исследование провели в 2007 году, когда похожий на кота робот просил пощадить его. Тогда все участники эксперимента выключили машину под наблюдением учёных — но не без серьёзных моральных дилемм.
В нынешнем исследовании учёные пытались расширить эксперимент: они дали возможность роботу показать социальные навыки до того, как добровольцев попросят его выключить. Nao высказывал своё мнение, рассказывал шутки и даже делился личной информацией. Но несмотря на это, подобное взаимодействие не отразилось на решении людей пощадить робота.
По словам лидера группы исследователей Айка Хорстманна (Aike Horstmann), людям не стоит бояться, что в ближайшее время ими станут манипулировать социальные роботы.
Я слышал много таких опасений. Но я думаю это просто то, к чему мы должны привыкнуть. Теория уравнения медиа предполагает, что мы реагируем так на роботов, потому что в течение тысяч лет были единственными социальными существами на планете.
Теперь мы не одни и нам нужно к этому привыкать. Это бессознательная реакция, но она может измениться.
#исследования #роботы