Искусственный интеллект стремится к улучшению сотрудничества, если удается живого человека.

По мере того, как устройства с искусственным интеллектом все лучше нас имитируют – как, например, программа СИ для резервирования мест в ресторане, обслуживающий горячую линию – люди все чаще не уверены, что общаются с машиной или с человеком. Однако, если бы знали правду, такие автоматы хуже удовлетворяют свою функцию. Последние исследования показывают, что мы гораздо менее склонны к сотрудничеству, если мы осознаем, что мы имеем дело с компьютером, а не живым человеком.

В эксперименте был использован простой, но niepozbawionej нюансов игры, заключающейся в том, что сочетаемся в пары игроки принимали несколько одновременных решений о сотрудничестве или предательства партнера. В долгосрочной перспективе сотрудничество для обеих сторон выгодно, но все время есть искушение, чтобы выломать и получить сразу дополнительные очки. Исследователи применили алгоритм искусственного интеллекта, который, изображая человека, реализовать стратегию, благодаря которому более эффективно, чем человек склонялся к сотрудничеству с абонентами. Однако, поскольку предыдущие исследования показывали, что люди, как правило, меньше доверяют машинам, исследователи задали себе вопрос, что произойдет, если люди узнают, что имеют дело с ботом.

Команда питал надежду, что, имея полную осведомленность личности собеседника, участники оценят его умение убеждения (а не принуждения), и в конечном итоге wyzbędą себя недоверия. „К сожалению, мы ошибались, – говорит Талал Rahwan, ученый в области компьютерных наук из Нью-Йоркского Университета в Абу-Даби и соавтор статьи, опубликованной в ноябре прошлого года. в журнале Nature Machine Intelligence. – Независимо от того, что он делал алгоритм, его собеседники просто оставались при своих uprzedzeniach”.

Botowi ujawniającemu, что это бот, было труднее, чем человеку, чтобы побудить людей к сотрудничеству, несмотря на то, что реализуемая им стратегия была явно выгодна для обеих сторон. (В любом режиме бот провел 50 раундов с не менее 150 людьми.) Во время эксперимента дополнительного участникам сразу zakomunikowano: „Из данных видно, что люди больше используют, если лечат бота, как если бы он был человеком”. Не получили никакого результата.

Virginia Dignum, управляемой командой испытанным социальные и этические аспекты искусственного интеллекта в Умео университет в Швеции, которая не принимала участия в этих исследованиях, хвалит авторов работы с ресурсами справиться с проблемой, в какой мере раскрытие, что бот не человек, влияет на результаты его действий, но, конечно, предпочла бы увидеть результаты испытаний, проведенных в других конфигурациях, чем описано в статье.

По мнению авторов в публичной сфере, следовало бы спросить, что люди предпочитают не знать, что разговаривают с ботом. Вы не можете этого делать, кстати, такого взаимодействия, потому что тогда „обман”, конечно, не сработает. Однако согласие в пустую на то, чтобы быть время от времени oszukiwanym, даже если бы удалось ее получить, и так wzbudzałaby этические сомнения. Dignum утверждает, что, в общем, люди должны иметь возможность узнать по факту, что они имели дело с ботом, но добавляет, что, когда сама звонит на какую-то горячую линию с простым вопросом, хочет просто получить правильный ответ.