Люди в Японии относятся к сотрудничеству с искусственными агентами с тем же уровнем уважения, что и к людям, в то время как американцы значительно чаще используют ИИ в личных целях, согласно новому исследованию, опубликованному в Scientific Reports исследователями из LMU Мюнхен и Токийского университета Васэда.
По мере того как автономные транспортные средства и другие автономные роботы ИИ становятся все более интегрированными в повседневную жизнь, культурные установки по отношению к искусственным агентам могут определить, как быстро и успешно эти технологии будут внедрены в различных обществах.
Культурный разрыв в сотрудничестве человека и ИИ
«По мере того как технологии автономного вождения становятся реальностью, повседневные встречи будут определять, как мы делим дорогу с умными машинами», — заявил доктор Юргис Карпус, ведущий исследователь из LMU Мюнхен, в исследовании.
Исследование представляет собой одно из первых всесторонних межкультурных анализов того, как люди взаимодействуют с искусственными агентами в ситуациях, где интересы могут не всегда совпадать. Результаты ставят под сомнение предположение о том, что эксплуатация алгоритмов — тенденция к использованию кооперативного ИИ — является универсальным явлением.
Результаты показывают, что по мере устояния автономных технологий общества могут сталкиваться с различными проблемами интеграции в зависимости от культурных установок по отношению к искусственному интеллекту.
Методология исследования: теория игр выявляет поведенческие различия
Исследовательская группа использовала классические эксперименты поведенческой экономики — Игру доверия и Дилемму заключенного — чтобы сравнить, как участники из Японии и Соединенных Штатов взаимодействовали как с человеческими партнерами, так и с системами ИИ.
В этих играх участники принимали решения между личной выгодой и взаимной пользой, с реальными денежными стимулами, чтобы убедиться, что они делают настоящие решения, а не гипотетические. Этот экспериментальный дизайн позволил исследователям напрямую сравнить, как участники относились к людям и ИИ в идентичных сценариях.
Игры были тщательно структурированы, чтобы воспроизвести повседневные ситуации, включая дорожные сценарии, когда людям необходимо решать, следует ли сотрудничать с другим агентом или эксплуатировать его. Участники играли несколько раундов, иногда с человеческими партнерами, а иногда с системами ИИ, что позволяло непосредственно сравнивать их поведение.
«Наши участники в Соединенных Штатах значительно реже сотрудничали с искусственными агентами, чем с людьми, в то время как участники в Японии проявляли эквивалентные уровни сотрудничества с обоими типами участников», — отмечается в статье.
Карпус, Ю., Ширай, Р., Верба, Дж.Т. и др.
Вина как ключевой фактор культурных различий
Исследователи предполагают, что различия в испытываемой вине являются основным двигателем наблюдаемого культурного разнообразия в том, как люди относятся к искусственным агентам.
В исследовании было установлено, что люди на Западе, особенно в Соединенных Штатах, чувствуют раскаяние, когда эксплуатируют другого человека, но не испытывают его, когда эксплуатируют машину. В Японии, напротив, люди, похоже, испытывают вину в схожей степени, независимо от того, плохо ли они обращаются с человеком или искусственным агентом.
Доктор Карпус объясняет, что в западной мысли подрезать робота в движении — это не все равно, что ранить его чувства, что подчеркивает перспективу, которая может способствовать большей готовности эксплуатировать машины.
В исследовании также был включен исследовательский компонент, в котором участники сообщали о своих эмоциональных реакциях после раскрытия результатов игр. Эти данные предоставили важные сведения о психологических механизмах, лежащих в основе поведенческих различий.
Эмоциональные реакции выявляют более глубокие культурные модели
Когда участники эксплуатировали кооперативный ИИ, японские участники сообщали о значительном большем количестве негативных эмоций (вины, злости, разочарования) и меньшем количестве положительных эмоций (счастья, триумфа, облегчения) по сравнению с их американскими коллегами.
Исследование показало, что предатели, использующие своего AI-компаньона в Японии, сообщали о значительно большем чувстве вины, чем предатели в Соединенных Штатах. Эта более сильная эмоциональная реакция может объяснить большую неготовность японских участников эксплуатировать искусственных агентов.
С другой стороны, американцы испытывали более негативные эмоции, когда эксплуатировали людей, чем ИИ, что не наблюдалось среди японских участников. Для людей в Японии эмоциональная реакция была схожа независимо от того, эксплуатировали ли они человека или искусственного агента.
В исследовании отмечается, что японские участники испытывали схожие чувства по отношению к эксплуатируемым как человеческим, так и ИИ-напарникам по всем опрошенным эмоциям, что говорит о радикально отличающемся моральном восприятии искусственных агентов по сравнению с западными установками.
Анимизм и восприятие роботов
Культурный и исторический фон Японии может играть значительную роль в этих выводах, предлагая возможные объяснения наблюдаемым различиям в поведении по отношению к искусственным агентаи воплощенному ИИ.
В статье отмечается, что историческая привязанность Японии к анимизму и убеждение в том, что неживые объекты могут обладать душами в буддизме, привели к предположению, что японцы более восприимчивы и заботливы по отношению к роботам, чем люди в других культурах.
Этот культурный контекст может создавать абсолютно отличную отправную точку для восприятия искусственных агентов. В Японии может существовать менее резкая граница между людьми и нечеловеческими сущностями, способными к взаимодействию.
Исследования, упомянутые в статье, предполагают тенденцию в Японии воспринимать искусственных агентов как схожих с людьми, при этом роботы и люди часто изображаются как партнеры, а не в иерархических отношениях. Эта перспектива может объяснить, почему японские участники эмоции по отношению к искусственным агентам и людям демонстрируют сходное внимание.
Последствия для принятия автономной технологии
Эти культурные установки могут непосредственно влиять на то, как быстро автономные технологии будут приняты в различных регионах, имея потенциально далеко идущие экономические и социальные последствия.
Доктор Карпус предполагает, что если люди в Японии будут относиться к роботам с тем же уважением, что и к людям, полностью автономные такси могут стать обычным явлением в Токио быстрее, чем в западных городах, таких как Берлин, Лондон или Нью-Йорк.
Желание эксплуатировать автономные транспортные средства в некоторых культурах может создать практические проблемы для их гладкой интеграции в общество. Если водители чаще будут подрезать автомобили с автопилотом, забирать их приоритет или иным образом использовать их запрограммированную осторожность, это может препятствовать эффективности и безопасности этих систем.
Исследователи выражают мнение, что эти культурные различия могут значительно влиять на сроки широкого внедрения таких технологий, как дроны для доставки, автономный общественный транспорт и самоходные личные автомобили.
Интересно, что исследование показало незначительные различия в том, как японцы и американцы сотрудничали с другими людьми, что соответствует предыдущим исследованиям в области поведенческой экономики.
В исследовании наблюдались ограниченные различия в готовности японских и американских участников сотрудничать с другими людьми. Эта находка подчеркивает, что расхождения возникают конкретно в контексте взаимодействия человека и ИИ, а не отражают более широкие культурные различия в кооперативном поведении.
Эта регулярность в сотрудничестве человека с человеком предоставляет важную основу для измерения культурных различий в взаимодействии человека и ИИ, что укрепляет выводы исследования о уникальности наблюдаемой модели.
Широкие последствия для разработки ИИ
Выводы имеют важные последствия для разработки и внедрения ИИ-систем, предназначенных для взаимодействия с людьми в различных культурных контекстах.
Исследование подчеркивает критическую необходимость учитывать культурные факторы при проектировании и реализации ИИ-систем, которые взаимодействуют с людьми. То, как люди воспринимают и взаимодействуют с ИИ, не является универсальным и может значительно различаться в разных культурах.
Игнорирование этих культурных нюансов может привести к непредвиденным последствиям, замедлению темпов принятия технологий и потенциальным злоупотреблениям или эксплуатации технологий ИИ в определенных регионах. Это подчеркивает важность межкультурных исследований в понимании взаимодействия человека и ИИ и обеспечения ответственной разработки и внедрения ИИ по всему миру.
Исследователи предполагают, что по мере того как ИИ становится все более интегрированным в повседневную жизнь, понимание этих культурных различий станет все более важным для успешной реализации технологий, требующих сотрудничества между людьми и искусственными агентами.
Ограничения и направления будущих исследований
Исследователи признают определенные ограничения в своей работе, которые указывают на направления для будущих исследований.
Исследование в основном сосредоточилось всего на двух странах — Японии и Соединенных Штатах, которые, хотя и предоставляют ценную информацию, могут не охватывать весь спектр культурного разнообразия в взаимодействии человека и ИИ на глобальном уровне. Необходимо провести дополнительные исследования в более широкой группе культур, чтобы обобщить эти выводы.
Кроме того, хотя эксперименты в области теории игр предоставляют контролируемые сценарии, которые идеально подходят для сравнительных исследований, они могут не полностью охватывать сложности реальных взаимодействий человека и ИИ. Исследователи предполагают, что валидация этих выводов в полевых исследованиях с реальными автономными технологиями будет важным следующим шагом.
Объяснение на основе вины и культурных убеждений о роботах, хотя и поддерживается данными, требует дальнейшего эмпирического исследования для окончательного установления причинно-следственной связи. Исследователи призывают к более целенаправленным исследованиям, изучающим специфические психологические механизмы, лежащие в основе этих культурных различий.
«Наши текущие выводы смягчают обобщение этих результатов и показывают, что эксплуатация алгоритмов не является кросс-культурным явлением», — заключают исследователи.
Пост Является ли эксплуатация роботов универсальной или зависит от культуры? впервые появился на Unite.AI.