Почему люди чаще обращаются к ИИ с женской личностью, показало исследование

Исследование, опубликованноев журнале iScience, выявило необычный эффект. Выяснилось, что люди склонны вести себя менее честно по отношению к ИИ, наделенному женскими, небинарными или нейтральными характеристиками, чем к ИИ, обозначенному как мужской. Работа показывает, что гендерные стереотипы проявляются даже в отношениях с нематериальными цифровыми агентами.

Как проходил эксперимент

Участникам предложили сыграть в классическую «дилемму заключенного». В этой игре доступно два варианта. Первый — сотрудничать и получить взаимную выгоду. Второй — попытаться выиграть за счет партнера, воспользовавшись его доверчивостью. Если оба выбирают взаимопомощь, результат оптимальный. Если один предает, а другой нет, предатель получает больше очков. Когда оба играют в одиночку, выигрыш минимален.

Чтобы проверить влияние гендерных ассоциаций, исследователи обозначили партнеров четырьмя вариантами. Это были «женский», «мужской», «небинарный» и «без гендера». Ими могли быть как люди, так и агенты ИИ. Такое разделение помогло увидеть, как меняется поведение участников.

Кто играет честно, а кто хитрит

Авторы работы обнаружили, что люди примерно на 10% чаще используют нечестную стратегию, когда играют с ИИ, а не с человеком. При этом участники были более готовы сотрудничать с агентами, наделенными женскими, небинарными или нейтральными признаками, чем с «мужскими» партнерами. Они предполагали, что такие агенты сами выберут честную стратегию.

Женщины чаще других проявляли доверие к «женским» агентам и реже шли на риск в игре с мужскими персонажами. Это напоминает известное явление гомофилии, когда человек охотнее взаимодействует с теми, кого воспринимает как «похожих на себя».

Почему возникает желание эксплуатировать ИИ

Отказ от сотрудничества мог объясняться двумя мотивами. Первый — нежелание быть обманутым. Второй — попытка воспользоваться предполагаемой честностью партнера. Исследователи считали второй вариант проявлением эксплуатации.

Оказалось, что участники чаще выбирают нечестную стратегию по отношению к женским и «безгендерным» агентам, чем к мужским. Если партнер был ИИ, вероятность эксплуатации становилась еще выше. Мужчины чаще, чем женщины, пользовались слабостью партнера, а также сильнее различали людей и ИИ. 

Участники чаще «эксплуатировали» женских ИИ-партнеров, потому что подсознательно воспринимали их как более склонных к сотрудничеству или менее способных сопротивляться. Это отражает существующие предвзятости в отношении женщин. Эксплуатация ИИ чаще происходит с агентами, которых участники считали уязвимыми.

Человеческие ожидания формируют поведение в ИИ-взаимодействии. Люди чаще доверяют женским или нейтральным ИИ, но при этом используют возможность извлечь выгоду, если игра предполагает такой сценарий. 

Что это говорит о будущем ИИ

Авторы отметили, что современный ИИ становится все более «очеловеченным». У систем появляются имена, голоса, внешность и гендерные метки. Все это помогает людям быстрее доверять машинам. Однако такой подход способен непреднамеренно усиливать существующие социальные перекосы.

Если люди привыкают эксплуатировать одних агентов и избегать других, то это может повлиять на их поведение и в реальном мире. Особенно важно учитывать это в будущем, когда ИИ будет управлять транспортом, планировать рабочие задачи и становиться постоянным партнером в принятии решений.

«Подобные искажения способны закреплять вредные привычки и усиливать гендерную дискриминацию», — подчеркивают авторы исследования.

Чтобы избежать этого, разработчикам важно учитывать такие эффекты при создании интерфейсов и взаимодействий, а также стремиться к справедливому и нейтральному ИИ.

Подписывайтесь и читайте «Науку» в Telegram