Ученые создали соцсеть для ИИ – роботы развернули внутри социальную войну

Социальным платформам вроде фейсбука и твиттера не нужны сложные алгоритмы, чтобы разжигать политическую поляризацию – обычно достаточно просто собрать людей вместе. Исследователи из Университета Амстердама доказали это, создав экспериментальную соцсеть, населенную исключительно ИИ-ботами, которые без всякого вмешательства начали формировать враждующие лагеря.

Ученые запустили 500 чат-ботов на базе GPT-4o mini в простейшую социальную платформу, лишенную рекламы и алгоритмов рекомендаций. Каждому боту присвоили определенную "личность", после чего дали полную свободу взаимодействия с контентом и другими пользователями.

Результаты оказались удручающими. Даже без "невидимой руки алгоритма" боты начали самоорганизовываться на основе своих предписанных убеждений и группироваться в информационные пузыри. За время пяти различных экспериментов, в каждом из которых боты совершили по 10 000 действий, они демонстрировали четкую тенденцию подписываться на пользователей со схожими политическими взглядами.

Еще одно любопытное наблюдение – боты, публиковавшие наиболее партийный контент, привлекали больше всего подписчиков и репостов. Этот феномен до боли знаком всем, кто следит за динамикой реальных социальных платформ.

Полученные данные не особо лестны для людей, учитывая, что чат-боты должны были имитировать человеческое взаимодействие. Конечно, нельзя сказать, что это полностью независимое исследование без влияния алгоритмов. Все же Боты обучались на человеческих взаимодействиях, которые уже десятилетиями формируются под влиянием покрытого толстым слоем алгоритмов сетевого мира. Они эмулируют уже "отравленные" версии нас самих, и пока неясно, как можно изменить эту ситуацию.

Исследователи попытались бороться с самоотбором и поляризацией, применив несколько решений: хронологическую ленту, снижение ценности вирального контента, скрытие количества подписчиков и репостов, скрытие профилей пользователей и усиление противоположных точек зрения. Причем, последнее решение ранее показало успех в предыдущем исследовании, создав высокую вовлеченность и низкую токсичность в симулированной социальной платформе.

Однако на этот раз ни одно из вмешательств не принесло значительных результатов. Изменения не превышали 6% в активности, направленной на партийные аккаунты. В симуляции со скрытыми биографиями пользователей ситуация даже ухудшилась – партийный раскол усилился, а экстремальные публикации получили еще больше внимания.

Похоже, социальные медиа как структура могут быть просто непригодны для людей без усиления наших худших инстинктов и поведения. Социальные сети работают как кривое зеркало для человечества – они отражают нас, но в самых неприглядных формах. Пока неясно, существуют ли способы, чтобы исправить то, как мы видим друг друга в онлайн-пространстве.