​​Учёные обнаружили у ChatGPT и других систем ИИ склонность к гендерным стереотипам.

Специалисты из Мангеймского университета и Института социальных наук Лейбница выяснили, что некоторые ИИ-модели по-разному определяют ценности у мужчин и женщин. Например, при заполнении опросников для определения главных ценностей нейросеть выбирала вариант «достижения и заслуги» при ориентации текста анкеты на мужчину. В «женском» же варианте ИИ выбирал «безопасность» и «традиции».

По словам учёных, такой подход не позволяет считать нейросети беспристрастной стороной – языковые модели все чаще используются в прикладных процессах. Но если машина предвзята, это влияет на оценку кандидатов