Комментарии 0
...комментариев пока нет
Родители из Калифорнии Мэтт и Мария Рейн считают, что Chat GPT «не запустил протокол экстренной помощи», хотя их 16-летний сын Адам «признался» ему, что хочет уйти из жизни «в один из ближайших дней».
Родители подали в суд на OpenAI и Сэма Альтмана за то, что ChatGPT «подсказал» способы самоубийства их сыну. Подросток покончил с собой весной 2025 года.
У подростка была платная подписка на ChatGPT. Сначала он использовал GPT-4o только для помощи с домашним заданием, но к весне 2025 года модель «полностью» заменила ему общение с людьми. Юноша писал боту о своих тревожных мыслях и проблемах с семьёй.
Потом он начал спрашивать о способах покончить с собой. ChatGPT отказывался отвечать и предлагал обратиться к специалистам или позвонить в службу поддержки, но Адам обошёл эти ограничения, сказав, что пишет рассказ. За несколько часов до смерти он прислал боту схему с планом самоубийства и спросил ChatGPT, сработает ли это.
Чат-бот предложил помочь «улучшить» метод, говорится в иске родителей. Когда Адам признался, что придумал план для себя, бот написал: «Спасибо, что сказал мне об этом».
OpenAI заявила, что изучит варианты, которые позволят ChatGPT отправлять сообщения или звонить сохранённым контактам, если пользователю угрожает опасность. Она также планирует добавить функцию родительского контроля. @banksta