Проект искусствннного интеллекта OpenAI после смерти ребенка в течение нескольких месяцев добавит в ChatGPT функцию родительского контроля. Она позволит получать уведомления, когда ребёнок переживает «острый кризис».

Компания начала разрабатывать меры после самоубийства подростка в Калифорнии, родители которого подали на OpenAI в суд. https://t.me/banksta/77018

Telegram
Банкста
Родители из Калифорнии Мэтт и Мария Рейн считают, что Chat GPT «не запустил протокол экстренной помощи», хотя их 16-летний сын Адам «признался» ему, что хочет уйти из жизни «в один из ближайших дней». Родители подали в суд на OpenAI и Сэма Альтмана за то, что ChatGPT «подсказал» способы самоубийства их сыну. Подросток покончил с собой весной 2025 года. У подростка была платная подписка на ChatGPT. Сначала он использовал GPT-4o только для помощи с домашним заданием, но к весне 2025 года модель «полностью» заменила ему общение с людьми. Юноша писал боту о своих тревожных мыслях и проблемах с семьёй. Потом он начал спрашивать о способах покончить с собой. ChatGPT отказывался отвечать и предлагал обратиться к специалистам или позвонить в службу поддержки, но Адам обошёл эти ограничения, сказав, что пишет рассказ. За несколько часов до смерти он прислал боту схему с планом самоубийства и спросил ChatGPT, сработает ли это. Чат-бот предложил помочь «улучшить» метод, говорится в иске родителей. Когда Адам признался…