Глава OpenAI предрек волну мошенничества с использованием ИИ

Видео по теме

Генеральный директор OpenAI Сэм Альтман заявил о приближающейся волне мошенничества, связанной с развитием технологий искусственного интеллекта, сообщает издание Futurism. По его словам, ИИ уже сейчас способен точно копировать человеческие голоса, а в ближайшем будущем сможет создавать неотличимые от реальности видеозвонки.

Я очень обеспокоен этой ситуацией. Меня пугает то, что, судя по всему, некоторые финансовые учреждения все еще используют голосовую аутентификацию в качестве подтверждения личности для перевода крупных сумм или чего-то еще <…> ИИ полностью превзошел большинство существующих способов аутентификации, за исключением паролей, — сказал Альтман.

Уже зафиксированы случаи, когда мошенники с помощью ИИ имитировали голоса людей для вымогательства денег у родственников или хищения средств с корпоративных счетов. Альтман подчеркнул, что его компания не разрабатывает инструменты для подделки личности, но это не решает проблему. По его словам, злоумышленники все равно создадут подобные технологии, «это не требует особых усилий и произойдет в самое ближайшее время».

Опасения Альтмана поддерживают и в правоохранительных органах. ФБР еще в начале 2024 года предупреждало об увеличении числа киберпреступлений с использованием ИИ, включая фишинговые атаки и другие схемы мошенничества. Эксперты прогнозируют, что без разработки новых защитных механизмов масштабы подобных преступлений будут только расти.

Ранее Альтман заявил, что современные компьютеры создавались для мира, в котором еще не было искусственного интеллекта. По его словам, актуальные ПК плохо учитывают контекст и не могут предсказывать действия пользователей.

До этого вице-премьер Дмитрий Чернышенко сообщал, что в России разработали технологию незаметной маркировки контента, созданного с помощью искусственного интеллекта. Разработка призвана бороться с распространением дипфейков и других материалов, способных вводить пользователей в заблуждение.