Юристы: логи с ИИ могут стать доказательствами в суде против вас

Что сказал Сэм Альтман

Глава OpenAI (компания-разработчик нейросети ChatGPT) Сэм Альтман в интервью предупредил, что переписки с нейросетями, которыми всё больше увлекается человечество, не защищены юридически.

На практике это означает, что если пользователь нейросети окажется в центре уголовного преследования, следствие может запросить у разработчиков его записи диалогов с чат-ботом и попытаться найти в них доказательства преступления.

«Если вы общаетесь с ChatGPT про свои наиболее приватные дела, а потом возникнет судебный иск или что-то в этом роде, нас могут обязать это предоставить, — сказал Альтман. И добавил, что считает такое положение дел неправильным.

Однако законов, которые бы защищали тайну переписки с роботами, пока нет. А вот откровенничают с ними порой побольше, чем с живыми людьми. Многие пользователи используют нейросети в качестве врачей, юристов, психологов, не задумываясь, что в отличие от реальных специалистов у ИИ нет понятия «профессиональная тайна».

Кто может прочитать ваши диалоги с ИИ

Если говорить о ChatGPT, то по американским законам он хранит удалённые диалоги на серверах до 30 дней. Но если пользователь включил специально опцию запоминания чатов (или, вернее, не отключил её), то диалоги спокойно могут храниться месяцами.

Политика компании предусматривает, что она может хранить диалоги и дольше, если это нужно по юридическим соображениям или соображениям безопасности. Для этого они должны получить соответствующий запрос от правоохранительных органов.

При этом сотрудники OpenAI могут читать переписку. Этим правом пользуются для настройки модели и обнаружения потенциальных злоупотреблений.

В постоянно совершенствующиеся нейросетевые модели встраивают всё новые ограничители и предохранители, чтобы ИИ не выдавал пользователям преступные рекомендации, нелегальную и неэтичную информацию. Но даже если сам ИИ не становится соучастником преступления, запросы пользователей-то всё равно остаются и могут вызвать недоумение и даже пристальное внимание полиции.

Александр Стрельников
руководитель направления GenAI Axenix

По сути, это ничем не отличается от переписки в соцсетях, которую уже активно применяют в судебных процессах — как для подтверждения вины, так и для защиты. Речь идет о диалогах с чат-ботом, данные о которых хранятся у компании-разработчика. По запросу суда эти данные могут предоставить, как и любые другие цифровые доказательства.

Кроме того, некоторые системы ИИ могут автоматически отмечать подозрительную активность пользователей (например, через систему «красных флагов») и уведомлять правоохранительные органы, если человек совершает или планирует противоправные действия.


Владислав Лаптев

В качестве доказательств намерений пользователя совершить неправомерные действия может выступить разное. Например, это может быть переписка пользователя с ИИ-помощником, в которой он спрашивает, как ограбить магазин, или интересуется способами взлома IT-системы компании, пытаясь получить всю необходимую информацию, которая поможет ему совершить незаконные действия.

Это касается не только платформы ChatGPT от OpenAI, но и всех других разработчиков ИИ-платформ, которые предоставляют открытый доступ к своим моделям.


Что нельзя разбалтывать ИИ
  • подробности своего психического состояния;
  • сведения, составляющие медицинскую тайну (особенно третьего лица);
  • корпоративные сведения под NDA;
  • персональные данные (свои или чужие);
  • логины и пароли;
  • информацию о банковском счёте и реквизитах;
  • тезисы запрещённых идеологий.

Воспринимайте чат с нейросетью не как приватное пространство, а как условно пустой, но публичный чат, куда в любой момент могут зайти. Там нельзя всё то же самое, что нельзя делать и говорить в любом другом месте в Интернете.

Можно ли использовать ИИ-логи как доказательства в суде в России

Краткий ответ: да, но с рядом ограничений. Пока нет ни закона, ни заключения Верховного суда, которые бы регулировали именно этот тонкий момент. Но база для того, чтобы «всё сказанное в диалоге с ИИ было использовано против вас» уже есть.

Диалоги с ИИ могут использовать в суде? Что за страшилка от создателя ChatGPT и как это работает в России

© Создано при помощи нейросети recraft.ai

Мирза Чирагов
юрист

Уже сегодня ИИ участвует в формировании доказательной базы. В англосаксонских юрисдикциях цифровые следы, обработанные ИИ, могут быть приняты как допустимые доказательства при соблюдении определенных условий.

Однако там речь об использовании ИИ именно в качестве инструмента: для анализа цифровых следов (cookie, IP, логи), событий на сервере, истории редактирования файлов, распознавание лиц на кадрах с камер наблюдения, идентификация голоса на аудиозаписи, восстановление зашумленных фрагментов и т. п. Переписка с ИИ ранее в таких делах не фигурировала.

Альтман же имел в виду доступ к переписке (по сути, многие сервисы ИИ превратились из простых инструментов в полноценных собеседников). Что ещё более опасно, до сих пор много профессионалов загружают конфиденциальные документы и документы с персональными данными в сервисы ИИ.


Чирагов привёл несколько возможных сценариев, при которых диалоги с ИИ могли бы быть использованы в качестве доказательств преступления:

  • Доказательство в трудовых (дисциплинарных спорах): например, сотрудник загрузил внутренние документы в сервис ИИ.
  • Судебные споры: например, если ИИ сгенерировал некорректный документ, по которому были приняты действия, переписка может быть доказательством ненадлежащего информирования или ошибки. «К сожалению, такие дела уже есть», — отметил юрист.
  • Фиксация намерений или действий: пользователь может в переписке с ИИ описывать свои планы, идеи, действия или даже признания, которые потом могут быть использованы как индикатор мотива или умысла.
Мирза Чирагов

Важно, что историю переписки с ИИ могут представить в суде как доказательство, но она будет оцениваться как косвенное или вспомогательное, и её допустимость зависит от множества факторов: подлинности, контекста, технической фиксации и роли в споре. Сейчас можно предоставить в суде скриншот переписки или историю поиска в браузере.


При этом эксперты по нейросетям говорят, что идея использовать диалоги с чат-ботом в качестве доказательств — довольно сомнительная. Многое зависит от промпта (как сформулирован запрос) и доказательства умысла пользователя. Например, противоправную информацию у ИИ мог бы спрашивать писатель детективов, ищущий фактуру для прописывания злодея.

Денис Кучеров

На мой взгляд, пока говорить об использовании в суде материалов, созданных ИИ, слишком преждевременно. Он галлюцинирует, выдаёт неверные результаты. И, пока не будет 100% гарантии правильного ответа, использование материалов ИИ в такой чувствительной области, как суд, кажется фантастикой.


судебный эксперт, владелец юридического бюро «Палюлин и партнёры»

Согласно статье 74 УПК РФ, доказательствами считаются любые сведения, на основе которых суд устанавливает наличие или отсутствие обстоятельств, подлежащих доказыванию. Однако ключевое значение имеет соблюдение порядка их получения. В суде недопустимы доказательства, полученные с нарушением закона.


Палюлин уточнил, что для того, чтобы переписка с российскими нейросетями, откуда правоохранителям довольно просто запросить информацию, была принята судом, нужно соблюсти ряд условий:

  • необходимо подтвердить подлинность переписки, что можно сделать через экспертизу цифровых следов или заверение скриншотов нотариусом или следователем.
  • получение таких данных должно происходить в рамках законного процессуального действия — например, если полиция изымает устройства пользователя или делает запрос у оператора связи.

«Если переписка извлекается без санкции суда или иного законного основания, она может быть признана недопустимой», — подчеркнул юрист.

Если же всё сделать по закону, такие логи могут присоединить к делу в качестве косвенных доказательств. Но иногда даже косвенные доказательства могут значительно повлиять на мнение суда.

«Например, в случае расследования дела об убийстве, переписка подозреваемого с нейросетью на тему способов утилизации трупа, совершенная в день предполагаемого убийства, будет косвенным доказательством вины», — предположил Палюлин.

При этом эксперт указал, что в случае с тем же ChatGPT российской полиции будет затруднительно истребовать и получить логи диалогов российских пользователей. Как и много других компаний из недружественных стран, OpenAI не ведёт обмен данными с Россией, не хранит данные на российских серверах, а сам чат-бот недоступен с российских IP.

судебный эксперт, владелец юридического бюро «Палюлин и партнёры»

Единственная возможность — если данные хранятся на территории РФ (например, при использовании прокси-серверов или локальных интеграций), но и в этом случае потребуется соблюдение всех процессуальных норм.


Отдельный вопрос — тайна переписки, гарантированная Конституцией. Юрист указал, что формально чат с ИИ не подпадает под защиту в том же объеме, что и межличностная переписка. Но суды могут учитывать конфиденциальный характер таких данных, особенно если они содержат личную или медицинскую информацию.

А как это будет работать на деле, скорее всего, мы узнаем уже совсем скоро. Хотя эксперты указывают, что чёткая судебная практика отсутствует, Сэм Альтман своим интервью выпустил джинна из бутылки. Ведь со стороны правоохранительных органов было бы упущением не обратить внимание на ещё один источник получения доказательств, на который им любезно указали.