Судей Англии учат общаться с чат-ботами // Опубликовано руководство по работе с искусственным интеллектом

Английские судьи могут пользоваться инструментами искусственного интеллекта (ИИ) — Open AI, ChatGPT и другими, — но при соблюдении определенных правил. Например, нельзя сообщать чат-боту конфиденциальную информацию: есть риск, что она попадет в открытый доступ. Не стоит полностью доверять ответу чат-бота: он может быть неполным и вводящим в заблуждение. Об этом говорится в руководстве, которое появилось на прошлой неделе.

Чат-боты не берут информацию из авторитетных источников, подчеркивает руководство по работе с ИИ. Они создают текст по алгоритму на основе запросов, которые получают, и на основе данных, которые в них заложены. То есть, чат-бот выдает наиболее подходящий по его предположению результат. Но это не всегда самый точный ответ.

Качество ответов будет зависеть от того, как судья взаимодействует с тем или иным инструментом ИИ. Это включает и характер запросов к нему. Но даже с наилучшим образом сформулированным запросом полученная информация может быть неточной, неполной, вводящей в заблуждение или необъективной. Так, ИИ может выдумать примеры из практики, цитаты, сослаться на несуществующий закон и сделать фактические ошибки. И до тех пор, пока использование ИИ не станет привычным в юридической профессии, следует помнить об обязанности проверять и подтверждать результаты запросов, который выдал ИИ.

Авторы руководства обращают внимание на необходимость соблюдения конфиденциальности. То есть, судьи не должны сообщать чат-боту личную или конфиденциальную информацию. Возможно, в будущем появятся инструменты ИИ, разработанные для судов, но до того момента судьи должны расценивать ИИ как инструмент, который может сделать публичными любые сведения, внесенные в него.

Чат-боты запоминают любой вопрос, который им задан, и любую вводимую информацию. А потом эта информация используется для ответов другим пользователям. Поэтому инструкция предлагает стирать историю сообщений в чате, если такая функция есть.

В документе есть примеры, в каких случаях обращение к ИИ может быть полезным. Например, при кратком изложении больших текстов (хотя такое изложение тоже надо проверять на аккуратность) или при составлении электронных писем.

Не рекомендуется судьям использовать ИИ при поиске юридической информации: это плохой способ поиска новых данных, которые пользователь не может проверить. Не годится ИИ и для юридического анализа: публично доступные чат-боты не дают убедительного анализа или доводов, считают авторы руководства.

Как убедиться, что представленный текст — результат работы ИИ? Например, если есть ссылки на незнакомые прецеденты (иногда даже из практики США, подчеркивают английские авторы) или если текст кажется очень убедительным, но при более близком изучении в нем есть очевидные существенные ошибки.