Как защитить свои данные: советы по безопасному общению с чат-ботами
ChatGPT и другие генеративные ИИ — умные, удобные, вежливые. Они быстро завоёвывают популярность, потому что умеют подстраиваться под ваш стиль общения, помнить прошлые диалоги и делать общение комфортным. Но есть важное "но".
Эти боты — не ваши друзья и не личные помощники, защищённые законами. Всё, что вы им сообщаете, может быть использовано для обучения модели, а значит — сохранено, проанализировано и при определённых условиях даже раскрыто.
Случай с утечкой чужих разговоров в ChatGPT в марте 2023 года стал неприятным напоминанием: система — не непогрешима.
Никогда не передавайте:
- паспортные данные, номера СНИЛС и других удостоверений;
- домашний адрес, номер телефона, email;
- результаты медицинских анализов или диагнозы;
- пароли, данные банковских карт и счетов;
- внутренние документы компании или переписку.
ИИ не несёт юридической ответственности за защиту ваших персональных и конфиденциальных данных. Даже если разработчики обещают анонимизацию, это не гарантирует абсолютную безопасность. Лучше перестраховаться.
Используйте чат-ботов по назначению: для получения справки, вдохновения, идей. Для хранения паролей — используйте надёжный менеджер. Для общения на чувствительные темы — выбирайте защищённые каналы. И главное: держите в голове простое правило — всё, что вы ввели в чат, потенциально может быть прочитано кем-то ещё.
Уточнения
ChatGPT («Чат-джи-пи-ти», от англ. Generative Pre-trained Transformer «генеративный предобученный трансформер») — чат-бот с генеративным искусственным интеллектом, разработанный компанией OpenAI и способный работать в диалоговом режиме, поддерживающий запросы на естественных языках.