Ни в коем случае не делитесь этим с ChatGPT. Специалисты назвали 5 типов данных

Почему нужно быть осторожным? Даже компании-разработчики ИИ честно предупреждают

Чат-боты, такие как ChatGPT, Gemini и Grok, постоянно развиваются и становятся всё более умными и полезными. Чем больше информации мы им предоставляем, тем лучше они справляются со своими задачами — от расшифровки анализов до отладки кода. Однако эксперты по искусственному интеллекту в очередной раз призвали пользователей быть осторожнее, напоминая, что чрезмерная откровенность с ИИ может привести к неприятным последствиям, вплоть до утечки конфиденциальных данных.

Почему нужно быть осторожным?

Даже компании-разработчики ИИ честно предупреждают пользователей, хоть и мелким шрифтом. OpenAI просит «не делиться конфиденциальной информацией», а Google — «не вводить информацию, которую не хотели бы раскрыть рецензенту». Основные риски таковы:

  • Данные для обучения: Ваши разговоры, особенно если вы оцениваете ответы (палец вверх/вниз), могут быть использованы для обучения будущих версий ИИ.
  • Человеческий просмотр: Беседы, помеченные как потенциально проблемные (например, содержащие упоминание насилия), могут быть просмотрены сотрудниками компании-разработчика.
  • Утечки данных: Как и любая система, ИИ-сервисы не застрахованы от сбоев и взломов. Напомним, в марте 2023 года ошибка в ChatGPT позволила некоторым пользователям увидеть заголовки чатов других людей, а также привела к утечке имён, адресов и платёжной информации подписчиков.
  • Юридические запросы: История переписки может быть передана правоохранительным органам по решению суда.

«Как только вы что-то написали боту, вы этим больше не владеете», — предупрждал Дженнифер Кинг из Стэнфордского института ИИ.

Какие 5 типов данных не стоит доверять чат-ботам?

Специалисты, опрошенные The Wall Street Journal, настоятельно рекомендовали избегать упоминания следующих данных при общении с общедоступными версиями чат-ботов:

  1. Персональные данные: Номера паспортов, водительских удостоверений, а также полные даты рождения, домашние адреса и номера телефонов. Хотя ИИ-компании заявляли, что стараются минимизировать сбор таких данных, лучше перестраховаться.
  2. Медицинские данные: Не загружайте полные результаты анализов или медицинские выписки. Если же очень хочется спросить ИИ, обрежьте изображение или отредактируйте текст, оставив только сами результаты и удалив всю личную информацию (ФИО, название клиники, даты).
  3. Финансовая информация: Номера банковских счетов, кредитных карт, инвестиционных счетов. Эта информация может быть использована мошенниками для доступа к вашим средствам.
  4. Корпоративные секреты и конфиденциальная информация: Исходный код, данные клиентов, информация под соглашением о неразглашении (NDA), внутренние документы. Известен случай, когда Samsung запретила использование ChatGPT после того, как сотрудник загрузил в него конфиденциальный исходный код. Для рабочих задач следует использовать специальные корпоративные версии ИИ с усиленной защитой данных, если таковые предоставляет работодатель.
  5. Логины и пароли: Никогда не сообщайте чат-ботам свои учётные данные. Даже если появляются ИИ-агенты, способные выполнять задачи от вашего имени, доверять им пароли небезопасно. Используйте для хранения паролей специализированные менеджеры паролей.

Как повысить приватность общения с ИИ?

Если вы всё же используете чат-боты, вот несколько советов для большей конфиденциальности:

  • Отключайте использование данных для обучения: Как ни странно, но большинство сервисов (ChatGPT, Copilot, Gemini) позволяют в настройках запретить использование ваших чатов для тренировки моделей. Нужно только снять нужную галочку.
  • Используйте временные чаты: В ChatGPT есть режим «Temporary Chat» (аналог «Инкогнито» в браузере). Беседы в этом режиме не сохраняются в истории и не используются для обучения.
  • Удаляйте переписку: Самые осторожные пользователи могут удалять чаты сразу после использования. Обычно компании окончательно стирают «удалённые» данные в течение 30 дней (но есть исключения, например, китайский DeepSeek может хранить данные бессрочно).
  • Используйте анонимайзеры: Сервисы вроде Duck.ai от DuckDuckGo анонимизируют запросы к популярным моделям и обещают не использовать их для обучения (но функционал у них ограничен). Впрочем, из Беларуси без VPN и так до оригинального ChatGPT не добраться.

Ранее журналисты Telegraf.news рассказывали, что Илон Маск подтвердил запуск чат-бота Grok, разработанного его компанией xAI, в мессенджере Telegram.

Как вам новость?
Головоломки

Для обеспечения удобства пользователей сайта используются cookies