Он вам не друг — о каких вещах нельзя рассказывать ChatGPT

Страница запроса ChatGPT на экране ноутбука. Фото: Unsplash

Искусственный интеллект от OpenAI стал привычным инструментом для миллионов пользователей: по подсчетам, более 100 млн человек ежедневно задают ChatGPT более миллиарда запросов. Однако эксперты предупреждают: популярный чат-бот превращается в "черную дыру приватности", куда исчезают самые личные данные.

О вещах, которые нельзя рассказывать ChatGPT, пишет Forbes.

Данные, введенные в публичный чат-бот, никогда нельзя считать полностью защищенными. OpenAI прямо отмечает, что информация может использоваться для обучения моделей и просматриваться людьми. Поэтому что угодно, написанное в чате, потенциально становится публичным.

Незаконные или неэтичные запросы

Большинство чат-ботов имеют встроенные предохранители, блокирующие просьбы о противоправных действиях. Запросы вроде инструкций по совершению преступления могут обернуться не только отказом бота, но и проблемами с законом: в разных юрисдикциях действуют жесткие правила относительно использования ИИ для мошенничества, манипуляций или распространения запрещенного контента.

Логины и пароли

С распространением "агентских" ИИ все больше сервисов могут просить предоставить учетные данные, чтобы подключаться к сторонним платформам. Однако, передав пароли публичному боту, пользователь теряет контроль над тем, как и где они будут храниться. Истории, когда личные данные случайно появлялись в ответах другим людям, уже случались, а это настоящий кошмар безопасности.

Финансовая информация

Номера банковских счетов или карточек следует вводить только в специально защищенные системы электронной коммерции или банкинга. Чат-боты не обеспечивают шифрования и автоматического удаления, поэтому обнародование таких данных повышает риск мошенничества, похищения личности, фишинга или атак с требованием выкупа.

Конфиденциальные данные

Профессиональная и деловая тайна — не пустые слова. Врачи, юристы, бухгалтеры и даже рядовые работники несут ответственность за сохранность доверенной им информации. Сливание корпоративных документов в открытый ИИ может нарушить трудовые соглашения, законы о коммерческой тайне и привести к репутационным убыткам, как это произошло с работниками Samsung в 2023 году.

Медицинская информация

Соблазн обратиться к ChatGPT за быстрой диагностикой или советом велик, особенно учитывая функции "памяти" и обобщения предыдущих диалогов. Однако пользователь не контролирует дальнейшую судьбу введенных симптомов или медицинских записей, что особенно критично для клиник, которые рискуют штрафами и судебными исками за нарушение конфиденциальности пациентов.

Все, что появляется в открытом цифровом пространстве, рано или поздно может стать публичным. Чат-боты и ИИ-агенты только усиливают этот риск: они обрабатывают огромные массивы данных и хранят их неизвестно где и неизвестно как долго. Поэтому правило простое: никогда не вводите в ChatGPT то, чего не хотели бы увидеть в открытом доступе.

Напомним, OpenAI существенно обновила "память" в ChatGPT. Теперь чат-бот способен анализировать предыдущие диалоги и предоставлять ответы с учетом контекста.

Также мы писали, что каждый раз, когда вы добавляете к запросу "пожалуйста" или "спасибо", серверы ChatGPT начинают потреблять немного больше электричества. Гендиректор OpenAI Сэм Альтман заявил, что вежливость стоила компании уже несколько десятков миллионов, однако это деньги, потраченные не зря.