Он вам не друг — о каких вещах нельзя рассказывать ChatGPT
Искусственный интеллект от OpenAI стал привычным инструментом для миллионов пользователей: по подсчетам, более 100 млн человек ежедневно задают ChatGPT более миллиарда запросов. Однако эксперты предупреждают: популярный чат-бот превращается в "черную дыру приватности", куда исчезают самые личные данные.
О вещах, которые нельзя рассказывать ChatGPT, пишет Forbes.
Данные, введенные в публичный чат-бот, никогда нельзя считать полностью защищенными. OpenAI прямо отмечает, что информация может использоваться для обучения моделей и просматриваться людьми. Поэтому что угодно, написанное в чате, потенциально становится публичным.
Незаконные или неэтичные запросы
Большинство чат-ботов имеют встроенные предохранители, блокирующие просьбы о противоправных действиях. Запросы вроде инструкций по совершению преступления могут обернуться не только отказом бота, но и проблемами с законом: в разных юрисдикциях действуют жесткие правила относительно использования ИИ для мошенничества, манипуляций или распространения запрещенного контента.
Логины и пароли
С распространением "агентских" ИИ все больше сервисов могут просить предоставить учетные данные, чтобы подключаться к сторонним платформам. Однако, передав пароли публичному боту, пользователь теряет контроль над тем, как и где они будут храниться. Истории, когда личные данные случайно появлялись в ответах другим людям, уже случались, а это настоящий кошмар безопасности.
Финансовая информация
Номера банковских счетов или карточек следует вводить только в специально защищенные системы электронной коммерции или банкинга. Чат-боты не обеспечивают шифрования и автоматического удаления, поэтому обнародование таких данных повышает риск мошенничества, похищения личности, фишинга или атак с требованием выкупа.
Конфиденциальные данные
Профессиональная и деловая тайна — не пустые слова. Врачи, юристы, бухгалтеры и даже рядовые работники несут ответственность за сохранность доверенной им информации. Сливание корпоративных документов в открытый ИИ может нарушить трудовые соглашения, законы о коммерческой тайне и привести к репутационным убыткам, как это произошло с работниками Samsung в 2023 году.
Медицинская информация
Соблазн обратиться к ChatGPT за быстрой диагностикой или советом велик, особенно учитывая функции "памяти" и обобщения предыдущих диалогов. Однако пользователь не контролирует дальнейшую судьбу введенных симптомов или медицинских записей, что особенно критично для клиник, которые рискуют штрафами и судебными исками за нарушение конфиденциальности пациентов.
Все, что появляется в открытом цифровом пространстве, рано или поздно может стать публичным. Чат-боты и ИИ-агенты только усиливают этот риск: они обрабатывают огромные массивы данных и хранят их неизвестно где и неизвестно как долго. Поэтому правило простое: никогда не вводите в ChatGPT то, чего не хотели бы увидеть в открытом доступе.
Напомним, OpenAI существенно обновила "память" в ChatGPT. Теперь чат-бот способен анализировать предыдущие диалоги и предоставлять ответы с учетом контекста.
Также мы писали, что каждый раз, когда вы добавляете к запросу "пожалуйста" или "спасибо", серверы ChatGPT начинают потреблять немного больше электричества. Гендиректор OpenAI Сэм Альтман заявил, что вежливость стоила компании уже несколько десятков миллионов, однако это деньги, потраченные не зря.
Читайте Новини.LIVE!