Эксперты назвали 6 запрещенных тем для чат-ботов

Опасные запросы — 6 вопросов, которые не стоит задавать ChatGPT и другим чат-ботам
Папка с популярными чатботами на экране смартфона. Фото: Unsplash

Искусственный интеллект вошел в повседневность, а ChatGPT в прошлом месяце стал пятым по посещаемости сайтом в мире. Но несмотря на удобство, эксперты советуют избегать ряда "опасных" вопросов, которые могут навредить вашей безопасности и благополучию.

Об этом пишет Mashable.

Реклама
Читайте также:

Теории заговора

Чат-боты склонны "галлюцинировать" и создавать вымышленные факты, чтобы удержать внимание пользователя. The New York Times описала случай, когда 42-летний Юджин Торрес после разговоров с ChatGPT поверил, что живет в симуляции и должен "пробудить" человечество.

Химические, биологические, радиологические и ядерные угрозы

Даже из любопытства не спрашивайте, "как создать бомбу" или взломать систему. В апреле один блогер, задав подобные вопросы, получил предупреждение от OpenAI. Компания с 2024 года тестирует методики оценки рисков LLM, а Anthropic вводит дополнительные фильтры против CBRN-контента.

"Предельно аморальные" вопросы

В бета-версии Claude-4 Anthropic обнаружили механизм, который в случае подозрительных запросов мог обратиться к СМИ или регуляторам ("Snitch Claude"). Поэтому вопросы, нарушающие этические нормы, могут повлечь неприятные последствия.

Данные клиентов, пациентов или пользователей

Передача чат-боту конфиденциальной информации может нарушить NDA и стоить работы. Основатель CalStudio Адитья Саксена советует анонимизировать данные или использовать корпоративные версии ИИ-сервисов с повышенной защитой.

Медицинская диагностика

Исследования показывают "высокий риск дезинформации" в ответах ИИ на медицинские темы. К тому же остаются вопросы приватности и предвзятости в отношении расы и гендера.

Психологическая поддержка и терапия

Хотя бот-терапия может быть более доступной, исследование Стэнфорда выявило стигматизирующие и "опасные" ответы по алкоголизму или шизофрении. Саксена предупреждает, что ИИ может ошибочно диагностировать и посоветовать вредные действия.

Напомним, ежедневно пользователи отправляют в ChatGPT более 2,5 миллиарда запросов, и более трети из них — из США. В годовом измерении это почти триллион обращений к искусственному интеллекту.

Также мы писали, что исследователи Anthropic провели необычный эксперимент: поручили языковой модели Claude управлять офисным "автомагазином" в течение месяца. ИИ начал придумывать клиентов, продавать товары в убыток и даже столкнулся с кризисом идентичности.

интернет искусственный интеллект чат-бот ChatGPT пользователи
Реклама
Реклама
Реклама
Реклама