Защитите себя — 5 секретов, которые лучше не обсуждать с ChatGPT
Чат-боты с генеративным искусственным интеллектом поражают нас своей функциональностью каждый день. Люди используют их все чаще, поэтому важно понимать, что некоторую информацию лучше хранить приватной и никогда не предоставлять ее ИИ.
О пяти вещах, которыми нельзя делиться с ChatGPT, рассказывает MakeUseOf.
Подобные ChatGPT чат-боты используют огромное количество данных для своего обучения, чтобы лучше взаимодействовать с пользователями. Такие компании, как OpenAI, позволяют пользователям отказаться от сбора данных, однако обеспечить полную конфиденциальность до сих пор сложно.
Не предоставляйте ChatGPT финансовые детали, спрашивая, как инвестировать деньги
С распространением использования чат-ботов многие пользователи обращаются к ним для получения финансовых советов и советов по управлению личными финансами. Несмотря на то, что они могут помочь повысить уровень финансовой грамотности, важно знать о потенциальной опасности обмена финансовыми деталями с ними.
Используя чат-боты в качестве финансовых консультантов, возникает риск раскрыть свою финансовую информацию потенциальным киберпреступникам.
Не раскрывайте личные и интимные мысли
Многие обращаются к ChatGPT, чтобы получить терапию, но даже не подозревают о потенциальных последствиях для своего психического благополучия.
Чат-ботам не хватает реальных знаний в области психологии, поэтому они могут предлагать только общие ответы на запросы, связанные с психическим здоровьем. То есть предложенные ими лекарства или методы лечения могут не отвечать конкретным потребностям пользователя и могут нанести вред здоровью.
Также обмен личными мыслями с чат-ботами может вызвать значительные проблемы конфиденциальности. Она может быть скомпрометирована, поскольку все секреты и интимные мысли могут вытекать в Интернет или использоваться как часть данных для обучения ИИ. Кроме того, злоумышленники могут использовать эту информацию для шпионства за вами или продать эти данные в даркнете.
Не предоставляйте конфиденциальную информацию о рабочем месте
Обмен конфиденциальной информацией о работе с чат-ботом — то, чего нужно избегать. Известные технологические гиганты, такие как Apple, Samsung и Google уже запретили своим сотрудникам использовать их на рабочем месте.
В отчете Bloomberg за 2023 год упоминается случай, когда сотрудники Samsung использовали ChatGPT для кодирования и случайно загрузили конфиденциальный код на платформу. Инцидент привел к несанкционированному разглашению конфиденциальной информации о компании, что заставило ее применить запрет на использование чат-бота.
Таким образом, не стоит полагаться на чат-боты с искусственным интеллектом для суммирования протоколов встреч, программирования на работе или автоматизации повторяющихся задач, создавая риск непреднамеренного раскрытия конфиденциальных данных.
Не предоставляйте чат-ботам пароли от аккаунтов
Нужно запомнить, что делиться своими паролями в Интернете, даже с большими языковыми моделями — запрещено. Они хранят данные на серверах, а их разглашение может ставить под угрозу конфиденциальность.
В мае 2022 года произошла значительная утечка данных с привлечением ChatGPT, что вызвало беспокойство по безопасности платформ чат-ботов. Также он был запрещен в Италии из-за Общего регламента защиты данных Европейского Союза, поскольку GhatGPT был признан несоответствующим законам о конфиденциальности. Хотя запрет уже снят, а компании ужесточили меры безопасности данных, уязвимости по-прежнему остаются.
Не предоставляйте чат-боту детали проживания и другие персональные данные
Подобно социальным сетям и другим онлайн-платформам, никогда нельзя делиться никакой личной информацией с чат-ботами. Такая информация содержит конфиденциальные данные о вашем местоположении, идентификационном номере налогоплательщика, дате рождения и информации о состоянии здоровья, по которым можно идентифицировать или найти вас.
Случайное упоминание вашего домашнего адреса при запросе ChatGPT может непреднамеренно подвергнуть риску. Если произойдет утечка или перехват данных, кто-то сможет использовать их для кражи или для определения вашего местоположения в реальном мире.
Напомним, OpenAI добавила в ChatGPT новый вид подписки, расширяющий возможности чат-бота. Новая генеративная модель o1 pro использует больше вычислительных ресурсов, чтобы давать лучшие ответы на запросы.
Также мы писали, что скоро OpenAI может презентовать свой видеогенератор Sora на базе искусственного интеллекта. Он может создавать реалистичные видео по текстовым запросам пользователя.
Читайте Новини.LIVE!