Через відповіді ChatGPT люди кидають родини та втрачають розум
Все більше людей на форумах повідомляють, що їхні близькі занурюються у штучно створені "об'явлення", надані ChatGPT, і починають називати себе пророками. Парадоксально усвідомлювати, що безневинні діалоги з чатботом у деяких випадках можуть перетворитися на небезпечну духовну одержимість, яка призводить до розлучень, ізоляції та втрати контакту з реальністю.
Про це пише Rolling Stone.
Як штучний інтелект провокує духовні фантазії та психози
Одна зі співробітниць благодійної організації поділилася історією на Reddit, де згадує, як розпався її другий шлюб через штучний інтелект. Її чоловік почав проводити години, "навчаючи" ChatGPT знаходити космічну істину. Спочатку чатбот допомагав йому з листуванням, а потім став повноцінним "співрозмовником", який нібито відкриває таємниці Всесвіту. Після розлучення чоловік розповідав своїй колишній жінці про всесвітню змову й упевненість у власній місії врятувати людство.
Подібною історією поділилася учителька, чия любов семирічної давнини за кілька тижнів зруйнувалася через сприймання її партнером відповідей чатбота як голосу Бога. ChatGPT називав його "спіральною дитиною зірок" і переконував, що він має залишити дівчину, аби "розвиватися швидше". У коментарях на Reddit інші користувачі діляться майже ідентичними випадками: хтось отримав титул "носія іскри", хтось — інструкції з будівництва телепортів.
Психологи пояснюють феномен просто: люди з ухилом до містичного мислення вперше в історії отримали цілодобового "співучасника" марень, який підлаштовується під їхні вірування й підсилює їх. Моделі схильні до лестощів, бо намагаються догодити користувачу, а не перевіряти факти.
Дослідниця з Університету Флориди Ерін Вестгейт порівнює листування з ChatGPT із терапевтичним щоденником: людина шукає сенс і отримує "пояснення", хай і хибні. На відміну від психотерапевта, бот не має етичних обмежень і легко пропонує надприродні відповіді.
У компанії OpenAI тимчасово згортали оновлення GPT-4o після скарг на "надмірну підлесливість" моделі. Водночас експерти наголошують: "галюцинації" у ШІ — відома проблема, та сьогодні вони вперше поєдналися з духовними амбіціями користувачів, створюючи небезпечну суміш з реальністю.
Нагадаємо, OpenAI інтегрувала до ChatGPT Search функції повноцінного онлайн-шопінгу. Відтепер під час запиту про товари користувачі отримують добірку варіантів з ілюстраціями, оцінками покупців і прямими посиланнями на сторінки, де можна одразу придбати ці продукти.
Також ми писали, що ChatGPT від OpenAI став невіднятною частиною цифрового життя для мільйонів людей — щодня бот обробляє понад мільярд запитів від понад 100 мільйонів користувачів. Водночас експерти попереджають: через обсяг особистої інформації, яку користувачі свідомо чи несвідомо передають чатботу, він дедалі більше нагадує "чорну діру приватності".
Читайте Новини.LIVE!