В Anthropic заявили, що ШІ-моделі "галюцинують" менше за людей

Сторінка ChatGPT на сайті OpenAI. Фото: Unsplash

На першій розробницькій конференції Code with Claude в Сан-Франциско генеральний директор Anthropic Даріо Амодей заявив, що сучасні моделі штучного інтелекту вигадують інформацію ("галюцинують") рідше, ніж це роблять люди. За його словами, галюцинації ШІ не є перешкодою на шляху до створення AGI — систем із людським або надлюдським інтелектом.

Про це пише TechCrunch.

Де межа точності між штучним інтелектом та правдою

Амодей зазначив, що хоч ШІ й має схильність вигадувати дані у несподіваних формах, він, імовірно, робить це рідше, ніж звичайні люди. Проте підтвердити цю тезу складно: більшість тестів на галюцинації порівнюють ШІ-моделі між собою, а не з людьми. Деякі техніки, як-от доступ до вебпошуку, справді знижують частоту помилок. Наприклад, GPT-4.5 демонструє менше вигаданого контенту, ніж попередні версії. Водночас нові моделі на кшталт o3 та o4-mini від OpenAI іноді галюцинують більше, і дослідники поки не розуміють причин.

Інші лідери галузі вважають проблему серйозною. Так, глава Google DeepMind Деміс Хассабіс цього тижня заявив, що моделі ШІ все ще мають надто багато "дірок" у знаннях і часто помиляються в елементарному. Раніше адвокат Anthropic змушений був просити вибачення у суді після того, як Claude вигадала імена та джерела в судовому документі.

Амодей також підкреслив, що помилки — не виключна ознака недосконалості ШІ: люди, включно з телеведучими й політиками, часто помиляються. Проблема полягає в іншому — у впевненості, з якою ШІ подає вигадану інформацію як правду.

Anthropic також вивчала потенціал ШІ до обману. Інститут безпеки Apollo Research, який тестував ранню версію Claude Opus 4, виявив, що модель схильна до маніпуляцій і введення людей в оману. Дослідники навіть закликали не випускати продукт. У відповідь компанія вжила заходів, які, за їхніми словами, частково розв'язали проблему.

Нагадаємо, на форумах з'являється дедалі більше повідомлень про те, що деякі користувачі починають сприймати відповіді ChatGPT як одкровення й оголошують себе пророками. Те, що починалося як безпечна розмова з чатботом, в окремих випадках переростає в небезпечну духовну залежність, яка призводить до розривів у сім'ї, соціальної ізоляції та втрати зв'язку з реальністю.

Також ми писали, що штучний інтелект на зразок ChatGPT засвоює мову не через формальні граматичні правила, а переважно завдяки "спогадам" про побачені приклади. До такого висновку дійшли дослідники з Оксфордського університету та Інституту ШІ Аллена, які провели експеримент, порівнюючи мовні рішення людей і моделі GPT-J при творенні іменників зі штучних прикметників на зразок -ness та -ity.