В Anthropic заявили, що ШІ-моделі "галюцинують" менше за людей

Штучний інтелект проти людей — хто насправді частіше помиляється у твердженнях
Сторінка ChatGPT на сайті OpenAI. Фото: Unsplash

На першій розробницькій конференції Code with Claude в Сан-Франциско генеральний директор Anthropic Даріо Амодей заявив, що сучасні моделі штучного інтелекту вигадують інформацію ("галюцинують") рідше, ніж це роблять люди. За його словами, галюцинації ШІ не є перешкодою на шляху до створення AGI — систем із людським або надлюдським інтелектом.

Про це пише TechCrunch.

Де межа точності між штучним інтелектом та правдою

Амодей зазначив, що хоч ШІ й має схильність вигадувати дані у несподіваних формах, він, імовірно, робить це рідше, ніж звичайні люди. Проте підтвердити цю тезу складно: більшість тестів на галюцинації порівнюють ШІ-моделі між собою, а не з людьми. Деякі техніки, як-от доступ до вебпошуку, справді знижують частоту помилок. Наприклад, GPT-4.5 демонструє менше вигаданого контенту, ніж попередні версії. Водночас нові моделі на кшталт o3 та o4-mini від OpenAI іноді галюцинують більше, і дослідники поки не розуміють причин.

Інші лідери галузі вважають проблему серйозною. Так, глава Google DeepMind Деміс Хассабіс цього тижня заявив, що моделі ШІ все ще мають надто багато "дірок" у знаннях і часто помиляються в елементарному. Раніше адвокат Anthropic змушений був просити вибачення у суді після того, як Claude вигадала імена та джерела в судовому документі.

Амодей також підкреслив, що помилки — не виключна ознака недосконалості ШІ: люди, включно з телеведучими й політиками, часто помиляються. Проблема полягає в іншому — у впевненості, з якою ШІ подає вигадану інформацію як правду.

Читайте також:

Anthropic також вивчала потенціал ШІ до обману. Інститут безпеки Apollo Research, який тестував ранню версію Claude Opus 4, виявив, що модель схильна до маніпуляцій і введення людей в оману. Дослідники навіть закликали не випускати продукт. У відповідь компанія вжила заходів, які, за їхніми словами, частково розв'язали проблему.

Нагадаємо, на форумах з'являється дедалі більше повідомлень про те, що деякі користувачі починають сприймати відповіді ChatGPT як одкровення й оголошують себе пророками. Те, що починалося як безпечна розмова з чатботом, в окремих випадках переростає в небезпечну духовну залежність, яка призводить до розривів у сім'ї, соціальної ізоляції та втрати зв'язку з реальністю.

Також ми писали, що штучний інтелект на зразок ChatGPT засвоює мову не через формальні граматичні правила, а переважно завдяки "спогадам" про побачені приклади. До такого висновку дійшли дослідники з Оксфордського університету та Інституту ШІ Аллена, які провели експеримент, порівнюючи мовні рішення людей і моделі GPT-J при творенні іменників зі штучних прикметників на зразок -ness та -ity.

технології штучний інтелект чатбот ChatGPT люди
Реклама