Мислення ШІ ближче до людського, ніж здається — дослідження

ChatGPT опановує нові мови, як людина і нехтує правилами — дослідження вчених
Застосунок ChatGPT на екрані смартфона. Фото: Unsplash

Моделі штучного інтелекту типу ChatGPT опановують мову не стільки завдяки абстрактним правилам, скільки через "спогади" про побачені приклади — такого висновку дійшли науковці з Оксфордського університету та Інституту штучного інтелекту Аллена. Вони описали експеримент, у якому порівняли вибір людей і відкритої великої мовної моделі (LLM) GPT-J під час утворення іменників із вигаданих прикметників на -ness чи -ity.

Про це пише Tech Xplore.

Реклама
Читайте також:

Як лінгвісти перевірили здатність ШІ до узагальнення

Команда створила 200 вигаданих англійських слів на кшталт cormasive і friquish та просила модель обрати форму cormasiveness або cormasivity. Відповіді GPT-J збіглися з людськими там, де штучний інтелект знаходив аналогії з реальними словами: friquish — friquishness за подібністю до selfish — selfishness, тоді як cormasive тягнулося до sensitive — sensitivity. Дві класичні когнітивні моделі — правил і аналогій — показали, що поведінка LLM ближча саме до другого підходу.

Крім того, виявилося, що GPT-J "пам'ятає" кожен приклад з тренувальних текстів: її прогноз для майже 50 000 справжніх прикметників точно відбивав статистику корпусу. Різниця з людиною полягає в тому, що ми зберігаємо в пам'яті узагальнені словникові форми й одразу бачимо, що friquish ще не належить до мови, тоді як модель працює з усіма окремими входженнями без їх об'єднання.

"LLM генерує вражаючі тексти, але мислить менш абстрактно, ніж людина, тому й потребує набагато більше даних для навчання", — пояснює професорка Оксфордського університету Джанет П'єррамбер.

Співавтор Валентін Гофман з Ai2 додає, що результати допоможуть створювати ефективніші та зрозуміліші системи ШІ.

Нагадаємо, співробітникам Microsoft заборонено встановлювати та використовувати застосунок DeepSeek на службових пристроях. Про це під час слухань у Сенаті США повідомив президент і віцеголова корпорації Бред Сміт. За його словами, заборона пов'язана з тим, що застосунок зберігає дані на території Китаю, а відповіді чатбота можуть бути під впливом "китайської пропаганди".

Також ми писали, що старший віцепрезидент Apple з інтернет-сервісів Едді Кью заявив у суді, що до 2035 року людям, ймовірно, вже не знадобиться iPhone. На його думку, розвиток штучного інтелекту здатен змінити технологічний ландшафт і вивести на перший план нових учасників ринку.

технології штучний інтелект чатбот ChatGPT люди навчання
Реклама
Реклама
Реклама
Реклама