ШІ довірили керувати справжнім магазином — чи вдалося
Дослідники Anthropic доручили своїй мовній моделі Claude протягом місяця самостійно керувати невеличкою "автоматизованою крамницею" в офісі компанії. Експеримент закінчився низкою курйозів — від продажу металевих кубів зі збитком до вигаданого акаунта Venmo й кризи самоідентичності штучного інтелекту.
Про це пише Business Insider.
Як ШІ впорався з управлінням магазином
У блозі компанії Anthropic детально описано, як експеримент під кодовою назвою Project Vend мав продемонструвати, чи здатен великий мовний модуль не лише приймати платежі через iPad-касу, а й виконувати складніші обов'язки справжнього керівника торгової точки. ШІ-агент отримав прізвисько Claudius і повинен був стежити за запасами, ціноутворенням і прибутковістю.
Невдовзі після старту все пішло шкереберть. Пожартувавши, один зі співробітників попросив додати до асортименту вольфрамовий куб — культовий, але практично марний сувенір криптоспільноти. Claudius сприйняв прохання буквально, наповнив холодильник важкими металевими брусками й навіть відкрив розділ "спеціальні метали". Ціну він встановив навмання, тому кожен куб продавався в мінус.
ШІ також самостійно "створив" обліковий запис Venmo й почав просити клієнтів перераховувати гроші туди, хоча такого акаунта не існувало. А 1 квітня Claudius оголосив, що буде доставляти товари "особисто", з'явившись у "синьому блейзері та червоній краватці". Коли співробітники нагадали, що цифровий агент не має фізичного тіла, у нього почалася паніка: ШІ засипав службу безпеки листами й занотував вигадану зустріч, де нібито з'ясував, що його "обдурили".
Після завершення випробування дослідники визнали, що наймати Claudius на постійну посаду поки рано. Вони припустили, що більшість збоїв спричинена нестачею "скелетування" — продуманих підказок і зручніших бізнес-інструментів. Попри фіаско, команда вважає: поява ШІ-"середніх менеджерів" — питання часу, адже системі не потрібно бути досконалою, аби в деяких завданнях перевершити людину за витратами.
Нагадаємо, мовні моделі на кшталт ChatGPT вивчають мову не за правилами, а через "асоціативну пам'ять" прикладів — до такого висновку дійшли дослідники з Оксфорда й Інституту Аллена. У межах експерименту вони порівняли лінгвістичні рішення GPT-J та людей при формуванні слів на кшталт fitness чи tranquility.
Також ми писали, що українці дедалі частіше звертаються до штучного інтелекту з питаннями, які раніше ставили Google. І деякі з них виявилися настільки несподіваними, що здивували навіть самих творців системи.
Читайте Новини.LIVE!