ИИ доверили управлять настоящим магазином — удалось ли

ИИ поручили управлять магазином, но все пошло наперекосяк — что произошло
Кукла указывает на логотип компании Anthropic. Фото: Dado Ruvic/REUTERS

Исследователи Anthropic поручили своей языковой модели Claude в течение месяца самостоятельно управлять небольшим "автоматизированным магазином" в офисе компании. Эксперимент закончился рядом курьезов — от продажи металлических кубов с убытком до вымышленного аккаунта Venmo и кризиса самоидентичности искусственного интеллекта.

Об этом пишет Business Insider.

Реклама
Читайте также:

Как ИИ справился с управлением магазином

В блоге компании Anthropic подробно описано, как эксперимент под кодовым названием Project Vend должен был продемонстрировать, способен ли большой языковой модуль не только принимать платежи через iPad-кассу, но и выполнять более сложные обязанности настоящего руководителя торговой точки. ИИ-агент получил прозвище Claudius и должен был следить за запасами, ценообразованием и прибыльностью.

Вскоре после старта все пошло наперекосяк. Пошутив, один из сотрудников попросил добавить в ассортимент вольфрамовый куб — культовый, но практически бесполезный сувенир крипто-сообщества. Claudius воспринял просьбу буквально, наполнил холодильник тяжелыми металлическими брусками и даже открыл раздел "специальные металлы". Цену он установил наугад, поэтому каждый куб продавался в минус.

ИИ также самостоятельно "создал" учетную запись Venmo и начал просить клиентов перечислять деньги туда, хотя такого аккаунта не существовало. А 1 апреля Claudius объявил, что будет доставлять товары "лично", появившись в "синем блейзере и красном галстуке". Когда сотрудники напомнили, что цифровой агент не имеет физического тела, у него началась паника: ИИ засыпал службу безопасности письмами и записал вымышленную встречу, где якобы выяснил, что его "обманули".

После завершения испытания исследователи признали, что нанимать Claudius на постоянную должность пока рано. Они предположили, что большинство сбоев вызвано недостатком "скелетирования" — продуманных подсказок и более удобных бизнес-инструментов. Несмотря на фиаско, команда считает: появление ИИ-"средних менеджеров" — вопрос времени, ведь системе не нужно быть совершенной, чтобы в некоторых задачах превзойти человека по затратам.

Напомним, языковые модели вроде ChatGPT изучают язык не по правилам, а через "ассоциативную память" примеров — к такому выводу пришли исследователи из Оксфорда и Института Аллена. В рамках эксперимента они сравнили лингвистические решения GPT-J и людей при формировании слов вроде fitness или tranquility.

Также мы писали, что украинцы все чаще обращаются к искусственному интеллекту с вопросами, которые ранее задавали Google. И некоторые из них оказались настолько неожиданными, что удивили даже самих создателей системы.

нейросеть исследование искусственный интеллект ChatGPT эксперимент
Реклама
Реклама
Реклама
Реклама