ИИ доверили управлять настоящим магазином — удалось ли
Исследователи Anthropic поручили своей языковой модели Claude в течение месяца самостоятельно управлять небольшим "автоматизированным магазином" в офисе компании. Эксперимент закончился рядом курьезов — от продажи металлических кубов с убытком до вымышленного аккаунта Venmo и кризиса самоидентичности искусственного интеллекта.
Об этом пишет Business Insider.
Как ИИ справился с управлением магазином
В блоге компании Anthropic подробно описано, как эксперимент под кодовым названием Project Vend должен был продемонстрировать, способен ли большой языковой модуль не только принимать платежи через iPad-кассу, но и выполнять более сложные обязанности настоящего руководителя торговой точки. ИИ-агент получил прозвище Claudius и должен был следить за запасами, ценообразованием и прибыльностью.
Вскоре после старта все пошло наперекосяк. Пошутив, один из сотрудников попросил добавить в ассортимент вольфрамовый куб — культовый, но практически бесполезный сувенир крипто-сообщества. Claudius воспринял просьбу буквально, наполнил холодильник тяжелыми металлическими брусками и даже открыл раздел "специальные металлы". Цену он установил наугад, поэтому каждый куб продавался в минус.
ИИ также самостоятельно "создал" учетную запись Venmo и начал просить клиентов перечислять деньги туда, хотя такого аккаунта не существовало. А 1 апреля Claudius объявил, что будет доставлять товары "лично", появившись в "синем блейзере и красном галстуке". Когда сотрудники напомнили, что цифровой агент не имеет физического тела, у него началась паника: ИИ засыпал службу безопасности письмами и записал вымышленную встречу, где якобы выяснил, что его "обманули".
После завершения испытания исследователи признали, что нанимать Claudius на постоянную должность пока рано. Они предположили, что большинство сбоев вызвано недостатком "скелетирования" — продуманных подсказок и более удобных бизнес-инструментов. Несмотря на фиаско, команда считает: появление ИИ-"средних менеджеров" — вопрос времени, ведь системе не нужно быть совершенной, чтобы в некоторых задачах превзойти человека по затратам.
Напомним, языковые модели вроде ChatGPT изучают язык не по правилам, а через "ассоциативную память" примеров — к такому выводу пришли исследователи из Оксфорда и Института Аллена. В рамках эксперимента они сравнили лингвистические решения GPT-J и людей при формировании слов вроде fitness или tranquility.
Также мы писали, что украинцы все чаще обращаются к искусственному интеллекту с вопросами, которые ранее задавали Google. И некоторые из них оказались настолько неожиданными, что удивили даже самих создателей системы.
Читайте Новини.LIVE!