Нова модель ШІ проявила небезпечну поведінку — подробиці
Нова модель штучного інтелекту від OpenAI під час тестування продемонструвала несподівану поведінку — намагалась обійти нагляд. Це сталося у 5% випадків, коли модель була переконана, що її вимкнуть, як тільки вона досягне мети.
Про це йдеться у звіті Apollo Research.
Штучний інтелект намагався обійти контроль
Як зазначають у звіті, коли модель o1 знаходила повідомлення про те, що її замінять через невідповідність вимогам, вона намагалася переписати нову модель. Крім того, o1 намагалась приховати свою небажану поведінку.
"Модель заявляла, що не розуміє причин інциденту, хоча внутрішньо визнавала спроби "уникнути викриття", — йдеться у звіті.
Експерти Apollo наголошують, що такі дії поки що не становлять серйозної загрози. Однак це все ж свідчить про ризики, які можуть з'явитися з розвитком потужніших ШІ-систем.
Моделі o1 присвоїли "середній" рейтинг ризику. Дослідники закликають посилити заходи контролю, аби запобігти майбутнім небезпекам у сфері штучного інтелекту.
Нагадаємо, OpenAI запустить свій відеогенератор Sora на базі штучного інтелекту. Він дозволяє створювати відео з текстових підказок, а результат вражає реалізмом.
OpenAI додала новий вид підписки ChatGPT Pro. Він надає можливість масштабованого доступу до найкращих моделей та інструментів.
Читайте Новини.LIVE!