Новая модель ИИ проявила опасное поведение — подробности

Мужчина держит в руках планшет. Фото: Pixabay

Новая модель искусственного интеллекта от OpenAI во время тестирования продемонстрировала неожиданное поведение — пыталась обойти наблюдение. Это произошло в 5% случаев, когда модель была убеждена, что ее выключат, как только она достигнет цели.

Об этом говорится в отчете Apollo Research.

Искусственный интеллект пытался обойти контроль

Как отмечают в отчете, когда модель o1 находила сообщение о том, что ее заменят из-за несоответствия требованиям, она пыталась переписать новую модель. Кроме того, o1 пыталась скрыть свое нежелательное поведение.

"Модель заявляла, что не понимает причины инцидента, хотя внутренне признавала попытки "избежать разоблачения", — говорится в отчете.

Эксперты Apollo подчеркивают, что такие действия пока не представляют серьезной угрозы. Однако это свидетельствует о рисках, которые могут появиться с развитием более мощных ШИ-систем.

Модели o1 присвоили "средний" рейтинг риска. Исследователи призывают усилить меры контроля, чтобы предотвратить будущие опасности в сфере искусственного интеллекта.

Напомним, OpenAI запустит свой видеогенератор Sora на основе искусственного интеллекта. Он позволяет создавать видео по текстовым подсказкам, а результат поражает реализмом.

OpenAI добавила новый вид подписки ChatGPT Pro. Он позволяет масштабировать доступ к лучшим моделям и инструментам.