Google обновил Gemini, и теперь он "видит" через вашу камеру
Google начал внедрять новые функции ИИ в Gemini Live. Они позволяют ему "видеть" экран или камеру вашего смартфона и предоставлять ответы на вопросы в режиме реального времени.
Об этом пишет The Verge.
Как работает новая функция Gemini Live
Функция появилась почти через год после того, как Google впервые продемонстрировал работу "Проекта Astra", обеспечивающего ее работу.
Один из пользователей Reddit сообщил, что функция появилась на его телефоне Xiaomi. Он также опубликовал видео, на котором демонстрируется новая возможность Gemini читать с экрана. Это одна из двух функций, которые Google обещала в начале марта начать разворачивать для продвинутых подписчиков Gemini в рамках премиумплана Google One AI позже в этом месяце.
Второй функцией Astra является видео в реальном времени, что позволяет Gemini интерпретировать изображение с камеры вашего смартфона и отвечать на вопросы о нем. Google опубликовала демонстрационное видео, где человек использует эту функцию, чтобы попросить ИИ о помощи в выборе цвета краски для керамики.
С этими функциями Google может взять лидерство в области искусственного интеллекта, ведь Amazon только готовит ограниченный ранний доступ к обновлению Alexa Plus, а Apple отложила выпуск обновленной Siri. Теперь обе компании должны иметь такие же возможности, которые сейчас предлагает Astra.
Напомним, Google стремится полностью заменить Google Assistant на Gemini в конце 2025 года. Старое приложение удалят из Play Store и сделают недоступным на устройствах, а вместе с этим новый ИИ компании стал доступным без входа в учетную запись.
Также мы писали, что пользователи обнаружили, что Google Gemini может удалять водяные знаки с изображений. В сети это вызвало споры, поскольку ИИ полностью игнорирует авторское право.
Читайте Новини.LIVE!