Google ha dado un paso audaz en la evolución de su inteligencia artificial, Gemini, al integrar capacidades visuales avanzadas provenientes de su proyecto “Astra”. Esta actualización transforma a Gemini en un asistente capaz de “ver” y comprender el entorno del usuario a través de la cámara y la pantalla del móvil, abriendo un abanico de posibilidades para la interacción con la IA.
También te puede interesar: [Llega Gemini a Chrome: Esto es lo que podrás hacer]
La tecnología de Project Astra, anunciada el año pasado, permite a Gemini analizar en tiempo real lo que el usuario hace a través de video.
Gemini ahora posee “ojos” que le permiten resolver problemas, proporcionar contexto y ofrecer información basada en lo que ve en tiempo real. Esta funcionalidad, similar a la anunciada por OpenAI, representa un avance significativo en la interacción usuario-IA.
Para aprovechar esta capacidad visual, Gemini ha incorporado dos nuevas funciones: grabación de pantalla en tiempo real y acceso al contenido de la cámara. La grabación de pantalla permite a Gemini analizar y responder preguntas sobre el contenido que se muestra en la pantalla del móvil, mientras que el acceso a la cámara amplía las capacidades del modo “Live” de Gemini, permitiendo conversaciones basadas en lo que la cámara captura en tiempo real.
También te puede interesar: [Cinco formas de ser más creativo con Google Gemini]
La integración de video en tiempo real en Gemini abre un nuevo paradigma en la interacción IA-usuario. Las posibilidades son infinitas, desde obtener ayuda para comprender contenido visual hasta recibir asistencia en la navegación por la interfaz del móvil.
Las nuevas funciones visuales de Gemini se están implementando gradualmente. Los usuarios con la aplicación actualizada deberían comenzar a verlas en breve. Sin embargo, el acceso completo a estas capacidades podría estar limitado a los suscriptores de Gemini Advanced.