Google ha comenzado a implementar nuevas funciones de IA en Gemini Live que permiten «ver» la pantalla o la cámara del smartphone y responder preguntas sobre ambos en tiempo real, según confirmó el portavoz de Google, Alex Joseph, en un correo electrónico a The Verge. Estas funciones llegan casi un año después de que Google mostrara por primera vez el proyecto «Project Astra» que las impulsa.
Un usuario de Reddit afirmó que la función apareció en su teléfono Xiaomi, según lo detectado por 9to5Google. Hoy, el mismo usuario publicó un vídeo que muestra la nueva capacidad de lectura de pantalla de Gemini. Es una de las dos funciones que Google anunció a principios de marzo que «comenzarían a implementarse para los suscriptores de Gemini Advanced como parte del plan Google One AI Premium» a finales de mes.
La otra función de Astra que se está implementando ahora es el video en vivo, que permite a Gemini interpretar la señal de la cámara del teléfono inteligente en tiempo real y responder preguntas al respecto. En el video de demostración, publicado por Google este mes, una persona usa la función para pedirle ayuda a Gemini para elegir el color de pintura que usará para su cerámica recién esmaltada.
El lanzamiento de estas funciones por parte de Google es un nuevo ejemplo del gran liderazgo de la compañía en cuanto a asistentes de inteligencia artificial, ya que Amazon prepara el debut anticipado limitado de su actualización de Alexa Plus y Apple ha retrasado la actualización de Siri. Se supone que ambas contarán con funciones similares a las que Astra está empezando a habilitar. Mientras tanto, Samsung aún cuenta con Bixby, pero Gemini sigue siendo el asistente predeterminado en sus teléfonos.
Fuente: The Verge | Wes Davis
Para leer más ingresa a: https://www.theverge.com/news/634480/google-gemini-live-video-screen-sharing-astra-features-rolling-out