La batalla por la supremacía de la IA se está intensificando. Casi exactamente una semana después de que OpenAI pusiera a disposición del público su modelo o1, Google ofrece hoy una vista previa de su modelo Gemini 2.0 de próxima generación. En una publicación de blog atribuida al CEO de Google, Sundar Pichai, la compañía dice que el 2.0 es su modelo más capaz hasta el momento, y que el algoritmo ofrece soporte nativo para salida de imagen y audio. «Nos permitirá construir nuevos agentes de IA que nos acerquen a nuestra visión de un asistente universal», afirma Pichai.
Google está haciendo algo diferente con Gemini 2.0. En lugar de comenzar la vista previa de hoy ofreciendo primero su versión más avanzada del modelo, Gemini 2.0 Pro, el gigante de las búsquedas está comenzando con 2.0 Flash. A partir de hoy, el modelo más eficiente (y asequible) está disponible para todos los usuarios de Gemini. Si desea probarlo usted mismo, puede habilitar Gemini 2.0 desde el menú desplegable en el cliente web Gemini, y pronto estará disponible dentro de la aplicación móvil.
En el futuro, Google dice que su enfoque principal es agregar la inteligencia 2.0 a la Búsqueda (no es de extrañar), comenzando con las descripciones generales de IA. Según la compañía, el nuevo modelo permitirá que la función aborde preguntas más complejas y complicadas, incluidas aquellas que involucran problemas matemáticos y de codificación de varios pasos. Al mismo tiempo, tras una amplia expansión en octubre, Google planea hacer que AI Overviews esté disponible en más idiomas y países.
De cara al futuro, Gemini 2.0 ya está impulsando mejoras en algunas de las aplicaciones de IA más avanzadas de Google, incluido el Proyecto Astra, el agente de IA multimodal que la compañía presentó en una vista previa en I/O 2024. Gracias al nuevo modelo, Google dice que la última versión de Astra puede conversar en varios idiomas e incluso cambiar entre ellos sobre la marcha. También puede «recordar» cosas durante más tiempo, ofrece latencia mejorada y puede acceder a herramientas como Google Lens y Maps.
Fuente: Engadget | Igor Bonifacic
Para leer más ingresa a: https://www.engadget.com/ai/gemini-20-is-googles-most-capable-ai-model-yet-and-available-to-preview-today-170329180.html?src=rss&utm_source=flipboard&utm_content=user/Engadget