A hora de comienzo del Google I/O 2024, la firma ya ha desvelado una de sus principales novedades. Se trata de una actualización para su IA Gemini capaz de "ver" lo que capta la cámara del smartphone y ofrecer información sobre el entorno, respondiendo a posibles preguntas del interlocutor.

Es una herramienta que ofrece vastas posibilidades, pues la inteligencia artificial de Google da pie a un nivel superior en esta relación humano-software. Es, de hecho, algo similar a lo presentado este lunes por OpenAI con GPT-4o, donde esta relación con el entorno a través de la cámara del dispositivo se vuelve central. Los múltiples vídeos haciendo uso de dicha herramienta lo demuestran.

Un Google I/O con Gemini y la IA como protagonistas

El anuncio llega de manera anticipada a través de Logan Kilpatrick en X. Reconocido perfil en el campo de la inteligencia artificial, era, precisamente, empleado de OpenAI hasta hace unas semanas antes de cambiarse a la empresa de Mountain View.

Google buscará rivalizar con la firma de Sam Altman en este I/O, y sus avances en IA prometen estar a la altura. En el mencionado vídeo, se puede ver a esta nueva integración, que será parte de Gemini, responder a varias preguntas en el patio de butacas donde tendrá lugar la presentación mañana. Lo único que necesita para ello es escuchar la voz del usuario y analizar rápidamente lo que capta su cámara.

El desarrollo de Gemini es una de las tecnologías más importantes para Google en esta carrera por la IA. Es por eso que los avances se dan a un ritmo frenético, en un intento por no quedarse atrás. Nadie quiere ser menos en el "sector caliente" de Silicon Valley hoy por hoy.

Está por ver, eso sí, si esta versión será capaz de hacer todo lo que ofrece su casi homóloga de OpenAI. Lo sabremos en apenas unas horas.

Recibe cada mañana nuestra newsletter. Una guía para entender lo que importa en relación con la tecnología, la ciencia y la cultura digital.

Procesando...
¡Listo! Ya estás suscrito

También en Hipertextual: