Durante la inauguración del Google I/O 2017, Google ha mostrado orgullosa la cifra de 500 millones de usuarios que ya utiliza un servicio que sólo tiene tiene 2015 pero que es de los más apreciados por todos sus usuarios en iOS y en Android. La compañía de Mountain View acaba de hacer Google Fotos mucho mejor gracias a la inclusión de nuevas funciones que siguen haciendo mucho más fácil gestionar y compartir la biblioteca de fotos.

Gracias a su potencial de Machine Vision, Google puede ahora eliminar objetos de las fotos para conseguir reflejar mejor las tomas que el usuario quería disparar originalmente. Han puesto el ejemplo de un niño jugando al béisbol detrás de una reja. Google Fotos es capaz de eliminar la reja de manera invisible y sin que queden marcas de la edición de la foto.

Siguiendo con el reconocimiento de imagen y en concreto facial, Google Fotos puede ahora sugerir compartir las imágenes con los usuarios que localice en cada imagen o grupo de imágenes. Gracias a la función de Bibiotecas Compartidas puede incluso elegir fotos que compartir automáticamente con una persona autorizada, normalmente un familiar o amigo.

Otra gran novedad son álbumes inteligentes mejorados que ahora agrupan no sólo por ubicación o fecha, sino buscando imágenes de buena calidad y que no estén duplicadas, acercándose mucho más a lo que el usuario querría compartir. Volviendo a lo analógico, Google ha hecho muy fácil seleccionar fotos de calidad e imprimir álbumes con "Photo Books", un servicio que desde 9.99$ permitirá al usuario recibir sus fotos con gran calidad de impresión

Por último, la compañía ha mostrado integración con Google Lens. Como ejemplo, tras tomar una foto a un número de teléfono, Google Fotos permitirá llamar sin que el usuario tenga que copiar a mano o memorizar previamente.

Las novedades irán llegando paulatinamente.

Recibe cada mañana nuestra newsletter. Una guía para entender lo que importa en relación con la tecnología, la ciencia y la cultura digital.

Procesando...
¡Listo! Ya estás suscrito

También en Hipertextual: