Este año, Google no quiere quedarse atrás en cuanto a IA, y prueba de ello es el constante anuncio de modelos como Gemini o la inteligencia artificial que utilizan a nivel interno para que sus empleados sean más productivos. La compañía, ahora, ha presentado Gemma, una “familia” de modelos de IA abiertos destinados a desarrolladores e investigadores.

Gemma es una IA similar a Gemini. Tal y como afirma Google, el nuevo modelo está construido con la misma tecnología que se utilizó para crear su IA comercial, y se ha desarrollado bajo Google DeepMind, el departamento de inteligencia artificial de Google. La diferencia, es que Gemma es algo más —digamos— ligero que Gemini, pues está pensado para tareas más básicas.

Es, además, un modelo de código abierto, lo que permite que cualquier persona pueda acceder al código para revisarlo e implementarlo en cualquiera de sus plataformas. Gemma, reiteramos, está pensado para desarrolladores y expertos que quieran potenciar sus servicios con IA. De hecho, los términos de Google en cuanto a este modelo permiten el “uso comercial responsable y la distribución a todas las organizaciones, independientemente de su tamaño”.

Gemma está diseñada para la comunidad abierta de desarrolladores e investigadores que impulsan la innovación en IA. 

Gemma es más potente que Llama-2

Gemma

Google ha lanzado dos versiones de su nuevo modelo: Gemma 2B y Gemma 7B, que se diferencian en tamaño y están ajustadas y entrenadas para diferentes tipos de tareas. Google afirma que Gemma es un modelo más potente que Llama-2, la IA de código abierto de Meta, en prácticamente todos los aspectos, incluyendo en operaciones matemáticas y generación de código a través de Python.

Gemma se puede utilizar en ordenadores portátiles, estaciones de trabajo o en Google Cloud. Google también se ha asociado con Nvidia, quien está trabajando para optimizar todas sis plataformas de IA para Gemma. “Los desarrolladores también pueden ejecutar Gemma en las GPU NVIDIA en la nube, incluidas las instancias A3 de Google Cloud basadas en la GPU H100 Tensor Core y, próximamente, las GPU H200 Tensor Core de NVIDIA, con 141 GB de memoria HBM3e a 4,8 terabytes por segundo, que Google implementará en este año”, ha afirmado la compañía.

Google, por otro lado, ha creado un hit de herramientas para que los desarrolladores puedan implementar de forma responsable estos modelos en sus productos.

Recibe cada mañana nuestra newsletter. Una guía para entender lo que importa en relación con la tecnología, la ciencia y la cultura digital.

Procesando...
¡Listo! Ya estás suscrito

También en Hipertextual: