Usa modelos abiertos de Gemma

Gemma es un conjunto de modelos abiertos de inteligencia artificial (IA) ligeros y generativos. Los modelos de Gemma están disponibles para ejecutarse en tus aplicaciones y en tu hardware, tus dispositivos móviles o tus servicios alojados. También puedes personalizar estos modelos con técnicas de ajuste para que se destaquen en la realización de tareas que son importantes para ti y tus usuarios. Los modelos de Gemma se basan en modelos de Gemini y están diseñados para que la comunidad de desarrollo de IA los extienda y los mejore.

El ajuste puede ayudar a mejorar el rendimiento de un modelo en tareas específicas. Debido a que los modelos de la familia de modelos de Gemma son de peso abierto, puedes ajustar cualquiera de ellos con el framework de IA que elijas y el SDK de Vertex AI. Puedes abrir un ejemplo de notebook para ajustar el modelo de Gemma mediante un vínculo disponible en la tarjeta de modelo de Gemma en Model Garden.

Los siguientes modelos de Gemma están disponibles para usarse con Vertex AI. Para obtener más información sobre los modelos de Gemma y probarlos, consulta sus tarjetas de modelo de Model Garden.

Nombre del modelo Casos de uso Tarjeta de modelo de Model Garden
Gemma 3n Es capaz de recibir entradas multimodales, manejar entradas de texto, imágenes, video y audio, y generar salidas de texto. Ir a la tarjeta de modelo de Gemma 3n
Gemma 3 Ideal para tareas de generación de texto y comprensión de imágenes, como responder preguntas, resumir y razonar. Ir a la tarjeta de modelo de Gemma 3
Gemma 2 Ideal para la generación, el resumen y la extracción de textos. Ir a la tarjeta de modelo de Gemma 2
Gemma Ideal para la generación, el resumen y la extracción de textos. Ir a la tarjeta de modelo de Gemma
CodeGemma Ideal para la generación y finalización de código. Ir a la tarjeta de modelo de CodeGemma
PaliGemma 2 Ideal para tareas de leyenda de imágenes y tareas visuales de preguntas y respuestas. Ir a la tarjeta de modelo de PaliGemma 2
PaliGemma Ideal para tareas de leyenda de imágenes y tareas visuales de preguntas y respuestas. Ir a la tarjeta de modelo de PaliGemma
ShieldGemma 2 Verifica la seguridad de las imágenes sintéticas y naturales para ayudarte a crear modelos y conjuntos de datos sólidos. Ir a la tarjeta de modelo de ShieldGemma 2
TxGemma Es el mejor para tareas de predicción terapéutica, incluidas las de clasificación, regresión o generación, y las de razonamiento. Ir a la tarjeta de modelo de TxGemma
MedGemma Son variantes de Gemma 3 entrenadas para el rendimiento en la comprensión de imágenes y textos médicos. Ir a la tarjeta de modelo de MedGemma
MedSigLIP Es una variante de SigLIP que se entrena para codificar imágenes y texto médicos en un espacio de incorporación común. Ir a la tarjeta de modelo de MedSigLIP
T5Gemma Es adecuado para una variedad de tareas generativas, como la respuesta a preguntas, el resumen y el razonamiento. Ir a la tarjeta de modelo de T5Gemma

Las siguientes son algunas opciones en las que puedes usar Gemma:

Usa Gemma con Vertex AI

Vertex AI ofrece una plataforma administrada para compilar y escalar con rapidez proyectos de aprendizaje automático sin necesidad de tener experiencia interna en MLOps. Puedes usar Vertex AI como la aplicación descendente que entrega los modelos de Gemma. Por ejemplo, puedes transferir ponderaciones de la implementación de Keras de Gemma. A continuación, puedes usar Vertex AI para entregar esa versión de Gemma a fin de obtener predicciones. Recomendamos usar Vertex AI si deseas funciones de MLOps de extremo a extremo, funciones de AA de valor agregado y una experiencia sin servidores para un desarrollo optimizado.

Para comenzar a usar Gemma, consulta los siguientes notebooks:

Usa Gemma en otros Google Cloud productos

Puedes usar Gemma con otros Google Cloud productos, como Google Kubernetes Engine y Dataflow.

Usa Gemma con GKE

Google Kubernetes Engine (GKE) es la Google Cloud solución para Kubernetes administrado que proporciona escalabilidad, seguridad, resiliencia y rentabilidad. Recomendamos esta opción si tienes inversiones existentes en Kubernetes, tu organización tiene experiencia interna en MLOps o si necesitas un control detallado sobre cargas de trabajo de IA/AA complejas con requisitos únicos de seguridad, canalización de datos y administración de recursos. Para obtener más información, consulta los siguientes instructivos en la documentación de GKE:

Usa Gemma con Dataflow

Puedes usar modelos de Gemma con Dataflow para el análisis de opiniones. Usa Dataflow para ejecutar canalizaciones de inferencia que usen los modelos de Gemma. Para obtener más información, consulta Ejecuta canalizaciones de inferencia con modelos abiertos de Gemma.

Usa Gemma con Colab

Puedes usar Gemma con Colaboratory para crear tu solución de Gemma. En Colab, puedes usar Gemma con opciones de framework, como PyTorch y JAX. Para obtener más información, consulta:

Tamaños y capacidades de los modelos de Gemma

Los modelos de Gemma están disponibles en varios tamaños para que puedas compilar soluciones de IA generativa en función de tus recursos de procesamiento disponibles, las capacidades que necesitas y el lugar en el que deseas ejecutarlos. Cada modelo está disponible en una versión ajustada y no ajustada:

  • Preentrenada: Esta versión del modelo no se entrenó con ninguna tarea o instrucción específica más allá del conjunto de entrenamiento de datos principal de Gemma. No recomendamos usar este modelo sin realizar algunos ajustes.

  • Ajuste de instrucciones: Esta versión del modelo se entrenó con interacciones en lenguaje humano para que pueda participar en una conversación, similar a un chat bot simple.

  • Combinación ajustada: Esta versión del modelo se ajusta en una mezcla de conjuntos de datos académicos y acepta mensajes de lenguaje natural.

Los tamaños de parámetros más bajos implican menores requisitos de recursos y mayor flexibilidad de implementación.

Nombre del modelo Tamaño de los parámetros Entrada Resultado Versiones ajustadas Plataformas previstas
Gemma 3n
Gemma 3n E4B 4,000 millones de parámetros efectivos Texto, imágenes y audio Texto
  • Previamente entrenados
  • Instrucción ajustada
Dispositivos móviles y laptops
Gemma 3n E2B 2,000 millones de parámetros efectivos Texto, imágenes y audio Texto
  • Previamente entrenados
  • Instrucción ajustada
Dispositivos móviles y laptops
Gemma 3
Gemma 27B 27,000 millones Con imágenes y de texto Texto
  • Previamente entrenados
  • Instrucción ajustada
Servidores grandes o clústeres de servidores
Gemma 12B 12,000 millones Con imágenes y de texto Texto
  • Previamente entrenados
  • Instrucción ajustada
Computadoras de escritorio y servidores de alta gama
Gemma 4B 4,000 millones Con imágenes y de texto Texto
  • Previamente entrenados
  • Instrucción ajustada
Computadoras de escritorio y servidores pequeños
Gemma 1B 1,000 millones Texto Texto
  • Previamente entrenados
  • Instrucción ajustada
Dispositivos móviles y laptops
Gemma 2
Gemma 27B 27,000 millones Texto Texto
  • Previamente entrenados
  • Instrucción ajustada
Servidores grandes o clústeres de servidores
Gemma 9B 9,000 millones Texto Texto
  • Previamente entrenados
  • Instrucción ajustada
Computadoras de escritorio y servidores de alta gama
Gemma 2B 2,000 millones Texto Texto
  • Previamente entrenados
  • Instrucción ajustada
Dispositivos móviles y laptops
Gemma
Gemma 7B 7,000 millones Texto Texto
  • Previamente entrenados
  • Instrucción ajustada
Computadoras de escritorio y servidores pequeños
Gemma 2B 2,200 millones Texto Texto
  • Previamente entrenados
  • Instrucción ajustada
Dispositivos móviles y laptops
CodeGemma
CodeGemma 7B 7,000 millones Texto Texto
  • Previamente entrenados
  • Instrucción ajustada
Computadoras de escritorio y servidores pequeños
CodeGemma 2B 2,000 millones Texto Texto
  • Con entrenamiento previo
Computadoras de escritorio y servidores pequeños
PaliGemma 2
PaliGemma 28B 28,000 millones Con imágenes y de texto Texto
  • Previamente entrenados
  • Combinación ajustada
Servidores grandes o clústeres de servidores
PaliGemma 10B 10,000 millones Con imágenes y de texto Texto
  • Previamente entrenados
  • Combinación ajustada
Computadoras de escritorio y servidores de alta gama
PaliGemma 3B 3,000 millones Con imágenes y de texto Texto
  • Previamente entrenados
  • Combinación ajustada
Computadoras de escritorio y servidores pequeños
PaliGemma
PaliGemma 3B 3,000 millones Con imágenes y de texto Texto
  • Previamente entrenados
  • Combinación ajustada
Computadoras de escritorio y servidores pequeños
ShieldGemma 2
ShieldGemma 2 4,000 millones Con imágenes y de texto Texto
  • Ajustado
Computadoras de escritorio y servidores pequeños
TxGemma
TxGemma 27B 27,000 millones Texto Texto
  • Previamente entrenados
  • Instrucción ajustada
Servidores grandes o clústeres de servidores
TxGemma 9B 9,000 millones Texto Texto
  • Previamente entrenados
  • Instrucción ajustada
Computadoras de escritorio y servidores de alta gama
TxGemma 2B 2,000 millones Texto Texto
  • Previamente entrenados
Dispositivos móviles y laptops
MedGemma
MedGemma 27B 27,000 millones Con imágenes y de texto Texto
  • Instrucción ajustada solo para texto
  • Instrucción ajustada
Servidores grandes o clústeres de servidores
MedGemma 4B 4,000 millones Con imágenes y de texto Texto
  • Previamente entrenados
  • Instrucción ajustada
Computadoras de escritorio y servidores pequeños
MedSigLIP
MedSigLIP 800 millones Con imágenes y de texto Embedding
  • Ajustado
Dispositivos móviles y laptops
T5Gemma
T5Gemma 9B-9B 18,000 millones Texto Texto
  • PrefixLM, entrenado previamente
  • PrefixLM, ajustado según las instrucciones
  • UL2, entrenado previamente
  • UL2, ajustado con instrucciones
Dispositivos móviles y laptops
T5Gemma 9B-2B 11,000 millones Texto Texto
  • PrefixLM, entrenado previamente
  • PrefixLM, ajustado según las instrucciones
  • UL2, entrenado previamente
  • UL2, ajustado con instrucciones
Dispositivos móviles y laptops
T5Gemma 2B-2B 4,000 millones Texto Texto
  • PrefixLM, entrenado previamente
  • PrefixLM, ajustado según las instrucciones
  • UL2, entrenado previamente
  • UL2, ajustado con instrucciones
Dispositivos móviles y laptops
T5Gemma XL-XL 4,000 millones Texto Texto
  • PrefixLM, entrenado previamente
  • PrefixLM, ajustado según las instrucciones
  • UL2, entrenado previamente
  • UL2, ajustado con instrucciones
Dispositivos móviles y laptops
T5Gemma M-L 2,000 millones Texto Texto
  • PrefixLM, entrenado previamente
  • PrefixLM, ajustado según las instrucciones
  • UL2, entrenado previamente
  • UL2, ajustado con instrucciones
Dispositivos móviles y laptops
T5Gemma L-L 1,000 millones Texto Texto
  • PrefixLM, entrenado previamente
  • PrefixLM, ajustado según las instrucciones
  • UL2, entrenado previamente
  • UL2, ajustado con instrucciones
Dispositivos móviles y laptops
T5Gemma B-B 0.600 millones Texto Texto
  • PrefixLM, entrenado previamente
  • PrefixLM, ajustado según las instrucciones
  • UL2, entrenado previamente
  • UL2, ajustado con instrucciones
Dispositivos móviles y laptops
T5Gemma S-S 0.3 mil millones Texto Texto
  • PrefixLM, entrenado previamente
  • PrefixLM, ajustado según las instrucciones
  • UL2, entrenado previamente
  • UL2, ajustado con instrucciones
Dispositivos móviles y laptops

Gemma se probó con el hardware de TPU v5e compilado para propósitos específicos de Google y el hardware de GPU L4 (G2 estándar), A100 (A2 estándar), H100 (A3 alta) de NVIDIA.

¿Qué sigue?