Utiliser les modèles ouverts Gemma

Gemma est un ensemble de modèles ouverts d'intelligence artificielle (IA) légers et génératifs. Les modèles Gemma sont disponibles pour s'exécuter dans vos applications et sur votre matériel, vos appareils mobiles ou vos services hébergés. Vous pouvez également personnaliser ces modèles à l'aide de techniques de réglage afin qu'ils excellent dans l'exécution des tâches qui vous intéressent ainsi que vos utilisateurs. Les modèles Gemma sont basés sur des modèles Gemini et sont destinés à la communauté de développement de l'IA afin qu'ils puissent s'étendre et aller plus loin.

L'affinage peut aider à améliorer les performances d'un modèle pour des tâches spécifiques. Étant donné que les modèles de la famille Gemma sont à pondération ouverte, vous pouvez les ajuster à l'aide du framework d'IA de votre choix et du SDK Vertex AI. Vous pouvez ouvrir un exemple de notebook pour affiner le modèle Gemma à l'aide d'un lien disponible sur la fiche de modèle Gemma dans Model Garden.

Les modèles Gemma suivants peuvent être utilisés avec Vertex AI. Pour en savoir plus et tester les modèles Gemma, consultez les fiches de modèle Model Garden.

Nom du modèle Cas d'utilisation Fiche de modèle Model Garden
Gemma 3n Il est capable de traiter des entrées multimodales (texte, image, vidéo et audio) et de générer des sorties textuelles. Accéder à la fiche de modèle Gemma 3n
Gemma 3 Idéal pour les tâches de génération de texte et de compréhension d'images, y compris les questions-réponses, la synthèse et le raisonnement. Accéder à la fiche de modèle Gemma 3
Gemma 2 Idéal pour la génération, la synthèse et l'extraction de texte. Accéder à la fiche de modèle Gemma 2
Gemma Idéal pour la génération, la synthèse et l'extraction de texte. Accéder à la fiche de modèle Gemma
CodeGemma Idéal pour la génération et la complétion de code. Accéder à la fiche de modèle CodeGemma
PaliGemma 2 Idéal pour les tâches de légendes d'images et de questions-réponses visuelles. Accéder à la fiche de modèle PaliGemma 2
PaliGemma Idéal pour les tâches de légendes d'images et de questions-réponses visuelles. Accéder à la fiche de modèle PaliGemma
ShieldGemma 2 Vérifie la sécurité des images synthétiques et naturelles pour vous aider à créer des ensembles de données et des modèles robustes. Accéder à la fiche de modèle ShieldGemma 2
TxGemma Idéal pour les tâches de prédiction thérapeutique, y compris la classification, la régression ou la génération, ainsi que pour les tâches de raisonnement. Accéder à la fiche de modèle TxGemma
MedGemma Variantes de Gemma 3 entraînées pour comprendre les textes et les images médicales. Accéder à la fiche de modèle MedGemma
MedSigLIP Variante SigLIP entraînée pour encoder des images et du texte médicaux dans un espace d'intégration commun. Accéder à la fiche de modèle MedSigLIP
T5Gemma Convient parfaitement à diverses tâches génératives, y compris les questions-réponses, la synthèse et le raisonnement. Accéder à la fiche de modèle T5Gemma

Voici quelques options dans lesquelles utiliser Gemma :

Utiliser Gemma avec Vertex AI

Vertex AI offre une plate-forme gérée qui permet de créer et de faire évoluer rapidement des projets de machine learning sans nécessiter d'expertise MLOps en interne. Vous pouvez utiliser Vertex AI en tant qu'application en aval qui diffuse le modèle Gemma. Par exemple, vous pouvez transférer des pondérations à partir de l'implémentation Keras de Gemma. Vous pouvez ensuite utiliser Vertex AI pour diffuser cette version de Gemma afin d'obtenir des prédictions. Nous vous recommandons d'utiliser Vertex AI si vous souhaitez bénéficier de fonctionnalités MLOps de bout en bout, de fonctionnalités de ML à valeur ajoutée et d'une expérience sans serveur pour simplifier le développement.

Pour commencer à utiliser Gemma, consultez les notebooks suivants :

Utiliser Gemma dans d'autres produits Google Cloud

Vous pouvez utiliser Gemma avec d'autres produits Google Cloud , tels que Google Kubernetes Engine et Dataflow.

Utiliser Gemma avec GKE

Google Kubernetes Engine (GKE) est la solution Google Cloud pour les services Kubernetes gérés, qui offre évolutivité, sécurité, résilience et rentabilité. Nous vous recommandons cette option si vous disposez déjà d'investissements Kubernetes, si votre entreprise dispose d'une expertise en MLOps interne ou si vous avez besoin d'un contrôle précis sur des charges de travail d'IA/ML complexes avec une sécurité, des pipelines de données et des ressources uniques et des exigences de gestion des ressources. Pour en savoir plus, consultez les tutoriels suivants dans la documentation GKE :

Utiliser Gemma avec Dataflow

Vous pouvez utiliser des modèles Gemma avec Dataflow pour l'analyse des sentiments. Utilisez Dataflow pour exécuter des pipelines d'inférence qui utilisent les modèles Gemma. Pour en savoir plus, consultez Exécuter des pipelines d'inférence avec des modèles ouverts Gemma.

Utiliser Gemma avec Colab

Vous pouvez utiliser Gemma avec Colaboratory pour créer votre solution Gemma. Dans Colab, vous pouvez utiliser Gemma avec des options de framework telles que PyTorch et JAX. Pour en savoir plus, consultez les sections suivantes :

Tailles et capacités des modèles Gemma

Les modèles Gemma sont disponibles dans plusieurs tailles afin que vous puissiez créer des solutions d'IA générative en fonction de vos ressources informatiques disponibles, des fonctionnalités dont vous avez besoin et de l'emplacement où vous souhaitez les exécuter. Chaque modèle est disponible dans une version réglée et une version non réglée :

  • Pré-entraîné : cette version du modèle n'a été entraînée sur aucune tâche ou instruction spécifique en dehors de l'ensemble d'entraînement de données principal Gemma. Nous vous déconseillons d'utiliser ce modèle sans l'ajuster.

  • Optimisation des instructions : cette version du modèle a été entraînée avec des interactions en langage humain afin de pouvoir participer à une conversation, comme pour un simple chatbot.

  • Combinaison affinée : cette version du modèle est affinée sur une combinaison d'ensembles de données académiques et accepte les requêtes en langage naturel.

Une taille de paramètre plus faible signifie des besoins en ressources plus faibles et une plus grande flexibilité de déploiement.

Nom du modèle Taille des paramètres Entrée Sortie Versions réglées Plates-formes concernées
Gemma 3n
Gemma 3n E4B 4 milliards de paramètres effectifs Texte, image et audio Texte
  • Pré-entraînés
  • Optimisation des instructions
Appareils mobiles et ordinateurs portables
Gemma 3n E2B 2 milliards de paramètres effectifs Texte, image et audio Texte
  • Pré-entraînés
  • Optimisation des instructions
Appareils mobiles et ordinateurs portables
Gemma 3
Gemma 27B 27 milliards Texte et image Texte
  • Pré-entraînés
  • Optimisation des instructions
Serveurs ou clusters de serveurs de grande taille
Gemma 12B 12 milliards Texte et image Texte
  • Pré-entraînés
  • Optimisation des instructions
Ordinateurs de bureau et serveurs haut de gamme
Gemma 4B 4 milliards Texte et image Texte
  • Pré-entraînés
  • Optimisation des instructions
Ordinateurs de bureau et petits serveurs
Gemma 1B 1 milliard Texte Texte
  • Pré-entraînés
  • Optimisation des instructions
Appareils mobiles et ordinateurs portables
Gemma 2
Gemma 27B 27 milliards Texte Texte
  • Pré-entraînés
  • Optimisation des instructions
Serveurs ou clusters de serveurs de grande taille
Gemma 9B 9 milliards Texte Texte
  • Pré-entraînés
  • Optimisation des instructions
Ordinateurs de bureau et serveurs haut de gamme
Gemma 2B 2 milliards Texte Texte
  • Pré-entraînés
  • Optimisation des instructions
Appareils mobiles et ordinateurs portables
Gemma
Gemma 7B 7 milliards Texte Texte
  • Pré-entraînés
  • Optimisation des instructions
Ordinateurs de bureau et petits serveurs
Gemma 2B 2,2 milliards Texte Texte
  • Pré-entraînés
  • Optimisation des instructions
Appareils mobiles et ordinateurs portables
CodeGemma
CodeGemma 7B 7 milliards Texte Texte
  • Pré-entraînés
  • Optimisation des instructions
Ordinateurs de bureau et petits serveurs
CodeGemma 2B 2 milliards Texte Texte
  • Solutions pré-entraînées
Ordinateurs de bureau et petits serveurs
PaliGemma 2
PaliGemma 28B 28 milliards Texte et image Texte
  • Pré-entraînés
  • Combinaison affinée
Serveurs ou clusters de serveurs de grande taille
PaliGemma 10B 10 milliards Texte et image Texte
  • Pré-entraînés
  • Combinaison affinée
Ordinateurs de bureau et serveurs haut de gamme
PaliGemma 3B 3 milliards Texte et image Texte
  • Pré-entraînés
  • Combinaison affinée
Ordinateurs de bureau et petits serveurs
PaliGemma
PaliGemma 3B 3 milliards Texte et image Texte
  • Pré-entraînés
  • Combinaison affinée
Ordinateurs de bureau et petits serveurs
ShieldGemma 2
ShieldGemma 2 4 milliards Texte et image Texte
  • Affiné
Ordinateurs de bureau et petits serveurs
TxGemma
TxGemma 27B 27 milliards Texte Texte
  • Pré-entraînés
  • Optimisation des instructions
Serveurs ou clusters de serveurs de grande taille
TxGemma 9B 9 milliards Texte Texte
  • Pré-entraînés
  • Optimisation des instructions
Ordinateurs de bureau et serveurs haut de gamme
TxGemma 2B 2 milliards Texte Texte
  • Pré-entraînés
Appareils mobiles et ordinateurs portables
MedGemma
MedGemma 27B 27 milliards Texte et image Texte
  • Optimisé pour les instructions textuelles uniquement
  • Optimisation des instructions
Serveurs ou clusters de serveurs de grande taille
MedGemma 4B 4 milliards Texte et image Texte
  • Pré-entraînés
  • Optimisation des instructions
Ordinateurs de bureau et petits serveurs
MedSigLIP
MedSigLIP 800 millions Texte et image Embedding
  • Affiné
Appareils mobiles et ordinateurs portables
T5Gemma
T5Gemma 9B-9B 18 milliards Texte Texte
  • PrefixLM, préentraîné
  • PrefixLM, optimisé pour les instructions
  • UL2, pré-entraîné
  • UL2, optimisé pour les instructions
Appareils mobiles et ordinateurs portables
T5Gemma 9B-2B 11 milliards Texte Texte
  • PrefixLM, préentraîné
  • PrefixLM, optimisé pour les instructions
  • UL2, pré-entraîné
  • UL2, optimisé pour les instructions
Appareils mobiles et ordinateurs portables
T5Gemma 2B-2B 4 milliards Texte Texte
  • PrefixLM, préentraîné
  • PrefixLM, optimisé pour les instructions
  • UL2, pré-entraîné
  • UL2, optimisé pour les instructions
Appareils mobiles et ordinateurs portables
T5Gemma XL-XL 4 milliards Texte Texte
  • PrefixLM, préentraîné
  • PrefixLM, optimisé pour les instructions
  • UL2, pré-entraîné
  • UL2, optimisé pour les instructions
Appareils mobiles et ordinateurs portables
T5Gemma M-L 2 milliards Texte Texte
  • PrefixLM, préentraîné
  • PrefixLM, optimisé pour les instructions
  • UL2, pré-entraîné
  • UL2, optimisé pour les instructions
Appareils mobiles et ordinateurs portables
T5Gemma L-L 1 milliard Texte Texte
  • PrefixLM, préentraîné
  • PrefixLM, optimisé pour les instructions
  • UL2, pré-entraîné
  • UL2, optimisé pour les instructions
Appareils mobiles et ordinateurs portables
T5Gemma B-B 0,6 milliard Texte Texte
  • PrefixLM, préentraîné
  • PrefixLM, optimisé pour les instructions
  • UL2, pré-entraîné
  • UL2, optimisé pour les instructions
Appareils mobiles et ordinateurs portables
T5Gemma S-S 0,3 milliard Texte Texte
  • PrefixLM, préentraîné
  • PrefixLM, optimisé pour les instructions
  • UL2, pré-entraîné
  • UL2, optimisé pour les instructions
Appareils mobiles et ordinateurs portables

Gemma a été testé sur le matériel TPU v5e spécialement conçu par Google, ainsi que sur le matériel GPU L4 (G2 standard), A100 (A2 Standard) et H100 (A3 High) de NVIDIA.

Étape suivante