Gemma est un ensemble de modèles ouverts d'intelligence artificielle (IA) légers et génératifs. Les modèles Gemma sont disponibles pour s'exécuter dans vos applications et sur votre matériel, vos appareils mobiles ou vos services hébergés. Vous pouvez également personnaliser ces modèles à l'aide de techniques de réglage afin qu'ils excellent dans l'exécution des tâches qui vous intéressent ainsi que vos utilisateurs. Les modèles Gemma sont basés sur des modèles Gemini et sont destinés à la communauté de développement de l'IA afin qu'ils puissent s'étendre et aller plus loin.
L'affinage peut aider à améliorer les performances d'un modèle pour des tâches spécifiques. Étant donné que les modèles de la famille Gemma sont à pondération ouverte, vous pouvez les ajuster à l'aide du framework d'IA de votre choix et du SDK Vertex AI. Vous pouvez ouvrir un exemple de notebook pour affiner le modèle Gemma à l'aide d'un lien disponible sur la fiche de modèle Gemma dans Model Garden.
Les modèles Gemma suivants peuvent être utilisés avec Vertex AI. Pour en savoir plus et tester les modèles Gemma, consultez les fiches de modèle Model Garden.
Nom du modèle | Cas d'utilisation | Fiche de modèle Model Garden |
---|---|---|
Gemma 3n | Il est capable de traiter des entrées multimodales (texte, image, vidéo et audio) et de générer des sorties textuelles. | Accéder à la fiche de modèle Gemma 3n |
Gemma 3 | Idéal pour les tâches de génération de texte et de compréhension d'images, y compris les questions-réponses, la synthèse et le raisonnement. | Accéder à la fiche de modèle Gemma 3 |
Gemma 2 | Idéal pour la génération, la synthèse et l'extraction de texte. | Accéder à la fiche de modèle Gemma 2 |
Gemma | Idéal pour la génération, la synthèse et l'extraction de texte. | Accéder à la fiche de modèle Gemma |
CodeGemma | Idéal pour la génération et la complétion de code. | Accéder à la fiche de modèle CodeGemma |
PaliGemma 2 | Idéal pour les tâches de légendes d'images et de questions-réponses visuelles. | Accéder à la fiche de modèle PaliGemma 2 |
PaliGemma | Idéal pour les tâches de légendes d'images et de questions-réponses visuelles. | Accéder à la fiche de modèle PaliGemma |
ShieldGemma 2 | Vérifie la sécurité des images synthétiques et naturelles pour vous aider à créer des ensembles de données et des modèles robustes. | Accéder à la fiche de modèle ShieldGemma 2 |
TxGemma | Idéal pour les tâches de prédiction thérapeutique, y compris la classification, la régression ou la génération, ainsi que pour les tâches de raisonnement. | Accéder à la fiche de modèle TxGemma |
MedGemma | Variantes de Gemma 3 entraînées pour comprendre les textes et les images médicales. | Accéder à la fiche de modèle MedGemma |
MedSigLIP | Variante SigLIP entraînée pour encoder des images et du texte médicaux dans un espace d'intégration commun. | Accéder à la fiche de modèle MedSigLIP |
T5Gemma | Convient parfaitement à diverses tâches génératives, y compris les questions-réponses, la synthèse et le raisonnement. | Accéder à la fiche de modèle T5Gemma |
Voici quelques options dans lesquelles utiliser Gemma :
Utiliser Gemma avec Vertex AI
Vertex AI offre une plate-forme gérée qui permet de créer et de faire évoluer rapidement des projets de machine learning sans nécessiter d'expertise MLOps en interne. Vous pouvez utiliser Vertex AI en tant qu'application en aval qui diffuse le modèle Gemma. Par exemple, vous pouvez transférer des pondérations à partir de l'implémentation Keras de Gemma. Vous pouvez ensuite utiliser Vertex AI pour diffuser cette version de Gemma afin d'obtenir des prédictions. Nous vous recommandons d'utiliser Vertex AI si vous souhaitez bénéficier de fonctionnalités MLOps de bout en bout, de fonctionnalités de ML à valeur ajoutée et d'une expérience sans serveur pour simplifier le développement.
Pour commencer à utiliser Gemma, consultez les notebooks suivants :
Affiner Gemma 3 à l'aide de PEFT, puis déployer sur Vertex AI depuis Vertex
Affiner Gemma 2 à l'aide de PEFT, puis déployer sur Vertex AI depuis Vertex
Affiner Gemma à l'aide de PEFT, puis déployer sur Vertex AI depuis Vertex
Affiner Gemma à l'aide de PEFT, puis déployer sur Vertex AI depuis Huggingface
Affiner Gemma à l'aide de KerasNLP, puis déployer sur Vertex AI
Affiner Gemma avec Ray sur Vertex AI, puis déployer sur Vertex AI
Exécuter l'inférence locale avec ShieldGemma 2 et Hugging Face Transformers
Exécuter l'inférence locale avec T5Gemma et Hugging Face Transformers
Utiliser Gemma dans d'autres produits Google Cloud
Vous pouvez utiliser Gemma avec d'autres produits Google Cloud , tels que Google Kubernetes Engine et Dataflow.
Utiliser Gemma avec GKE
Google Kubernetes Engine (GKE) est la solution Google Cloud pour les services Kubernetes gérés, qui offre évolutivité, sécurité, résilience et rentabilité. Nous vous recommandons cette option si vous disposez déjà d'investissements Kubernetes, si votre entreprise dispose d'une expertise en MLOps interne ou si vous avez besoin d'un contrôle précis sur des charges de travail d'IA/ML complexes avec une sécurité, des pipelines de données et des ressources uniques et des exigences de gestion des ressources. Pour en savoir plus, consultez les tutoriels suivants dans la documentation GKE :
- Diffuser Gemma avec vLLM
- Diffuser Gemma avec TGI
- Diffuser Gemma avec Triton et TensorRT-LLM
- Diffuser Gemma avec JetStream
Utiliser Gemma avec Dataflow
Vous pouvez utiliser des modèles Gemma avec Dataflow pour l'analyse des sentiments. Utilisez Dataflow pour exécuter des pipelines d'inférence qui utilisent les modèles Gemma. Pour en savoir plus, consultez Exécuter des pipelines d'inférence avec des modèles ouverts Gemma.
Utiliser Gemma avec Colab
Vous pouvez utiliser Gemma avec Colaboratory pour créer votre solution Gemma. Dans Colab, vous pouvez utiliser Gemma avec des options de framework telles que PyTorch et JAX. Pour en savoir plus, consultez les sections suivantes :
- Premiers pas avec Gemma à l'aide de Keras.
- Premiers pas avec Gemma à l'aide de PyTorch.
- Réglage de base avec Gemma à l'aide de Keras.
- Réglage distribué avec Gemma à l'aide de Keras.
Tailles et capacités des modèles Gemma
Les modèles Gemma sont disponibles dans plusieurs tailles afin que vous puissiez créer des solutions d'IA générative en fonction de vos ressources informatiques disponibles, des fonctionnalités dont vous avez besoin et de l'emplacement où vous souhaitez les exécuter. Chaque modèle est disponible dans une version réglée et une version non réglée :
Pré-entraîné : cette version du modèle n'a été entraînée sur aucune tâche ou instruction spécifique en dehors de l'ensemble d'entraînement de données principal Gemma. Nous vous déconseillons d'utiliser ce modèle sans l'ajuster.
Optimisation des instructions : cette version du modèle a été entraînée avec des interactions en langage humain afin de pouvoir participer à une conversation, comme pour un simple chatbot.
Combinaison affinée : cette version du modèle est affinée sur une combinaison d'ensembles de données académiques et accepte les requêtes en langage naturel.
Une taille de paramètre plus faible signifie des besoins en ressources plus faibles et une plus grande flexibilité de déploiement.
Nom du modèle | Taille des paramètres | Entrée | Sortie | Versions réglées | Plates-formes concernées |
---|---|---|---|---|---|
Gemma 3n | |||||
Gemma 3n E4B | 4 milliards de paramètres effectifs | Texte, image et audio | Texte |
|
Appareils mobiles et ordinateurs portables |
Gemma 3n E2B | 2 milliards de paramètres effectifs | Texte, image et audio | Texte |
|
Appareils mobiles et ordinateurs portables |
Gemma 3 | |||||
Gemma 27B | 27 milliards | Texte et image | Texte |
|
Serveurs ou clusters de serveurs de grande taille |
Gemma 12B | 12 milliards | Texte et image | Texte |
|
Ordinateurs de bureau et serveurs haut de gamme |
Gemma 4B | 4 milliards | Texte et image | Texte |
|
Ordinateurs de bureau et petits serveurs |
Gemma 1B | 1 milliard | Texte | Texte |
|
Appareils mobiles et ordinateurs portables |
Gemma 2 | |||||
Gemma 27B | 27 milliards | Texte | Texte |
|
Serveurs ou clusters de serveurs de grande taille |
Gemma 9B | 9 milliards | Texte | Texte |
|
Ordinateurs de bureau et serveurs haut de gamme |
Gemma 2B | 2 milliards | Texte | Texte |
|
Appareils mobiles et ordinateurs portables |
Gemma | |||||
Gemma 7B | 7 milliards | Texte | Texte |
|
Ordinateurs de bureau et petits serveurs |
Gemma 2B | 2,2 milliards | Texte | Texte |
|
Appareils mobiles et ordinateurs portables |
CodeGemma | |||||
CodeGemma 7B | 7 milliards | Texte | Texte |
|
Ordinateurs de bureau et petits serveurs |
CodeGemma 2B | 2 milliards | Texte | Texte |
|
Ordinateurs de bureau et petits serveurs |
PaliGemma 2 | |||||
PaliGemma 28B | 28 milliards | Texte et image | Texte |
|
Serveurs ou clusters de serveurs de grande taille |
PaliGemma 10B | 10 milliards | Texte et image | Texte |
|
Ordinateurs de bureau et serveurs haut de gamme |
PaliGemma 3B | 3 milliards | Texte et image | Texte |
|
Ordinateurs de bureau et petits serveurs |
PaliGemma | |||||
PaliGemma 3B | 3 milliards | Texte et image | Texte |
|
Ordinateurs de bureau et petits serveurs |
ShieldGemma 2 | |||||
ShieldGemma 2 | 4 milliards | Texte et image | Texte |
|
Ordinateurs de bureau et petits serveurs |
TxGemma | |||||
TxGemma 27B | 27 milliards | Texte | Texte |
|
Serveurs ou clusters de serveurs de grande taille |
TxGemma 9B | 9 milliards | Texte | Texte |
|
Ordinateurs de bureau et serveurs haut de gamme |
TxGemma 2B | 2 milliards | Texte | Texte |
|
Appareils mobiles et ordinateurs portables |
MedGemma | |||||
MedGemma 27B | 27 milliards | Texte et image | Texte |
|
Serveurs ou clusters de serveurs de grande taille |
MedGemma 4B | 4 milliards | Texte et image | Texte |
|
Ordinateurs de bureau et petits serveurs |
MedSigLIP | |||||
MedSigLIP | 800 millions | Texte et image | Embedding |
|
Appareils mobiles et ordinateurs portables |
T5Gemma | |||||
T5Gemma 9B-9B | 18 milliards | Texte | Texte |
|
Appareils mobiles et ordinateurs portables |
T5Gemma 9B-2B | 11 milliards | Texte | Texte |
|
Appareils mobiles et ordinateurs portables |
T5Gemma 2B-2B | 4 milliards | Texte | Texte |
|
Appareils mobiles et ordinateurs portables |
T5Gemma XL-XL | 4 milliards | Texte | Texte |
|
Appareils mobiles et ordinateurs portables |
T5Gemma M-L | 2 milliards | Texte | Texte |
|
Appareils mobiles et ordinateurs portables |
T5Gemma L-L | 1 milliard | Texte | Texte |
|
Appareils mobiles et ordinateurs portables |
T5Gemma B-B | 0,6 milliard | Texte | Texte |
|
Appareils mobiles et ordinateurs portables |
T5Gemma S-S | 0,3 milliard | Texte | Texte |
|
Appareils mobiles et ordinateurs portables |
Gemma a été testé sur le matériel TPU v5e spécialement conçu par Google, ainsi que sur le matériel GPU L4 (G2 standard), A100 (A2 Standard) et H100 (A3 High) de NVIDIA.
Étape suivante
- Consultez la documentation Gemma.