Modèles ouverts Vertex AI pour le MaaS

Vertex AI est compatible avec une sélection de modèles ouverts en tant que modèles gérés. Ces modèles ouverts peuvent être utilisés avec Vertex AI sous forme de modèle en tant que service (MaaS) et sont proposés en tant qu'API gérée. Lorsque vous utilisez un modèle ouvert géré, vous continuez à envoyer vos requêtes aux points de terminaison Vertex AI. Les modèles ouverts gérés sont sans serveur. Vous n'avez donc pas besoin de provisionner ni de gérer l'infrastructure.

Vous pouvez découvrir des modèles ouverts gérés sur la plate-forme Model Garden. et également y déployer des modèles. Pour en savoir plus, consultez Explorer les modèles d'IA dans Model Garden.

Avant de pouvoir utiliser des modèles ouverts, vous devez accorder aux utilisateurs l'accès aux modèles ouverts.

Modèles ouverts

Les modèles ouverts suivants sont proposés sous forme d'API gérées dans Vertex AI Model Garden (MaaS) :

Nom du modèle Modalité Description Guide de démarrage rapide
gpt-oss 120B Langue Un modèle de 120 milliards de paramètres qui offre de hautes performances pour les tâches de raisonnement. fiche de modèle
gpt-oss 20B Langue Modèle de 20 milliards de paramètres optimisé pour l'efficacité et le déploiement sur du matériel grand public et Edge. fiche de modèle
Qwen3-Next-80B Thinking Langue, code Modèle de la famille Qwen3-Next, spécialisé dans la résolution de problèmes complexes et le raisonnement approfondi. fiche de modèle
Qwen3-Next-80B Instruct Langue, code Modèle de la famille Qwen3-Next, spécialisé dans le suivi de commandes spécifiques. fiche de modèle
Qwen3 Coder Langue, code Un modèle à poids ouvert développé pour les tâches de développement logiciel avancées. fiche de modèle
Qwen3 235B Langue Un modèle à poids ouvert doté d'une capacité de "pensée hybride" pour alterner entre raisonnement méthodique et conversation rapide. fiche de modèle
DeepSeek-V3.1 Langue Modèle hybride de DeepSeek qui accepte à la fois le mode de réflexion et le mode sans réflexion. fiche de modèle
DeepSeek R1 (0528) Langue Dernière version du modèle DeepSeek R1 de DeepSeek. fiche de modèle
Llama 4 Maverick 17B-128E Langage, vision Modèle Llama 4 le plus vaste et le plus performant, doté de fonctionnalités de codage, de raisonnement et de traitement d'images. Llama 4 Maverick 17B-128E est un modèle multimodal qui utilise l'architecture MoE (Mixture-of-Experts) et la fusion précoce. fiche de modèle
Llama 4 Scout 17B-16E Langage, vision Llama 4 Scout 17B-16E offre des résultats de pointe pour sa catégorie de taille, surpassant les générations Llama précédentes et d'autres modèles ouverts et propriétaires sur plusieurs benchmarks. Llama 4 Scout 17B-16E est un modèle multimodal qui utilise l'architecture MoE (Mixture of Experts) et la fusion précoce. fiche de modèle
Llama 3.3 Langue Llama 3.3 est un modèle textuel de 70 milliards de paramètres adapté aux instructions. Il offre des performances améliorées par rapport à Llama 3.1 70B et à Llama 3.2 90B lorsqu'il est utilisé pour des applications textuelles. De plus, pour certaines applications, Llama 3.3 70B approche les performances de Llama 3.1 405B. fiche de modèle
Llama 3.2 (preview) Langage, vision Modèle multimodal de taille moyenne (90 milliards) qui peut prendre en charge le raisonnement sur les images, comme l'analyse de graphiques et de tableaux, ainsi que le sous-titrage d'images. fiche de modèle
Llama 3.1 Langue

Ensemble de LLM multilingues optimisés pour les cas d'utilisation de dialogues multilingues et plus performants que de nombreux modèles de chat Open Source et fermés disponibles sur les benchmarks courants du secteur.

Llama 3.1 405B est en disponibilité générale (DG).

Llama 3.1 8B et Llama 3.1 70B sont en version Preview.

fiche de modèle

Les modèles d'embedding ouverts suivants sont proposés sous forme d'API gérées dans Vertex AI Model Garden (MaaS) :

Nom du modèle Description Dimensions de sortie Longueur maximale de la séquence Langues de texte compatibles Guide de démarrage rapide
multilingual-e5-small Fait partie de la famille E5 de modèles d'embedding textuel. La petite variante contient 12 couches. Jusqu'à 384 512 jetons Langues disponibles fiche de modèle
multilingual-e5-large Fait partie de la famille E5 de modèles d'embedding textuel. La variante Large contient 24 couches. Jusqu'à 1 024 512 jetons Langues disponibles fiche de modèle

Conformité réglementaire des modèles ouverts

Les certifications pour l'IA générative sur Vertex AI continuent de s'appliquer lorsque des modèles ouverts sont utilisés en tant qu'API gérée avec Vertex AI. Si vous avez besoin d'informations sur les modèles eux-mêmes, vous pouvez en trouver d'autres dans la fiche du modèle concerné ou contacter l'éditeur du modèle.

Vos données sont stockées au repos dans la région ou la multirégion sélectionnée pour les modèles ouverts sur Vertex AI, mais la régionalisation du traitement des données peut varier. Pour obtenir la liste détaillée des engagements de traitement des données des modèles ouverts, consultez Résidence des données pour les modèles ouverts.

Les requêtes des clients et les réponses des modèles ne sont pas partagées avec des tiers lorsque vous utilisez l'API Vertex AI, y compris les modèles ouverts. Google ne traite les données client que sur instruction du client, comme décrit plus en détail dans notre Avenant relatif au traitement des données dans le cloud.

Étapes suivantes