Modèles OpenAI

Les modèles OpenAI peuvent être utilisés en tant qu'API gérées et modèles auto-déployés sur Vertex AI. Vous pouvez diffuser vos réponses en flux continu pour réduire la perception de la latence côté utilisateur. Une réponse en flux continu utilise des événements envoyés par le serveur (SSE) pour diffuser la réponse de manière incrémentielle.

gpt-oss 120B

OpenAI gpt-oss 120B est un modèle de langage Open Source de 120 milliards de paramètres publié sous la licence Apache 2.0. Il est adapté aux cas d'utilisation de raisonnement et d'appel de fonction. Le modèle est optimisé pour le déploiement sur du matériel grand public.

Le modèle 120B atteint une parité quasi parfaite avec OpenAI o4-mini sur les principaux benchmarks de raisonnement, tout en s'exécutant sur un seul GPU de 80 Go.

Accéder à la fiche du modèle gpt-oss 120B

gpt-oss 20B

OpenAI gpt-oss 20B est un modèle de langage Open Source de 20 milliards de paramètres publié sous la licence Apache 2.0. Il est adapté aux cas d'utilisation de raisonnement et d'appel de fonction. Le modèle est optimisé pour le déploiement sur du matériel grand public.

Le modèle 20B offre des résultats similaires à ceux d'o3-mini d'OpenAI sur les benchmarks courants et peut s'exécuter sur des appareils périphériques dotés de 16 Go de mémoire. Il est donc idéal pour les cas d'utilisation sur l'appareil, l'inférence locale ou l'itération rapide sans infrastructure coûteuse.

Accéder à la fiche du modèle gpt-oss 20B

Utiliser des modèles OpenAI

Pour les modèles gérés, vous pouvez utiliser des commandes curl pour envoyer des requêtes au point de terminaison Vertex AI à l'aide des noms de modèles suivants :

  • Pour gpt-oss 120B, utilisez gpt-oss-120b-maas.
  • Pour gpt-oss 20B, utilisez gpt-oss-20b-maas.

Pour savoir comment effectuer des appels en flux continu et non en flux continu aux modèles OpenAI, consultez Appeler des API de modèles ouverts.

Pour utiliser un modèle Vertex AI déployé automatiquement :

  1. Accédez à la console Model Garden.
  2. Trouvez le modèle Vertex AI approprié.
  3. Cliquez sur Activer et remplissez le formulaire fourni pour obtenir les licences d'utilisation commerciale nécessaires.

Pour en savoir plus sur le déploiement et l'utilisation des modèles partenaires, consultez Déployer un modèle partenaire et envoyer des requêtes de prédiction .

Disponibilité des régions pour les modèles OpenAI

Les modèles OpenAI sont disponibles dans les régions suivantes :

Modèle Régions
gpt-oss 120B
  • global
    • Sortie maximale : 131 072
    • Longueur du contexte : 131 072
  • us-central1
    • Sortie maximale : 131 072
    • Longueur du contexte : 131 072
gpt-oss 20B
  • us-central1
    • Sortie maximale : 32 768
    • Longueur du contexte : 131 072

Étapes suivantes

Découvrez comment appeler des API de modèles ouverts.