Les modèles OpenAI peuvent être utilisés en tant qu'API gérées et modèles auto-déployés sur Vertex AI. Vous pouvez diffuser vos réponses en flux continu pour réduire la perception de la latence côté utilisateur. Une réponse en flux continu utilise des événements envoyés par le serveur (SSE) pour diffuser la réponse de manière incrémentielle.
gpt-oss 120B
OpenAI gpt-oss 120B est un modèle de langage Open Source de 120 milliards de paramètres publié sous la licence Apache 2.0. Il est adapté aux cas d'utilisation de raisonnement et d'appel de fonction. Le modèle est optimisé pour le déploiement sur du matériel grand public.
Le modèle 120B atteint une parité quasi parfaite avec OpenAI o4-mini sur les principaux benchmarks de raisonnement, tout en s'exécutant sur un seul GPU de 80 Go.
Accéder à la fiche du modèle gpt-oss 120Bgpt-oss 20B
OpenAI gpt-oss 20B est un modèle de langage Open Source de 20 milliards de paramètres publié sous la licence Apache 2.0. Il est adapté aux cas d'utilisation de raisonnement et d'appel de fonction. Le modèle est optimisé pour le déploiement sur du matériel grand public.
Le modèle 20B offre des résultats similaires à ceux d'o3-mini d'OpenAI sur les benchmarks courants et peut s'exécuter sur des appareils périphériques dotés de 16 Go de mémoire. Il est donc idéal pour les cas d'utilisation sur l'appareil, l'inférence locale ou l'itération rapide sans infrastructure coûteuse.
Accéder à la fiche du modèle gpt-oss 20BUtiliser des modèles OpenAI
Pour les modèles gérés, vous pouvez utiliser des commandes curl pour envoyer des requêtes au point de terminaison Vertex AI à l'aide des noms de modèles suivants :
- Pour gpt-oss 120B, utilisez
gpt-oss-120b-maas. - Pour gpt-oss 20B, utilisez
gpt-oss-20b-maas.
Pour savoir comment effectuer des appels en flux continu et non en flux continu aux modèles OpenAI, consultez Appeler des API de modèles ouverts.
Pour utiliser un modèle Vertex AI déployé automatiquement :
- Accédez à la console Model Garden.
- Trouvez le modèle Vertex AI approprié.
- Cliquez sur Activer et remplissez le formulaire fourni pour obtenir les licences d'utilisation commerciale nécessaires.
Pour en savoir plus sur le déploiement et l'utilisation des modèles partenaires, consultez Déployer un modèle partenaire et envoyer des requêtes de prédiction .
Disponibilité des régions pour les modèles OpenAI
Les modèles OpenAI sont disponibles dans les régions suivantes :
| Modèle | Régions |
|---|---|
| gpt-oss 120B |
|
| gpt-oss 20B |
|
Étapes suivantes
Découvrez comment appeler des API de modèles ouverts.