Modèles OpenAI

Les modèles OpenAI sur Vertex AI offrent des modèles sans serveur et entièrement gérés en tant qu'API. Pour utiliser un modèle OpenAI sur Vertex AI, envoyez une requête directement au point de terminaison de l'API Vertex AI. Étant donné que les modèles OpenAI utilisent une API gérée, il n'est pas nécessaire de provisionner ni de gérer l'infrastructure.

Vous pouvez diffuser vos réponses en flux continu pour réduire la perception de la latence côté utilisateur. Une réponse en flux continu utilise des événements envoyés par le serveur (SSE) pour diffuser la réponse de manière incrémentielle.

Modèles OpenAI disponibles

Les modèles suivants sont disponibles depuis OpenAI et peuvent être utilisés dans Vertex AI. Pour accéder à un modèle OpenAI, accédez à sa fiche de modèle Model Garden.

gpt-oss 120B

OpenAI gpt-oss 120B est un modèle de langage Open Source de 120 milliards de paramètres publié sous la licence Apache 2.0. Il est bien adapté aux cas d'utilisation de raisonnement et d'appel de fonction. Le modèle est optimisé pour le déploiement sur du matériel grand public.

Le modèle 120B atteint une parité quasi parfaite avec OpenAI o4-mini sur les principaux benchmarks de raisonnement, tout en s'exécutant sur un seul GPU de 80 Go.

Accéder à la fiche de modèle gpt-oss 120B

gpt-oss 20B

OpenAI gpt-oss 20B est un modèle de langage de 20 milliards de paramètres open source publié sous licence Apache 2.0. Il est bien adapté aux cas d'utilisation de raisonnement et d'appel de fonction. Le modèle est optimisé pour le déploiement sur du matériel grand public.

Le modèle 20B offre des résultats similaires à ceux d'OpenAI o3-mini sur les benchmarks courants et peut s'exécuter sur des appareils Edge avec 16 Go de mémoire. Il est donc idéal pour les cas d'utilisation sur l'appareil, l'inférence locale ou l'itération rapide sans infrastructure coûteuse.

Accéder à la fiche de modèle gpt-oss 20B

Utiliser les modèles OpenAI

Pour savoir comment effectuer des appels en flux continu et non en flux continu aux modèles OpenAI, consultez Appeler des API de modèles ouverts.

Étapes suivantes