Los modelos de OpenAI en Vertex AI ofrecen modelos completamente administrados y sin servidores como APIs. Para usar un modelo de OpenAI en Vertex AI, envía una solicitud directamente al extremo de API de Vertex AI. Debido a que los modelos de OpenAI usan una API administrada, no es necesario aprovisionar ni administrar la infraestructura.
Puedes transmitir tus respuestas para reducir la percepción de latencia del usuario final. Una respuesta transmitida usa eventos enviados por el servidor (SSE) para transmitir la respuesta de forma incremental.
Modelos de OpenAI disponibles
Los siguientes modelos están disponibles en OpenAI para usarlos en Vertex AI. Para acceder a un modelo de OpenAI, ve a su tarjeta de modelo de Model Garden.
gpt-oss 120B
OpenAI gpt-oss 120B es un modelo de lenguaje de 120 mil millones de parámetros con pesos abiertos que se lanzó bajo la licencia de Apache 2.0. Es adecuado para casos de uso de razonamiento y llamadas a función. El modelo está optimizado para la implementación en hardware de consumo.
El modelo de 120 mil millones de parámetros logra una paridad casi perfecta con o4-mini de OpenAI en las comparativas de razonamiento principales, mientras se ejecuta en una sola GPU de 80 GB.
Ir a la tarjeta de modelo de gpt-oss 120B
gpt-oss 20B
OpenAI gpt-oss 20B es un modelo de lenguaje de 20B de código abierto y sin pesos que se lanzó bajo la licencia Apache 2.0. Es adecuado para casos de uso de razonamiento y llamadas a función. El modelo está optimizado para la implementación en hardware de consumo.
El modelo 20B ofrece resultados similares a o3-mini de OpenAI en comparativas comunes y se puede ejecutar en dispositivos perimetrales con 16 GB de memoria, lo que lo hace ideal para casos de uso en el dispositivo, inferencia local o iteración rápida sin infraestructura costosa.
Ir a la tarjeta de modelo de gpt-oss 20B
Usa modelos de OpenAI
Para obtener información sobre cómo realizar llamadas de transmisión y no transmisión a los modelos de OpenAI, consulta Llama a las APIs de modelos abiertos.
¿Qué sigue?
- Obtén más información para llamar a las APIs de modelos abiertos.