Os modelos da OpenAI na Vertex AI oferecem modelos totalmente gerenciados e sem servidor modelos como APIs. Para usar um modelo da OpenAI na Vertex AI, envie uma solicitação diretamente para o endpoint de API Vertex AI. Como os modelos da OpenAI usam uma API gerenciada, não é necessário provisionar nem gerenciar a infraestrutura.
É possível transmitir as respostas para reduzir a percepção de latência do usuário final. Uma resposta transmitida usa eventos enviados pelo servidor (SSE) para transmitir a resposta de forma incremental.
Modelos da OpenAI disponíveis
Os modelos a seguir estão disponíveis na OpenAI para uso na Vertex AI. Para acessar um modelo da OpenAI, acesse o card de modelo do Model Garden.
gpt-oss 120B
O OpenAI gpt-oss 120B é um modelo de linguagem de 120 bilhões de parâmetros de código aberto lançado sob a licença Apache 2.0. Ele é adequado para casos de uso de raciocínio e chamada de função. O modelo é otimizado para implantação em hardware de consumo.
O modelo de 120 bilhões de parâmetros alcança quase a mesma paridade que o o4-mini da OpenAI em comparativos de mercado de raciocínio principais, enquanto é executado em uma única GPU de 80 GB.
Acessar o card do modelo gpt-oss 120B
gpt-oss 20B
O OpenAI gpt-oss 20B é um modelo de linguagem de 20 bilhões de parâmetros de código aberto lançado sob a licença Apache 2.0. Ele é adequado para casos de uso de raciocínio e chamada de função. O modelo é otimizado para implantação em hardware de consumo.
O modelo de 20 bilhões oferece resultados semelhantes ao o3-mini da OpenAI em comparativos comuns e pode ser executado em dispositivos de borda com 16 GB de memória. Isso o torna ideal para casos de uso no dispositivo, inferência local ou iteração rápida sem infraestrutura cara.
Acessar o card do modelo gpt-oss 20B
Usar modelos da OpenAI
Para saber como fazer chamadas de streaming e não streaming para modelos da OpenAI, consulte Chamar APIs de modelos abertos.
A seguir
- Saiba como chamar APIs de modelos abertos.