Modelos da OpenAI

Os modelos da OpenAI na Vertex AI oferecem modelos totalmente gerenciados e sem servidor modelos como APIs. Para usar um modelo da OpenAI na Vertex AI, envie uma solicitação diretamente para o endpoint de API Vertex AI. Como os modelos da OpenAI usam uma API gerenciada, não é necessário provisionar nem gerenciar a infraestrutura.

É possível transmitir as respostas para reduzir a percepção de latência do usuário final. Uma resposta transmitida usa eventos enviados pelo servidor (SSE) para transmitir a resposta de forma incremental.

Modelos da OpenAI disponíveis

Os modelos a seguir estão disponíveis na OpenAI para uso na Vertex AI. Para acessar um modelo da OpenAI, acesse o card de modelo do Model Garden.

gpt-oss 120B

O OpenAI gpt-oss 120B é um modelo de linguagem de 120 bilhões de parâmetros de código aberto lançado sob a licença Apache 2.0. Ele é adequado para casos de uso de raciocínio e chamada de função. O modelo é otimizado para implantação em hardware de consumo.

O modelo de 120 bilhões de parâmetros alcança quase a mesma paridade que o o4-mini da OpenAI em comparativos de mercado de raciocínio principais, enquanto é executado em uma única GPU de 80 GB.

Acessar o card do modelo gpt-oss 120B

gpt-oss 20B

O OpenAI gpt-oss 20B é um modelo de linguagem de 20 bilhões de parâmetros de código aberto lançado sob a licença Apache 2.0. Ele é adequado para casos de uso de raciocínio e chamada de função. O modelo é otimizado para implantação em hardware de consumo.

O modelo de 20 bilhões oferece resultados semelhantes ao o3-mini da OpenAI em comparativos comuns e pode ser executado em dispositivos de borda com 16 GB de memória. Isso o torna ideal para casos de uso no dispositivo, inferência local ou iteração rápida sem infraestrutura cara.

Acessar o card do modelo gpt-oss 20B

Usar modelos da OpenAI

Para saber como fazer chamadas de streaming e não streaming para modelos da OpenAI, consulte Chamar APIs de modelos abertos.

A seguir