Os modelos da OpenAI estão disponíveis para utilização como APIs geridas e modelos implementados automaticamente no Vertex AI. Pode transmitir as suas respostas para reduzir a perceção de latência do utilizador final. Uma resposta transmitida usa eventos enviados pelo servidor (SSE) para transmitir a resposta de forma incremental.
Modelos da OpenAI geridos
Os modelos da OpenAI oferecem modelos totalmente geridos e sem servidor como APIs. Para usar um modelo da OpenAI no Vertex AI, envie um pedido diretamente para o ponto final da API Vertex AI. Quando usa modelos da OpenAI como uma API gerida, não tem de aprovisionar nem gerir a infraestrutura.
Os seguintes modelos estão disponíveis na OpenAI para utilização no Vertex AI. Para aceder a um modelo da OpenAI, aceda ao respetivo cartão do modelo do Model Garden.
gpt-oss 120B
O gpt-oss 120B da OpenAI é um modelo de linguagem de peso aberto de 120 mil milhões de parâmetros lançado ao abrigo da licença Apache 2.0. É adequado para exemplos de utilização de raciocínio e chamadas de funções. O modelo está otimizado para implementação em hardware de consumo.
O modelo de 120 B alcança uma paridade quase total com o o4-mini da OpenAI em benchmarks de raciocínio essenciais, enquanto é executado numa única GPU de 80 GB.
Aceda ao cartão do modelo gpt-oss 120B
gpt-oss 20B
O gpt-oss 20B da OpenAI é um modelo de linguagem de peso aberto de 20 mil milhões de parâmetros lançado ao abrigo da licença Apache 2.0. É adequado para exemplos de utilização de raciocínio e chamadas de funções. O modelo está otimizado para implementação em hardware de consumo.
O modelo 20B oferece resultados semelhantes ao o3-mini da OpenAI em referências comuns e pode ser executado em dispositivos periféricos com 16 GB de memória, o que o torna ideal para utilizações no dispositivo, inferência local ou iteração rápida sem infraestrutura dispendiosa.
Aceda ao cartão do modelo gpt-oss 20B
Use modelos da OpenAI
Para modelos geridos, pode usar comandos curl para enviar pedidos para o endpoint do Vertex AI com os seguintes nomes de modelos. Para saber como fazer chamadas de streaming e não streaming para modelos da OpenAI, consulte o artigo Chame APIs de modelos abertos.
Para usar um modelo do Vertex AI implementado autonomamente:
- Navegue para a consola do Model Garden.
- Encontre o modelo do Vertex AI relevante.
- Clique em Ativar e preencha o formulário fornecido para obter as licenças de utilização comercial necessárias.
Para mais informações sobre a implementação e a utilização de modelos de parceiros, consulte o artigo Implemente um modelo de parceiro e faça pedidos de previsão.
O que se segue?
- Saiba como chamar APIs de modelos abertos.