Modelli OpenAI

I modelli OpenAI su Vertex AI offrono modelli completamente gestiti e serverless come API. Per utilizzare un modello OpenAI su Vertex AI, invia una richiesta direttamente all'endpoint API Vertex AI. Poiché i modelli OpenAI utilizzano un'API gestita, non è necessario eseguire il provisioning o gestire l'infrastruttura.

Puoi trasmettere in streaming le risposte per ridurre la percezione della latenza dell'utente finale. Una risposta in streaming utilizza gli eventi inviati dal server (SSE) per trasmettere in streaming in modo incrementale la risposta.

Modelli OpenAI disponibili

I seguenti modelli sono disponibili da OpenAI per l'utilizzo in Vertex AI. Per accedere a un modello OpenAI, vai alla relativa scheda del modello Model Garden.

gpt-oss 120B

OpenAI gpt-oss 120B è un modello linguistico open-weight da 120 miliardi di parametri rilasciato con licenza Apache 2.0. È adatta ai casi d'uso di ragionamento e chiamata di funzioni. Il modello è ottimizzato per il deployment su hardware di consumo.

Il modello da 120 miliardi di parametri raggiunge una parità quasi perfetta con OpenAI o4-mini nei benchmark di ragionamento di base, il tutto su una singola GPU da 80 GB.

Vai alla scheda del modello gpt-oss 120B

gpt-oss 20B

OpenAI gpt-oss 20B è un modello linguistico open-weight da 20 miliardi di parametri rilasciato con licenza Apache 2.0. È adatta ai casi d'uso di ragionamento e chiamata di funzioni. Il modello è ottimizzato per il deployment su hardware di consumo.

Il modello 20B offre risultati simili a OpenAI o3-mini nei benchmark comuni e può essere eseguito su dispositivi edge con 16 GB di memoria, il che lo rende ideale per casi d'uso on-device, inferenza locale o iterazione rapida senza infrastrutture costose.

Vai alla scheda del modello gpt-oss 20B

Utilizzare i modelli OpenAI

Per scoprire come effettuare chiamate di streaming e non di streaming ai modelli OpenAI, consulta Chiamare le API dei modelli aperti.

Passaggi successivi