Modelli OpenAI

I modelli OpenAI sono disponibili per l'utilizzo come API gestite e modelli autodistribuiti su Vertex AI. Puoi trasmettere in streaming le risposte per ridurre la percezione della latenza da parte dell'utente finale. Una risposta in streaming utilizza gli eventi inviati dal server (SSE) per trasmettere la risposta in modo incrementale.

gpt-oss 120B

OpenAI gpt-oss 120B è un modello linguistico open-weight da 120 miliardi di parametri rilasciato con licenza Apache 2.0. È ideale per i casi d'uso di ragionamento e chiamata di funzioni. Il modello è ottimizzato per il deployment su hardware di consumo.

Il modello da 120 miliardi di parametri raggiunge una parità quasi perfetta con o4-mini di OpenAI nei benchmark di ragionamento di base, il tutto su una singola GPU da 80 GB.

Vai alla scheda del modello gpt-oss 120B

gpt-oss 20B

OpenAI gpt-oss 20B è un modello linguistico open-weight da 20 miliardi di parametri rilasciato con licenza Apache 2.0. È ideale per i casi d'uso di ragionamento e chiamata di funzioni. Il modello è ottimizzato per il deployment su hardware di consumo.

Il modello 20B offre risultati simili a OpenAI o3-mini su benchmark comuni e può essere eseguito su dispositivi edge con 16 GB di memoria, il che lo rende ideale per casi d'uso sul dispositivo, inferenza locale o iterazione rapida senza infrastrutture costose.

Vai alla scheda del modello gpt-oss 20B

Utilizzare i modelli OpenAI

Per i modelli gestiti, puoi utilizzare i comandi curl per inviare richieste all'endpoint Vertex AI utilizzando i seguenti nomi di modelli:

  • Per gpt-oss 120B, utilizza gpt-oss-120b-maas
  • Per gpt-oss 20B, utilizza gpt-oss-20b-maas

Per scoprire come effettuare chiamate di streaming e non di streaming ai modelli OpenAI, consulta Chiamare le API dei modelli aperti.

Per utilizzare un modello Vertex AI con deployment automatico:

  1. Vai alla console Model Garden.
  2. Trova il modello Vertex AI pertinente.
  3. Fai clic su Attiva e compila il modulo fornito per ottenere le licenze per uso commerciale necessarie.

Per saperne di più sul deployment e sull'utilizzo dei modelli partner, consulta Esegui il deployment di un modello partner ed effettua richieste di previsione .

Disponibilità delle regioni per i modelli OpenAI

I modelli OpenAI sono disponibili nelle seguenti regioni:

Modello Regioni
gpt-oss 120B
  • global
    • Output massimo: 131.072
    • Lunghezza del contesto: 131.072
  • us-central1
    • Output massimo: 131.072
    • Lunghezza del contesto: 131.072
gpt-oss 20B
  • us-central1
    • Output massimo: 32.768
    • Lunghezza del contesto: 131.072

Passaggi successivi

Scopri come chiamare le API dei modelli aperti.