I modelli OpenAI sono disponibili per l'utilizzo come API gestite e modelli autodistribuiti su Vertex AI. Puoi trasmettere in streaming le risposte per ridurre la percezione della latenza da parte dell'utente finale. Una risposta in streaming utilizza gli eventi inviati dal server (SSE) per trasmettere la risposta in modo incrementale.
gpt-oss 120B
OpenAI gpt-oss 120B è un modello linguistico open-weight da 120 miliardi di parametri rilasciato con licenza Apache 2.0. È ideale per i casi d'uso di ragionamento e chiamata di funzioni. Il modello è ottimizzato per il deployment su hardware di consumo.
Il modello da 120 miliardi di parametri raggiunge una parità quasi perfetta con o4-mini di OpenAI nei benchmark di ragionamento di base, il tutto su una singola GPU da 80 GB.
Vai alla scheda del modello gpt-oss 120Bgpt-oss 20B
OpenAI gpt-oss 20B è un modello linguistico open-weight da 20 miliardi di parametri rilasciato con licenza Apache 2.0. È ideale per i casi d'uso di ragionamento e chiamata di funzioni. Il modello è ottimizzato per il deployment su hardware di consumo.
Il modello 20B offre risultati simili a OpenAI o3-mini su benchmark comuni e può essere eseguito su dispositivi edge con 16 GB di memoria, il che lo rende ideale per casi d'uso sul dispositivo, inferenza locale o iterazione rapida senza infrastrutture costose.
Vai alla scheda del modello gpt-oss 20BUtilizzare i modelli OpenAI
Per i modelli gestiti, puoi utilizzare i comandi curl per inviare richieste all'endpoint Vertex AI utilizzando i seguenti nomi di modelli:
- Per gpt-oss 120B, utilizza
gpt-oss-120b-maas - Per gpt-oss 20B, utilizza
gpt-oss-20b-maas
Per scoprire come effettuare chiamate di streaming e non di streaming ai modelli OpenAI, consulta Chiamare le API dei modelli aperti.
Per utilizzare un modello Vertex AI con deployment automatico:
- Vai alla console Model Garden.
- Trova il modello Vertex AI pertinente.
- Fai clic su Attiva e compila il modulo fornito per ottenere le licenze per uso commerciale necessarie.
Per saperne di più sul deployment e sull'utilizzo dei modelli partner, consulta Esegui il deployment di un modello partner ed effettua richieste di previsione .
Disponibilità delle regioni per i modelli OpenAI
I modelli OpenAI sono disponibili nelle seguenti regioni:
| Modello | Regioni |
|---|---|
| gpt-oss 120B |
|
| gpt-oss 20B |
|
Passaggi successivi
Scopri come chiamare le API dei modelli aperti.