I modelli Google su Vertex AI offrono modelli serverless e completamente gestiti come API. Per utilizzare un modello Google su Vertex AI, invia una richiesta direttamente all'endpoint API Vertex AI. Poiché i modelli Google utilizzano un'API gestita, non è necessario eseguire il provisioning o gestire l'infrastruttura.
Puoi trasmettere in streaming le risposte per ridurre la percezione della latenza dell'utente finale. Una risposta in streaming utilizza gli eventi inviati dal server (SSE) per trasmettere in streaming in modo incrementale la risposta.
Gemma 4 26B A4B IT
Gemma 4 26B A4B IT è un modello multimodale di Google che gestisce l'input di testo e immagini (con audio supportato sui modelli di piccole dimensioni) e genera un output di testo.
Vai alla scheda del modello Gemma 4 26B A4B ITUtilizzare i modelli di Google
Per i modelli gestiti, puoi utilizzare i comandi curl per inviare richieste all'endpoint Vertex AI utilizzando i seguenti nomi di modelli:
- Per Gemma 4 26B A4B IT, utilizza
gemma-4-26b-a4b-it-maas
Per scoprire come effettuare chiamate di streaming e non di streaming ai modelli Google, consulta la sezione Chiamare le API dei modelli aperti.
Per utilizzare un modello Vertex AI con deployment automatico:
- Vai alla console Model Garden.
- Trova il modello Vertex AI pertinente.
- Fai clic su Attiva e compila il modulo fornito per ottenere le licenze per uso commerciale necessarie.
Per saperne di più sul deployment e sull'utilizzo dei modelli partner, consulta Esegui il deployment di un modello partner ed effettua richieste di previsione .
Disponibilità delle regioni dei modelli Google
I modelli Google sono disponibili nelle seguenti regioni:
| Modello | Regioni |
|---|---|
| Gemma 4 26B A4B IT |
|
Passaggi successivi
Scopri come chiamare le API dei modelli aperti.