I modelli Qwen su Vertex AI offrono modelli completamente gestiti e serverless come API. Per utilizzare un modello Qwen su Vertex AI, invia una richiesta direttamente all'endpoint API Vertex AI. Poiché i modelli Qwen utilizzano un'API gestita, non è necessario eseguire il provisioning o gestire l'infrastruttura.
Puoi trasmettere in streaming le risposte per ridurre la percezione della latenza dell'utente finale. Una risposta in streaming utilizza gli eventi inviati dal server (SSE) per trasmettere in streaming in modo incrementale la risposta.
Modelli Qwen disponibili
I seguenti modelli sono disponibili da Qwen per l'utilizzo in Vertex AI. Per accedere a un modello Qwen, vai alla relativa scheda del modello in Model Garden.
Qwen3-Next-80B Instruct
Qwen3-Next-80B Instruct è un modello linguistico della famiglia di modelli Qwen3-Next. È progettato per seguire comandi specifici e gestire testi molto lunghi. Utilizza un design intelligente chiamato Mixture-of-Experts (MoE), che attiva un sottoinsieme di parametri disponibili per elaborare le informazioni, il che lo rende più veloce ed economico da eseguire rispetto ad altri modelli delle sue dimensioni.
La versione Instruct è ottimizzata per fornire risposte dirette e affidabili nelle applicazioni di chat e agenti e la sua ampia finestra contestuale le consente di mantenere in memoria un'intera conversazione o un documento di grandi dimensioni.
Vai alla scheda del modello Qwen3-Next-80B Instruct
Qwen3-Next-80B Thinking
Qwen3-Next-80B Thinking è un modello linguistico della famiglia Qwen3-Next. È specializzato nella risoluzione di problemi complessi e nel ragionamento approfondito. La modalità "pensiero" genera un processo di ragionamento visibile, passo dopo passo, insieme alla risposta finale, rendendola ideale per attività che richiedono una logica trasparente, come dimostrazioni matematiche, debug di codice complesso o pianificazione di agenti in più passaggi.
Vai alla scheda del modello Qwen3-Next-80B Thinking
Qwen3 Coder (Qwen3 Coder)
Qwen3 Coder (Qwen3 Coder
) è un modello open-weight su larga scala
sviluppato per attività avanzate di sviluppo software. La caratteristica principale del modello è
l'ampia finestra contestuale, che gli consente di elaborare e comprendere in modo completo grandi codebase.
Vai alla scheda del modello Qwen3 Coder
Qwen3 235B (Qwen3 235B)
Qwen3 235B (Qwen3 235B
) è un modello di grandi dimensioni con 235 miliardi di parametri. Il modello si distingue per la sua capacità di "pensiero ibrido", che consente agli utenti di passare dinamicamente da una modalità di "pensiero" metodica e passo passo per attività complesse come il ragionamento matematico e la programmazione a una modalità rapida di "non pensiero" per conversazioni di uso generale. La sua ampia finestra contestuale lo rende
adatto a casi d'uso che richiedono ragionamenti approfonditi e comprensione di testi lunghi.
Vai alla scheda del modello Qwen3 235B
Utilizzare i modelli Qwen
Per scoprire come effettuare chiamate in streaming e non in streaming ai modelli Qwen, consulta Chiamare le API dei modelli aperti.
Passaggi successivi
- Scopri come chiamare le API per modelli aperti.