Qwen-Modelle in Vertex AI bieten vollständig verwaltete und serverlose Modelle als APIs. Wenn Sie ein Qwen-Modell für Vertex AI verwenden möchten, senden Sie eine Anfrage direkt an den API-Endpunkt von Vertex AI. Da Qwen-Modelle eine verwaltete API verwenden, muss keine Infrastruktur bereitgestellt oder verwaltet werden.
Sie können Ihre Antworten streamen, um die vom Endnutzer wahrgenommene Latenz zu reduzieren. Eine gestreamte Antwort verwendet Server-Sent Events (SSE), um die Antwort schrittweise zu streamen.
Verfügbare Qwen-Modelle
Die folgenden Modelle sind von Qwen zur Verwendung in Vertex AI verfügbar. Rufen Sie die zugehörige Model Garden-Modellkarte auf, um auf ein Qwen-Modell zuzugreifen.
Qwen3-Next-80B Instruct
Qwen3-Next-80B Instruct ist ein Sprachmodell aus der Modellfamilie Qwen3-Next. Es wurde für die Ausführung bestimmter Befehle und die Verarbeitung sehr langer Textabschnitte entwickelt. Das Modell nutzt ein intelligentes Design namens „Mixture-of-Experts“ (MoE), bei dem eine Teilmenge der verfügbaren Parameter aktiviert wird, um Informationen zu verarbeiten. Dadurch ist es schneller und kostengünstiger als andere Modelle seiner Größe.
Die Instruct-Version ist für zuverlässige, direkte Antworten in Chat- und Agentenanwendungen optimiert. Dank des großen Kontextfensters kann sie eine gesamte Unterhaltung oder ein großes Dokument im Speicher behalten.
Zur Modellkarte für Qwen3-Next-80B Instruct
Qwen3-Next-80B Thinking
Qwen3-Next-80B Thinking ist ein Sprachmodell aus der Qwen3-Next-Modellfamilie. Es ist auf komplexes Problemlösen und tiefes Schlussfolgern spezialisiert. Im „Denkmodus“ wird neben der endgültigen Antwort ein sichtbarer, schrittweiser Denkprozess generiert. Das macht Gemini ideal für Aufgaben, die eine transparente Logik erfordern, z. B. mathematische Beweise, komplexes Debuggen von Code oder die Planung von Agenten in mehreren Schritten.
Zur Modellkarte für Qwen3-Next-80B Thinking
Qwen3 Coder (Qwen3 Coder)
Qwen3 Coder (Qwen3 Coder
) ist ein groß angelegtes Open-Weight-Modell, das für anspruchsvolle Softwareentwicklungsaufgaben entwickelt wurde. Die wichtigste Funktion des Modells ist sein großes Kontextfenster, mit dem es große Codebases umfassend verarbeiten und verstehen kann.
Zur Modellkarte für Qwen3 Coder
Qwen3 235B (Qwen3 235B)
Qwen3 235B (Qwen3 235B
) ist ein großes Modell mit 235 Milliarden Parametern. Das Modell zeichnet sich durch seine Fähigkeit zum „hybriden Denken“ aus. Nutzer können dynamisch zwischen einem methodischen, schrittweisen „Denkmodus“ für komplexe Aufgaben wie mathematische Argumentation und Programmierung und einem schnellen „Nicht-Denkmodus“ für allgemeine Unterhaltungen wechseln. Das große Kontextfenster macht es für Anwendungsfälle geeignet, die tiefes Denken und das Verstehen von Langforminhalten erfordern.
Zur Modellkarte für Qwen3 235B
Qwen-Modelle verwenden
Informationen zum Ausführen von Streaming- und Nicht-Streaming-Aufrufen für Qwen-Modelle finden Sie unter Open-Model-APIs aufrufen.