Qwen 模型

Vertex AI 上的 Qwen 模型以 API 形式提供全托管式无服务器模型。如需使用 Vertex AI 上的 Qwen 模型,请直接向 Vertex AI API 端点发送请求。由于 Qwen 模型使用托管式 API,因此无需预配或管理基础设施。

您可以流式传输回答,以降低最终用户对延迟时间的感知度。流式回答使用服务器发送的事件 (SSE) 来逐步流式传输回答。

可用的 Qwen 模型

Qwen 提供了以下模型,可在 Vertex AI 中使用。如需访问 Qwen 模型,请前往其 Model Garden 模型卡片。

Qwen3-Next-80B Instruct

Qwen3-Next-80B Instruct 是 Qwen3-Next 模型系列中的一款语言模型,专为遵循特定指令和处理超长文本而设计。它采用一种名为“混合专家”(MoE) 的智能架构,通过激活一部分可用参数来处理信息,这使其在运行时比同等规模的其他模型速度更快、成本效益更高。

该 Instruct 版本经过专门调优,可在对话和智能体应用中提供可靠、直接的回答,其庞大的上下文窗口使其能够将整段对话或大型文档完整保留在记忆中。

前往 Qwen3-Next-80B Instruct 模型卡片

Qwen3-Next-80B Thinking

Qwen3-Next-80B Thinking 是 Qwen3-Next 模型系列中的一款语言模型,专攻复杂问题解决与深度推理。其“思考”模式在提供最终回答的同时,还会生成一个可见的分步推理过程,因此非常适合需要透明逻辑的任务,例如数学证明、复杂的代码调试或多步智能体规划。

前往 Qwen3-Next-80B Thinking 模型卡片

Qwen3 Coder (Qwen3 Coder)

Qwen3 Coder (Qwen3 Coder) 是一款专为高级软件开发任务而开发的大规模开源权重模型。该模型的关键特性是其庞大的上下文窗口,使其能够全面地处理和理解大型代码库。

前往 Qwen3 Coder 模型卡片

Qwen3 235B (Qwen3 235B)

Qwen3 235B (Qwen3 235B) 是一款拥有 2350 亿参数的大型模型。该模型的特色在于其“混合思考”能力,允许用户在处理数学推理和编码等复杂任务时,动态切换到条理清晰、分步进行的“思考”模式;在进行通用对话时,则可切换到快速的“非思考”模式。其庞大的上下文窗口使其非常适合用于需要深度推理和长文理解的用例。

前往 Qwen3 235B 模型卡片

使用 Qwen 模型

如需了解如何对 Qwen 模型进行流式传输和非流式传输调用,请参阅调用开放模型 API

后续步骤