Vertex AI の Qwen モデルは、API としてフルマネージド モデルとサーバーレス モデルを提供します。Vertex AI で Qwen モデルを使用するには、Vertex AI API エンドポイントにリクエストを直接送信します。Qwen モデルはマネージド API を使用するため、インフラストラクチャをプロビジョニングしたり、管理する必要はありません。
レスポンスをストリーミングして、エンドユーザーのレイテンシを軽減できます。回答をストリーミングする際には、サーバー送信イベント(SSE)を使用して回答を段階的にストリーミングします。
使用可能な Qwen モデル
Vertex AI で使用できる Qwen のモデルは次のとおりです。Qwen モデルにアクセスするには、Model Garden のモデルカードに移動します。
Qwen3-Next-80B Instruct
Qwen3-Next-80B Instruct は、Qwen3-Next ファミリーのモデルの言語モデルです。特定のコマンドに従い、非常に長いテキストを処理するように設計されています。このモデルは、利用可能なパラメータのサブセットを有効にして情報を処理する Mixture-of-Experts(MoE)と呼ばれるスマートな設計を使用しています。これにより、同サイズの他のモデルよりも高速かつ費用対効果の高い実行が可能になります。
Instruct バージョンは、チャットやエージェント アプリケーションで信頼性の高い直接的な回答が得られるように調整されています。コンテキスト ウィンドウが大きいため、会話全体や大きなドキュメントをメモリに保持できます。
Qwen3-Next-80B Instruct モデルカードに移動
Qwen3-Next-80B の思考
Qwen3-Next-80B Thinking は、Qwen3-Next ファミリーのモデルの言語モデルです。複雑な問題解決と深い推論に特化しています。「思考」モードでは、最終的な回答とともに、ステップバイステップの推論プロセスが表示されます。そのため、数学の証明、複雑なコードのデバッグ、複数ステップのエージェント計画など、透明性の高いロジックが必要なタスクに最適です。
Qwen3-Next-80B Thinking モデルカードに移動
Qwen3 Coder(Qwen3 Coder)
Qwen3 Coder(Qwen3 Coder
)は、高度なソフトウェア開発タスク用に開発された大規模オープン ウェイト モデルです。このモデルの主な特徴は、大きなコンテキスト ウィンドウです。これにより、大規模なコードベースを包括的に処理して理解できます。
Qwen3 235B(Qwen3 235B)
Qwen3 235B(Qwen3 235B
)は、大規模 235B パラメータ モデルです。このモデルは「ハイブリッド思考」機能を備えている点が特徴です。これにより、ユーザーは、数学的推論やコーディングなどの複雑なタスクに対応する体系的で段階的な「思考」モードと、汎用的な会話に対応する迅速な「非思考」モードを動的に切り替えることができます。コンテキスト ウィンドウが大きいため、深い推論と長文の理解を必要とするユースケースに適しています。
Qwen モデルを使用する
Qwen モデルに対してストリーミング呼び出しと非ストリーミング呼び出しを行う方法については、オープンモデル API を呼び出すをご覧ください。
次のステップ
- オープンモデル API を呼び出す方法を確認する。