Model DeepSeek

Model DeepSeek di Vertex AI menawarkan model sebagai API yang terkelola sepenuhnya dan serverless. Untuk menggunakan model DeepSeek di Vertex AI, kirim permintaan langsung ke endpoint Vertex AI API. Karena model DeepSeek menggunakan API terkelola, Anda tidak perlu menyediakan atau mengelola infrastruktur.

Anda dapat melakukan streaming respons untuk mengurangi persepsi latensi pengguna akhir. Respons yang di-streaming menggunakan peristiwa yang dikirim server (SSE) untuk mengalirkan respons secara bertahap.

Model DeepSeek yang tersedia

Model berikut tersedia dari DeepSeek untuk digunakan di Vertex AI. Untuk mengakses model DeepSeek, buka kartu modelnya di Model Garden.

DeepSeek-V3.1

DeepSeek-V3.1 adalah model hybrid yang mendukung mode berpikir dan mode non-berpikir. Dibandingkan dengan versi sebelumnya, upgrade ini menghadirkan peningkatan pada mode pemikiran hibrida, pemanggilan alat, dan efisiensi pemikiran.

Buka kartu model DeepSeek-V3.1

DeepSeek R1 (0528)

DeepSeek R1 (0528) adalah versi terbaru model DeepSeek R1. Dibandingkan dengan DeepSeek-R1, model ini memiliki kemampuan penalaran dan inferensi yang jauh lebih baik. DeepSeek R1 (0528) unggul dalam berbagai tugas, seperti penulisan kreatif, menjawab pertanyaan umum, pengeditan, dan peringkasan.

Pertimbangan

  • Untuk keamanan yang siap digunakan dalam produksi, integrasikan DeepSeek R1 (0528) dengan Model Armor, yang menyaring perintah dan respons LLM untuk berbagai risiko keamanan dan keselamatan.

Buka kartu model DeepSeek R1 (0528)

Menggunakan model DeepSeek

Anda dapat menggunakan perintah curl untuk mengirim permintaan ke endpoint Vertex AI menggunakan nama model berikut:

  • Untuk DeepSeek-V3.1, gunakan deepseek-v3.1-maas
  • Untuk DeepSeek R1 (0528), gunakan deepseek-r1-0528-maas

Untuk mempelajari cara melakukan panggilan streaming dan non-streaming ke model DeepSeek, lihat Memanggil API model terbuka.

Ketersediaan wilayah dan kuota model DeepSeek

Untuk model DeepSeek, kuota berlaku untuk setiap region tempat model tersedia. Kuota ditentukan dalam kueri per menit (QPM).

Model Wilayah Kuota Panjang konteks
DeepSeek-V3.1
us-west2
163.840
DeepSeek R1 (0528)
us-central1
163.840

Jika ingin meningkatkan kuota untuk AI Generatif di Vertex AI, Anda dapat menggunakan konsol Google Cloud untuk meminta penambahan kuota. Untuk mempelajari lebih lanjut kuota, lihat Ringkasan Cloud Quotas.

Langkah berikutnya