Os modelos DeepSeek na Vertex AI oferecem modelos totalmente geridos e sem servidor como APIs. Para usar um modelo DeepSeek no Vertex AI, envie um pedido diretamente para o ponto final da API Vertex AI. Uma vez que os modelos DeepSeek usam uma API gerida, não é necessário aprovisionar nem gerir a infraestrutura.
Pode transmitir as suas respostas para reduzir a perceção de latência do utilizador final. Uma resposta em stream usa eventos enviados pelo servidor (SSE) para transmitir a resposta de forma incremental.
Modelos DeepSeek disponíveis
Os seguintes modelos estão disponíveis na DeepSeek para utilização no Vertex AI. Para aceder a um modelo DeepSeek, aceda ao respetivo cartão do modelo do Model Garden.
DeepSeek-V3.1
O DeepSeek-V3.1 é um modelo híbrido que suporta o modo de raciocínio e o modo de não raciocínio. Em comparação com a versão anterior, esta atualização traz melhorias nos modos de raciocínio híbrido, na chamada de ferramentas e na eficiência do raciocínio.
Aceda ao cartão do modelo DeepSeek-V3.1
DeepSeek R1 (0528)
O DeepSeek R1 (0528) é a versão mais recente do modelo DeepSeek R1. Em comparação com o DeepSeek-R1, tem uma profundidade de raciocínio e capacidades de inferência significativamente melhoradas. O DeepSeek R1 (0528) destaca-se numa vasta gama de tarefas, como escrita criativa, resposta a perguntas gerais, edição e resumo.
Considerações
- Para uma segurança pronta para produção, integre o DeepSeek R1 (0528) com o Model Armor, que analisa as respostas e os comandos do MDG em busca de vários riscos de segurança.
Aceda ao cartão do modelo DeepSeek R1 (0528)
Use os modelos DeepSeek
Pode usar comandos curl para enviar pedidos para o ponto final da Vertex AI com os seguintes nomes de modelos:
- Para o DeepSeek-V3.1, use
deepseek-v3.1-maas
- Para o DeepSeek R1 (0528), use
deepseek-r1-0528-maas
Para saber como fazer chamadas de streaming e não streaming para os modelos DeepSeek, consulte o artigo Chame APIs de modelos abertos.
Disponibilidade regional e quotas do modelo DeepSeek
Para os modelos DeepSeek, aplica-se uma quota a cada região onde o modelo está disponível. A quota é especificada em consultas por minuto (QPM).
Modelo | Região | Quotas | Comprimento do contexto |
---|---|---|---|
DeepSeek-V3.1 | |||
us-west2 |
|
163 840 | |
DeepSeek R1 (0528) | |||
us-central1 |
|
163 840 |
Se quiser aumentar alguma das suas quotas para a IA generativa no Vertex AI, pode usar a Google Cloud consola para pedir um aumento da quota. Para saber mais sobre as quotas, consulte a vista geral das quotas do Google Cloud.
O que se segue?
- Saiba como chamar APIs de modelos abertos.