Modelos do DeepSeek

Os modelos DeepSeek estão disponíveis para uso como APIs gerenciadas e modelos autodeployados na Vertex AI. É possível transmitir as respostas para reduzir a percepção de latência do usuário final. Uma resposta transmitida usa eventos enviados pelo servidor (SSE) para transmitir a resposta de forma incremental.

Modelos gerenciados do DeepSeek

Os modelos DeepSeek oferecem modelos totalmente gerenciados e sem servidor como APIs. Para usar um modelo DeepSeek na Vertex AI, envie uma solicitação diretamente ao endpoint de API Vertex AI. Ao usar modelos do DeepSeek como uma API gerenciada, não é necessário provisionar nem gerenciar a infraestrutura.

Os modelos a seguir estão disponíveis na DeepSeek para uso na Vertex AI. Para acessar um modelo DeepSeek, acesse o card de modelo do Model Garden.

DeepSeek-OCR

O DeepSeek-OCR é um modelo abrangente de reconhecimento óptico de caracteres (OCR) que analisa e entende documentos complexos. Ele se destaca em tarefas complexas de OCR, incluindo o reconhecimento de fórmulas matemáticas e o processamento de texto curvo, girado ou sobreposto.

Acesse o card do modelo DeepSeek-OCR

DeepSeek-V3.2

O DeepSeek-V3.2 é um modelo que harmoniza alta eficiência computacional com raciocínio e desempenho de agente superiores. A abordagem da DeepSeek se baseia em três avanços técnicos principais: DeepSeek Sparse Attention (DSA), framework de aprendizado por reforço escalonável e pipeline de síntese de tarefas de agente em grande escala.

Acesse a página da ficha do modelo DeepSeek-V3.2

DeepSeek-V3.1

O DeepSeek-V3.1 é um modelo híbrido que oferece suporte aos modos de raciocínio e sem raciocínio. Em comparação com a versão anterior, esse upgrade traz melhorias nos modos de pensamento híbrido, na chamada de função e na eficiência do pensamento.

Acesse a ficha do modelo DeepSeek-V3.1

DeepSeek R1 (0528)

O DeepSeek R1 (0528) é a versão mais recente do modelo DeepSeek R1. Em comparação com o DeepSeek-R1, ele melhorou significativamente a profundidade do raciocínio e os recursos de inferência. O DeepSeek R1 (0528) se destaca em uma ampla variedade de tarefas, como escrita criativa, respostas a perguntas gerais, edição e resumo.

Considerações

Para ter segurança pronta para produção, integre o DeepSeek R1 (0528) ao Model Armor, que examina comandos e respostas de LLMs em busca de vários riscos de segurança.

Acessar o card do modelo DeepSeek R1 (0528)

Usar modelos do DeepSeek

Para modelos gerenciados, é possível usar comandos curl para enviar solicitações ao endpoint da Vertex AI usando os seguintes nomes de modelos:

  • Para o DeepSeek-OCR, use deepseek-ocr-maas
  • Para o DeepSeek-V3.2, use deepseek-v3.2-maas
  • Para o DeepSeek-V3.1, use deepseek-v3.1-maas
  • Para o DeepSeek R1 (0528), use deepseek-r1-0528-maas

Para saber como fazer chamadas de streaming e não streaming para modelos DeepSeek, consulte Chamar APIs de modelos abertos.

Para usar um modelo autoimplantado da Vertex AI:

  1. Navegue até o console do Model Garden.
  2. Encontre o modelo relevante da Vertex AI.
  3. Clique em Ativar e preencha o formulário fornecido para receber as licenças de uso comercial necessárias.

Para mais informações sobre como implantar e usar modelos de parceiros, consulte Implantar um modelo de parceiro e fazer solicitações de previsão .

Disponibilidade regional do modelo DeepSeek

Os modelos DeepSeek estão disponíveis nas seguintes regiões:

Modelo Regiões
DeepSeek-OCR
  • us-central1
    • Máximo de saída: 8.192
    • Tamanho do contexto: 8.192
DeepSeek-V3.2
  • global
    • Saída máxima: 65.536
    • Tamanho do contexto: 163.840
DeepSeek-V3.1
  • us-central1
    • Saída máxima: 32.768
    • Tamanho do contexto: 163.840
DeepSeek R1 (0528)
  • us-central1
    • Saída máxima: 32.768
    • Tamanho do contexto: 163.840

A seguir

Saiba como chamar APIs de modelos abertos.