Documentação do Managed Service for Apache Spark

Com o modo de implantação de cluster do Managed Service for Apache Spark, é possível usar ferramentas de dados de código aberto para processamento em lote, consultas, streaming e machine learning. A automação do Managed Service para Apache Spark ajuda a criar e gerenciar clusters rapidamente e economizar dinheiro desativando os clusters quando não são necessários. Com menos tempo e dinheiro gastos com administração, você pode se concentrar nos jobs e dados.

Acesse a página do produto Managed Service for Apache Spark para mais informações.

  • Desenvolva com nossos modelos e ferramentas de IA generativa mais recentes.
  • Use sem custo financeiro mais de 20 produtos conhecidos, incluindo o Compute Engine e as APIs de IA.
  • Sem cobranças automáticas, sem compromisso.

Aproveite mais de 20 produtos sem custo financeiro.

Acesse mais de 20 produtos sem custo financeiro voltados a casos de uso comuns, incluindo APIs de IA, VMs, data warehouses e muito mais.

Conheça o treinamento autoguiado, os casos de uso, as arquiteturas de referência e os exemplos de código para usar e conectar os serviços do Google Cloud .
Treinamento
Treinamento e tutoriais

Envie jobs do Spark para um cluster do Google Kubernetes Engine em execução na API Dataproc Jobs.

Treinamento
Treinamento e tutoriais

Este curso apresenta uma combinação de palestras, demonstrações e laboratórios práticos para criar um cluster do Dataproc, enviar um job do Spark e, em seguida, encerrar o cluster.

Treinamento
Treinamento e tutoriais

Este curso apresenta uma combinação de palestras, demonstrações e laboratórios práticos para implementar a regressão logística usando uma biblioteca de machine learning do Apache Spark em um cluster do Dataproc para desenvolver um modelo com dados de um conjunto de dados multivariável.

Caso de uso
Casos de uso

Programe fluxos de trabalho no Google Cloud.

Caso de uso
Casos de uso

Como mover dados do Hadoop Distributed File System (HDFS) para o Google Cloud.

Caso de uso
Casos de uso

Abordagens recomendadas para incluir dependências ao enviar um job do Spark para um cluster do Managed Service for Apache Spark.

Exemplo de código
Exemplos de código

Chamar APIs do Dataproc a partir do Python.

Exemplo de código
Exemplos de código

Chame APIs do Dataproc do Java.

Exemplo de código
Exemplos de código

Chame APIs do Dataproc a partir do Node.js.

Exemplo de código
Exemplos de código

Chame APIs do Dataproc do Go.

Vídeos relacionados