Documentación de Managed Service para Apache Spark

El modo de implementación del clúster del servicio administrado para Apache Spark te permite aprovechar las herramientas de datos de código abierto para el procesamiento por lotes, las consultas, la transmisión y el aprendizaje automático. La automatización de Managed Service for Apache Spark te ayuda a crear clústeres rápidamente, administrarlos con facilidad y ahorrar dinero desactivándolos cuando no los necesites. Al invertir menos tiempo y dinero en tareas de administración, podrás enfocarte en tus trabajos y datos.

Visita la página del producto Managed Service for Apache Spark para obtener más información.

  • Desarrolla con nuestros modelos y herramientas de IA generativa más recientes.
  • Usa de manera gratuita más de 20 productos populares, incluidos Compute Engine y las APIs de IA.
  • No tendrás cargos automáticos ni compromisos.

Sigue explorando con más de 20 productos siempre gratuitos.

Accede a más de 20 productos gratuitos para casos de uso comunes, incluidas las APIs de IA, las VMs, los almacenes de datos y mucho más.

Explora la capacitación de autoaprendizaje, los casos de uso, las arquitecturas de referencia y las muestras de código con ejemplos de cómo usar y conectar los servicios de Google Cloud .
Entrenamiento
Instructivos y entrenamiento

Enviar trabajos de Spark a un clúster de Google Kubernetes Engine en ejecución desde la API de trabajos de Dataproc.

Capacitación
Instructivos y entrenamiento

Este curso cuenta con una combinación de lecciones, demostraciones y labs prácticos para crear un clúster de Dataproc, enviar un trabajo de Spark y, luego, cerrar el clúster.

Capacitación
Instructivos y entrenamiento

En este curso, se presenta una combinación de lecciones, demostraciones y labs prácticos para implementar la regresión logística mediante una biblioteca de aprendizaje automático para Apache Spark que se ejecuta en un clúster de Dataproc a fin de desarrollar un modelo para los datos de un conjunto de datos multivariable.

Caso de uso
Casos de uso

Programa flujos de trabajo en Google Cloud.

Caso de uso
Casos de uso

Cómo mover datos del sistema de archivos distribuido de Hadoop local (HDFS) a Google Cloud.

Caso de uso
Casos de uso

Enfoques recomendados para incluir dependencias cuando envías un trabajo de Spark a un clúster del servicio administrado para Apache Spark

Muestra de código
Muestras de código

Llamar a las API de Dataproc desde Python

Muestra de código
Muestras de código

Llamar a las API de Dataproc desde Java

Muestra de código
Muestras de código

Llamar a las API de Dataproc desde Node.js.

Muestra de código
Muestras de código

Llamar a las API de Dataproc desde Go

Videos relacionados