Criar um cluster usando o Google Cloud console
Esta página mostra como usar o Google Cloud console para criar um cluster do Managed Service for Apache Spark, executar um job básico do Apache Spark no cluster e modificar o número de workers no cluster.
Para seguir as instruções detalhadas desta tarefa diretamente no Google Cloud console, clique em Orientações:
Antes de começar
- Faça login na sua Google Cloud conta do. Se você começou a usar o Google Cloud, crie uma conta para avaliar o desempenho dos nossos produtos em situações reais. Clientes novos também recebem US $300 em créditos para executar, testar e implantar cargas de trabalho.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
Roles required to select or create a project
- Select a project: Selecting a project doesn't require a specific IAM role—you can select any project that you've been granted a role on.
-
Create a project: To create a project, you need the Project Creator role
(
roles/resourcemanager.projectCreator), which contains theresourcemanager.projects.createpermission. Learn how to grant roles.
-
Verify that you have the permissions required to complete this guide.
-
Verify that billing is enabled for your Google Cloud project.
Enable the Dataproc API.
Roles required to enable APIs
To enable APIs, you need the Service Usage Admin IAM role (
roles/serviceusage.serviceUsageAdmin), which contains theserviceusage.services.enablepermission. Learn how to grant roles.-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
Roles required to select or create a project
- Select a project: Selecting a project doesn't require a specific IAM role—you can select any project that you've been granted a role on.
-
Create a project: To create a project, you need the Project Creator role
(
roles/resourcemanager.projectCreator), which contains theresourcemanager.projects.createpermission. Learn how to grant roles.
-
Verify that you have the permissions required to complete this guide.
-
Verify that billing is enabled for your Google Cloud project.
Enable the Dataproc API.
Roles required to enable APIs
To enable APIs, you need the Service Usage Admin IAM role (
roles/serviceusage.serviceUsageAdmin), which contains theserviceusage.services.enablepermission. Learn how to grant roles.
Funções exigidas
Alguns papéis do IAM são necessários para executar os exemplos nesta página. Dependendo das políticas da organização, esses papéis já podem ter sido concedidos. Para verificar as concessões de papéis, consulte Você precisa conceder papéis?.
Para mais informações sobre a concessão de papéis, consulte Gerenciar o acesso a projetos, pastas e organizações.
Papéis do usuário
Para receber as permissões necessárias para criar um cluster do Managed Service for Apache Spark, peça ao administrador para conceder a você os seguintes papéis do IAM:
-
Editor do Dataproc (
roles/dataproc.editor) no projeto -
Usuário da conta de serviço (
roles/iam.serviceAccountUser) na conta de serviço padrão do Compute Engine
Papel de conta de serviço
Para garantir que a conta de serviço padrão do Compute Engine tenha as permissões necessárias para criar um cluster do Managed Service for Apache Spark, peça ao administrador para conceder o papel do IAM de Worker do Dataproc (roles/dataproc.worker) à conta de serviço padrão do Compute Engine no projeto.
Criar um cluster
Noconsole, acesse a página Clusters do Managed Service for Apache Spark. Google Cloud
Clique em Criar cluster.
Na caixa de diálogo Criar cluster do Dataproc, clique em Criar na linha Cluster no Compute Engine.
No campo Nome do cluster, insira
example-cluster.Nas listas Região e Zona, selecione uma região e uma zona.
Selecione uma região (por exemplo,
us-east1oueurope-west1) para isolar recursos, como instâncias de máquina virtual (VM) e locais de armazenamento de metadados e do Cloud Storage usados pelo Managed Service for Apache Spark na região. Para mais informações, consulte Regiões e zonas disponíveis e Região do cluster.Para todas as outras opções, use as configurações padrão.
Para criar o cluster, clique em Criar.
O novo cluster aparece em uma lista na página Clusters. O status é Em provisionamento até que o cluster esteja pronto para uso, e depois o status muda para Em execução. O provisionamento do cluster pode levar alguns minutos.
Enviar um job do Spark
Envie um job do Spark que estima um valor de Pi:
- No menu de navegação do Managed Service for Apache Spark, clique em Jobs.
Na página Jobs, clique em Enviar job e faça o seguinte:
- No campo código da tarefa, use a configuração padrão ou forneça um ID que seja exclusivo para seu Google Cloud projeto.
- No menu suspenso Cluster, selecione
example-cluster. - Em Tipo de serviço, selecione Spark.
- No campo Classe principal ou jar, insira
org.apache.spark.examples.SparkPi. - No campo Arquivos JAR, insira
file:///usr/lib/spark/examples/jars/spark-examples.jar. No campo Argumentos, insira
1000para definir o número de tarefas.Clique em Enviar.
Seu job é mostrado na página Detalhes do job. O status do job é Em execução ou Iniciando e, em seguida, muda para Concluído após o envio.
Para evitar a rolagem na saída, clique em Quebra de linha: desativada. A saída é semelhante a esta:
Pi is roughly 3.1416759514167594
Para conferir os detalhes do job, clique na guia Configuração.
Atualize um cluster
Atualize o cluster mudando o número de instâncias de worker:
- No menu de navegação do Managed Service for Apache Spark, clique em Clusters.
- Na lista de clusters, clique em
example-cluster. Na página Detalhes do cluster, clique na guia Configuração.
As configurações do cluster são mostradas.
Clique em Editar.
No campo Nós de trabalho, insira
5.Clique em Salvar.
Seu cluster foi atualizado. Para diminuir o número de worker nodes para o valor original, siga o mesmo procedimento.
Limpar
Para evitar cobranças na conta do Google Cloud pelos recursos usados nesta página, siga as etapas abaixo.
- Para excluir o cluster, na página Detalhes do cluster
de
example-cluster, clique em Excluir. - Para confirmar que você quer excluir o cluster, clique em Excluir.
A seguir
- Siga este guia de início rápido usando outras ferramentas:
- Saiba como criar regras de firewall robustas ao criar um projeto.
- Aprenda a gravar e executar um job do Spark Scala.