Especifique uma região do Compute Engine, como "us-east1" ou "europe-west1", ao criar um cluster do Serviço Gerenciado para Apache Spark. O Serviço Gerenciado para Apache Spark isolará os recursos do cluster, como instâncias de VM e armazenamento de metadados e do Cloud Storage, em uma zona dentro da região especificada.
Se preferir, especifique uma zona na região do cluster, como "us-east1-a" ou "europe-west1-b", ao criar um cluster. Se você não especificar a zona, o Posicionamento em zona automática do Serviço Gerenciado para Apache Spark vai escolher uma zona na região do cluster especificada para localizar os recursos do cluster.
O namespace regional corresponde ao /regions/REGION
segmento dos URIs de recursos do Serviço Gerenciado para Apache Spark (consulte, por exemplo, o
cluster
networkUri).
Nomes das regiões
Os nomes das regiões seguem uma convenção de nomenclatura padrão com base nas regiões do
Compute Engine.
Por exemplo, o nome da região central dos EUA é us-central1 e o nome da região da Europa Ocidental é europe-west1. Execute o comando gcloud compute regions list para ver uma lista de regiões disponíveis.
Endpoints regionais e de local
Google Cloud As APIs podem oferecer suporte a endpoints regionais e de local:
Os endpoints de local garantem que os dados em trânsito permaneçam no local especificado quando acessados por conectividade privada.
Formato:
{location}-{service}.googleapis.comExemplo:
us-central-1-dataproc.googleapis.comOs endpoints regionais garantem que os dados em trânsito permaneçam no local especificado quando acessados por conectividade privada ou pela Internet pública.
Formato:
{service}.{location}.rep.googleapis.comExemplo:
dataproc.us-central1.rep.googleapis.com
O endpoint padrão do Serviço Gerenciado para Apache Spark é o endpoint de local. Consulte as notas de lançamento do Serviço Gerenciado para Apache Spark para conferir anúncios sobre o suporte do Serviço Gerenciado para Apache Spark a endpoints regionais.
Criar um cluster
CLI gcloud
Ao criar um cluster, especifique uma região usando a flag obrigatória --region.
gcloud dataproc clusters create CLUSTER_NAME \ --region=REGION \ other args ...
API REST
Use o parâmetro de URL REGION em uma
clusters.create
para especificar a região do cluster.
gRPC
Defina o endereço de transporte do cliente para o endpoint de local usando o seguinte padrão:
REGION-dataproc.googleapis.com
Exemplo de Python (google-cloud-python):
from google.cloud import dataproc_v1
from google.cloud.dataproc_v1.gapic.transports import cluster_controller_grpc_transport
transport = cluster_controller_grpc_transport.ClusterControllerGrpcTransport(
address='us-central1-dataproc.googleapis.com:443')
client = dataproc_v1.ClusterControllerClient(transport)
project_id = 'my-project'
region = 'us-central1'
cluster = {...}Exemplo de Java (google-cloud-java):
ClusterControllerSettings settings =
ClusterControllerSettings.newBuilder()
.setEndpoint("us-central1-dataproc.googleapis.com:443")
.build();
try (ClusterControllerClient clusterControllerClient = ClusterControllerClient.create(settings)) {
String projectId = "my-project";
String region = "us-central1";
Cluster cluster = Cluster.newBuilder().build();
Cluster response =
clusterControllerClient.createClusterAsync(projectId, region, cluster).get();
}Console
Especifique uma região do Serviço Gerenciado para Apache Spark na seção "Local" do painel Configurar cluster na página Criar um cluster do Serviço Gerenciado para Apache Spark no Google Cloud console.
A seguir
- Geografia e regiões
- Compute Engine Engine→Regiões e zonas
- Compute Engine→Recursos globais, regionais e por zonas
- Posicionamento em zona automática do Serviço Gerenciado para Apache Spark