Ir para o conteúdo principal
Google Cloud Documentation
Documentação Áreas de tecnologia
  • IA e ML
  • Desenvolvimento de aplicativos
  • Hospedagem de aplicativos
  • Computação
  • Pipelines e análises de dados
  • Bancos de dados
  • Distribuído, híbrido e multicloud
  • IA generativa
  • Soluções por setor
  • Rede
  • Observabilidade e monitoramento
  • Segurança
  • Storage
Ferramentas de vários produtos
  • Gerenciamento de recursos e acesso
  • Gerenciamento de custos e uso
  • SDK Google Cloud, linguagens, frameworks e ferramentas
  • Infraestrutura como código
  • Migração
/
Console
  • English
  • Deutsch
  • Español
  • Español – América Latina
  • Français
  • Indonesia
  • Italiano
  • Português
  • Português – Brasil
  • 中文 – 简体
  • 中文 – 繁體
  • 日本語
  • 한국어
Fazer login
  • Dataproc
Comece gratuitamente
Guias Referência Exemplos Recursos
Google Cloud Documentation
  • Documentação
    • Guias
    • Referência
    • Exemplos
    • Recursos
  • Áreas de tecnologia
    • Mais
  • Ferramentas de vários produtos
    • Mais
  • Console
  • Descoberta
  • Visão geral do produto
  • Principais conceitos
  • Componentes
    • Visão geral
    • Delta Lake
    • Docker
    • Flink
    • HBase
    • Hive WebHCat
    • Hudi
    • Iceberg
    • Jupyter
    • Pig
    • Presto
    • Ranger
      • Instalar o Ranger
      • Usar o Ranger com Kerberos
      • Usar o Ranger com armazenamento em cache e redução de escopo
      • Fazer backup e restaurar um esquema do Ranger
    • Solr
    • Trino
    • Zeppelin
    • Zookeeper
  • Serviços
  • Opções de computação
    • Tipos de máquina
    • GPUs
    • Plataforma mínima de CPU
    • Workers secundários
    • Unidades de estado sólido locais
    • Discos de inicialização
  • Controle de versões
    • Visão geral
    • Versões de lançamento 3.0.x
    • Versões de lançamento 2.3.x
    • Versões de lançamento 2.2.x
    • Versões de lançamento 2.1.x
    • Versões de lançamento 2.0.x
    • Listas de versões de imagens de cluster
  • Perguntas frequentes
  • Começar
  • Executar o Spark no Dataproc
    • Use o console.
    • Usar a linha de comando
    • Usar o REST APIs Explorer
      • Criar um cluster
      • executar um job do Spark
      • Atualizar um cluster
      • Excluir um cluster
    • Usar as bibliotecas de cliente
    • Executar o Spark usando o Kubernetes
  • Criar
  • Configurar um projeto
  • Usar modelos do Dataproc
  • Criar clusters do Dataproc
    • Criar um cluster
    • Criar um cluster de alta disponibilidade
    • Criar um cluster de grupo de nós
    • Criar um cluster parcial
    • Criar um cluster de nó único
    • Criar cluster de locatário individual
    • Recriar um cluster
    • Criar uma imagem personalizada
  • Criar clusters do Kubernetes
    • Visão geral
    • Versões
    • Recriar um cluster
    • Criar pools de nós
    • Criar uma imagem personalizada
  • Criar uma tabela do Apache Iceberg com metadados no metastore do BigQuery
  • Desenvolver
  • Apache Hadoop
  • Apache HBase
  • Apache Hive e Kafka
  • Apache Spark
    • Configurar
      • Gerenciar dependências do Spark
      • Personalizar o ambiente do Spark
      • Ativar gravações simultâneas
      • Melhorar a performance do Spark
      • Tune Spark
    • Conectar
      • Usar o conector do BigQuery para Spark
      • Usar o conector do Cloud Storage
      • Usar o conector do Spark Spanner
    • Execução
      • Usar o HBase
      • Usar a simulação de Monte Carlo
      • Usar o Spark ML
      • Usar o Spark Scala
  • Usar notebooks
    • Visão geral
    • Executar um notebook Jupyter em um cluster do Dataproc
    • Executar uma análise genômica em um notebook
    • Usar a extensão do JupyterLab para desenvolver cargas de trabalho do Spark sem servidor
  • Python
    • Configurar ambiente
    • Use as bibliotecas de cliente do Cloud
  • Trino
  • Implantar
  • Executar jobs
    • Vida útil de um job
    • Envie um job
    • Reiniciar jobs
    • Visualizar o histórico de tarefas
  • Usar modelos de fluxo de trabalho
    • Visão geral
    • Parametrização
    • Usar arquivos YAML
    • Usar seletores de cluster
    • Usar fluxos de trabalho in-line
  • Orquestrar fluxos de trabalho
    • Soluções de programação de fluxo de trabalho
    • Usar modelos de fluxo de trabalho do Dataproc
    • Usar o Cloud Composer
    • Usar o Cloud Functions
    • Usar o Cloud Scheduler
  • Ajustar a performance
    • Otimizar a performance do Spark
    • Métricas do Dataproc
    • Criar alertas de métricas
    • Gerar perfil de uso de recursos
  • Gerenciar
  • Gerenciar clusters
    • Iniciar e interromper clusters
      • Iniciar e parar um cluster manualmente
      • Programar a interrupção do cluster
    • Atualizar e excluir um cluster
    • Rotação de clusters
    • Configurar clusters
      • Definir propriedades do cluster
      • Selecionar região
      • Selecionar zona automaticamente
      • Definir ações de inicialização
      • Priorizar tipos de VM
      • Programar a exclusão do cluster
    • Escalonamento de clusters
      • Escalonamento de clusters
      • Escalonar clusters automaticamente
    • Gerenciar dados
      • Armazenamento de dados Hadoop
      • Selecione o tipo de armazenamento
      • Dados do cluster de cache
      • Descarregar dados de embaralhamento
    • Gerenciar redes
      • Configurar uma rede
      • Rede de clusters do Dataproc com o Private Service Connect
  • Gerenciar clusters do Kubernetes
    • Escalonamento de clusters
    • Excluir um cluster
  • Acessar clusters
    • Usar SSH
    • Conectar-se a interfaces da Web
    • Usar o Gateway de componentes
    • Definir acesso da força de trabalho
  • Gerenciar metadados e identificadores
    • Ativar a linhagem de dados do Spark
    • Ativar a linhagem de dados do Hive
    • Definir metadados
    • Definir rótulos para filtragem
    • Usar tags seguras
  • Conectar-se ao Dataproc
    • Migrar o Hadoop
    • Conectar com o BigQuery
      • Conector do BigQuery
      • Conector Hive-BigQuery
      • Exemplos de código
    • Conectar-se ao Bigtable
    • Conectar-se ao Cloud Storage
    • Conectar com o Pub/Sub Lite
  • Práticas recomendadas de produção
  • Segurança e compliance
  • Práticas recomendadas de segurança
  • Autenticar usuários
    • Autenticar no Dataproc
    • Autenticar clusters pessoais
  • Atribuir papéis e permissões
    • Permissões e papéis do Dataproc
    • Principais do Dataproc
    • IAM granular
    • Atribuir papéis para o Kubernetes
  • Criar contas de serviço
  • Clusters seguros
    • Multilocação segura usando Kerberos
    • Multilocação segura usando contas de serviço
    • Criptografar a memória
    • Gerenciar chaves de criptografia de dados
    • Ativar o serviço de autorização do Ranger
    • Usar o provedor de credenciais do Secret Manager
    • Criar e proteger um cluster do metastore do Hive
  • Criar restrições personalizadas
  • Assured Workloads
  • Conformidade com o FedRAMP
  • Verificar o faturamento
  • Resolver problemas
  • Visão geral
  • Analisar registros
    • Registros do Dataproc
    • Registros de saída do job
    • Registros de auditoria
  • Resolver problemas de clusters
    • Ver dados de diagnóstico do cluster
    • Resolver problemas de criação de cluster
    • Diagnosticar clusters do Kubernetes
    • Ativar o registro do Kubernetes
  • Resolver problemas com jobs
    • Resolver problemas com jobs
    • Resolver erros de memória
    • Resolver problemas de atrasos nos jobs
    • Visualizar o histórico de tarefas
    • Resolver problemas de modelos de fluxo de trabalho
  • IA e ML
  • Desenvolvimento de aplicativos
  • Hospedagem de aplicativos
  • Computação
  • Pipelines e análises de dados
  • Bancos de dados
  • Distribuído, híbrido e multicloud
  • IA generativa
  • Soluções por setor
  • Rede
  • Observabilidade e monitoramento
  • Segurança
  • Storage
  • Gerenciamento de recursos e acesso
  • Gerenciamento de custos e uso
  • SDK Google Cloud, linguagens, frameworks e ferramentas
  • Infraestrutura como código
  • Migração
Esta página foi traduzida pela API Cloud Translation.
  • Home
  • Documentation
  • Data analytics
  • Dataproc
  • Guias

Usar o Apache Spark com o HBase no Dataproc
Mantenha tudo organizado com as coleções Salve e categorize o conteúdo com base nas suas preferências.

<0x O Dataproc versão 1.5 e o Dataproc versão 2.0 oferecem uma versão Beta do HBase sem suporte. No entanto, devido à natureza temporária dos clusters do Dataproc, não é recomendável usar o HBase.

Exceto em caso de indicação contrária, o conteúdo desta página é licenciado de acordo com a Licença de atribuição 4.0 do Creative Commons, e as amostras de código são licenciadas de acordo com a Licença Apache 2.0. Para mais detalhes, consulte as políticas do site do Google Developers. Java é uma marca registrada da Oracle e/ou afiliadas.

Última atualização 2025-10-19 UTC.

  • Produtos e preços

    • Veja todos os produtos
    • Preços do Google Cloud
    • Google Cloud Marketplace
    • Entre em contato com a equipe de vendas.
  • Suporte

    • Comunidade do Google Cloud
    • Suporte
    • Notas da versão
    • Status do sistema
  • Recursos

    • GitHub
    • Introdução ao Google Cloud
    • Exemplos de código
    • Centro de arquitetura do Cloud
    • Treinamento e certificação
  • Envolver

    • Blog
    • Eventos
    • X (Twitter)
    • Google Cloud no YouTube
    • Google Cloud Tech no YouTube
  • Sobre o Google
  • Privacidade
  • Termos do site
  • Termos do Google Cloud
  • Manage cookies
  • Essa é nossa terceira década de ação climática: participe!
  • Inscreva-se para receber a newsletter do Google Cloud Inscrever-se
  • English
  • Deutsch
  • Español
  • Español – América Latina
  • Français
  • Indonesia
  • Italiano
  • Português
  • Português – Brasil
  • 中文 – 简体
  • 中文 – 繁體
  • 日本語
  • 한국어