Esegui il deployment di un servizio Dataproc Metastore

Questa pagina mostra come creare un servizio Dataproc Metastore e connettersi a quest'ultimo da un cluster Managed Service for Apache Spark. Successivamente, esegui SSH nel cluster, avvia un'istanza di Apache Hive ed esegui alcune query di base.

Dataproc Metastore ti offre un metastore Hive (HMS) completamente compatibile, che è lo standard consolidato nell'ecosistema open source dei big data per la gestione dei metadati tecnici. Questo servizio ti aiuta a gestire i metadati dei tuoi data lake e fornisce l'interoperabilità tra i vari strumenti di elaborazione dei dati che utilizzi.


Per seguire le indicazioni dettagliate per questa attività direttamente nella console Google Cloud , fai clic su Procedura guidata:

Procedura guidata


Prima di iniziare

  1. Accedi al tuo account Google Cloud . Se non conosci Google Cloud, crea un account per valutare le prestazioni dei nostri prodotti in scenari reali. I nuovi clienti ricevono anche 300 $di crediti senza costi per l'esecuzione, il test e il deployment dei workload.
  2. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Roles required to select or create a project

    • Select a project: Selecting a project doesn't require a specific IAM role—you can select any project that you've been granted a role on.
    • Create a project: To create a project, you need the Project Creator role (roles/resourcemanager.projectCreator), which contains the resourcemanager.projects.create permission. Learn how to grant roles.

    Go to project selector

  3. Verify that billing is enabled for your Google Cloud project.

  4. Enable the Dataproc Metastore, Dataproc APIs.

    Roles required to enable APIs

    To enable APIs, you need the Service Usage Admin IAM role (roles/serviceusage.serviceUsageAdmin), which contains the serviceusage.services.enable permission. Learn how to grant roles.

    Enable the APIs

  5. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Roles required to select or create a project

    • Select a project: Selecting a project doesn't require a specific IAM role—you can select any project that you've been granted a role on.
    • Create a project: To create a project, you need the Project Creator role (roles/resourcemanager.projectCreator), which contains the resourcemanager.projects.create permission. Learn how to grant roles.

    Go to project selector

  6. Verify that billing is enabled for your Google Cloud project.

  7. Enable the Dataproc Metastore, Dataproc APIs.

    Roles required to enable APIs

    To enable APIs, you need the Service Usage Admin IAM role (roles/serviceusage.serviceUsageAdmin), which contains the serviceusage.services.enable permission. Learn how to grant roles.

    Enable the APIs

Ruoli obbligatori

Per ottenere le autorizzazioni necessarie per creare un cluster Dataproc Metastore e Managed Service for Apache Spark, chiedi all'amministratore di concederti i seguenti ruoli IAM:

  • Per concedere l'accesso completo a tutte le risorse Dataproc Metastore, inclusa l'impostazione delle autorizzazioni IAM: (roles/metastore.admin) sull'account utente o sul account di servizio
  • Per concedere il controllo completo delle risorse Dataproc Metastore: Editor Dataproc Metastore (roles/metastore.editor) sull'account utente o sul account di servizio
  • Per creare un cluster Managed Service per Apache Spark: (roles/dataproc.worker) sull'account di servizio

Per saperne di più sulla concessione dei ruoli, consulta Gestisci l'accesso a progetti, cartelle e organizzazioni.

Questi ruoli predefiniti contengono le autorizzazioni necessarie per creare un cluster Dataproc Metastore e Managed Service for Apache Spark. Per vedere quali sono esattamente le autorizzazioni richieste, espandi la sezione Autorizzazioni obbligatorie:

Autorizzazioni obbligatorie

Per creare un cluster Dataproc Metastore e Managed Service for Apache Spark sono necessarie le seguenti autorizzazioni:

  • Per creare un servizio Dataproc Metastore: metastore.services.create sull'account utente o sul account di servizio
  • Per creare un cluster Managed Service per Apache Spark: Managed Service for Apache Spark worker (roles/dataproc.worker) nell'account di servizio

Potresti anche ottenere queste autorizzazioni con ruoli personalizzati o altri ruoli predefiniti.

Per saperne di più su ruoli e autorizzazioni specifici di Dataproc Metastore, consulta Panoramica di IAM di Dataproc Metastore.

Crea un servizio Dataproc Metastore

Le seguenti istruzioni mostrano come creare un servizio Dataproc Metastore di base utilizzando le impostazioni predefinite fornite.

Console

  1. Nella console Google Cloud , vai alla pagina Dataproc Metastore.

    Vai a Dataproc Metastore

  2. Nel menu di navigazione, fai clic su + Crea.

    Si apre la finestra di dialogo Crea servizio Metastore.

  3. Seleziona Dataproc Metastore 2.

  4. Nel campo Nome servizio, inserisci example-service.

  5. Nel campo Località dei dati, seleziona us-central1.

  6. Per le restanti opzioni di configurazione del servizio, utilizza i valori predefiniti forniti.

  7. Per creare e avviare il servizio, fai clic su Invia.

Il nuovo servizio metastore viene visualizzato nella pagina Dataproc Metastore. Lo stato mostra Creazione in corso finché il servizio non è pronto per l'uso. Quando è pronto, lo stato cambia in Attivo. Il provisioning del servizio potrebbe richiedere un paio di minuti.

Lo screenshot seguente mostra un esempio della pagina Crea servizio utilizzando alcuni dei valori predefiniti forniti.

La pagina Crea servizio.

Interfaccia a riga di comando gcloud

 gcloud metastore services create example-service \
     --location=us-central1 \
     --instance-size=MEDIUM

REST

Segui le istruzioni dell'API per creare un servizio utilizzando Explorer API.

Crea un cluster Managed Service for Apache Spark e connettiti a Dataproc Metastore

Successivamente, crea un cluster Managed Service per Apache Spark e connettiti al metastore dal cluster. Dopodiché, il cluster utilizza il servizio metastore come HMS. Il cluster che crei qui utilizza le impostazioni predefinite fornite.

Console

  1. Nella console Google Cloud , vai alla pagina Cluster Dataproc.

    Vai a Managed Service per i cluster Apache Spark

  2. Nella barra di navigazione, seleziona + Crea cluster.

    Si apre la finestra di dialogo Crea un cluster che offre diverse scelte di infrastruttura tra cui scegliere.

  3. Nella riga Cluster su Compute Engine, seleziona Crea.

    Si apre la pagina Crea un cluster Managed Service per Apache Spark su Compute Engine.

  4. Nel campo Nome cluster, inserisci example-cluster.

  5. Nei menu Regione e Zona, seleziona us-central1.

  6. Per le restanti opzioni di Configura cluster, utilizza i valori predefiniti forniti.

  7. Nel menu di navigazione, fai clic sulla scheda Personalizza cluster (facoltativo).

  8. Nella sezione Dataproc Metastore, seleziona il servizio metastore che hai creato in precedenza.

    Se hai seguito questo tutorial così com'è, il nome è example-service.

  9. Per le opzioni di configurazione del servizio rimanenti, utilizza i valori predefiniti forniti.

  10. Per creare il cluster, fai clic su Crea.

    Il nuovo cluster viene visualizzato nell'elenco Cluster. Lo stato del cluster mostra Provisioning in corso finché il cluster non è pronto per l'uso. Quando è pronto, lo stato cambia in Attivo. Il provisioning del cluster potrebbe richiedere un paio di minuti.

Interfaccia a riga di comando gcloud

Per creare un cluster utilizzando le impostazioni predefinite fornite, esegui il seguente comando gcloud dataproc clusters create:

 gcloud dataproc clusters create example-cluster \
    --dataproc-metastore=projects/PROJECT_ID/locations/us-central1/services/example-service \
    --region=us-central1

Sostituisci PROJECT_ID con l'ID progetto del progetto in cui hai creato il servizio Dataproc Metastore.

REST

Segui le istruzioni dell'API per creare un cluster utilizzando Explorer API.

Connettiti ad Apache Hive con un cluster Managed Service per Apache Spark

I passaggi successivi mostrano come eseguire alcuni comandi di esempio in Apache Hive per creare un database e una tabella.

Successivamente, apri una sessione SSH sul cluster Managed Service per Apache Spark e avvia una sessione Hive.

  1. Nella console Google Cloud , vai alla pagina Istanze VM.
  2. Nell'elenco delle istanze della macchina virtuale, fai clic su SSH accanto a example-cluster.

Nel nodo si apre una finestra del browser nella tua home directory con un output simile al seguente:

Connected, host fingerprint: ssh-rsa ...
Linux cluster-1-m 3.16.0-0.bpo.4-amd64 ...
...
example-cluster@cluster-1-m:~$

Per avviare Hive e creare un database e una tabella, esegui questi comandi nella sessione SSH:

  1. Avvia Hive.

    hive
    
  2. Crea un database denominato myDatabase.

    create database myDatabase;
    
  3. Mostra il database che hai creato.

    show databases;
    
  4. Utilizza il database che hai creato.

    use myDatabase;
    
  5. Crea una tabella denominata myTable.

    create table myTable(id int,name string);
    
  6. Elenca le tabelle in myDatabase.

    show tables;
    
  7. Descrivi lo schema della tabella che hai creato.

    desc MyTable;
    

L'esecuzione di questi comandi mostra un output simile al seguente:

$hive

hive> show databases;
OK
default
hive> create database myDatabase;
OK
hive> use myDatabase;
OK
hive> create table myTable(id int,name string);
OK
hive> show tables;
OK
myTable
hive> desc myTable;
OK
id                      int
name                    string

Esegui la pulizia

Per evitare che al tuo account Google Cloud vengano addebitati costi relativi alle risorse utilizzate in questa pagina, segui questi passaggi.

  1. Nella console Google Cloud , vai alla pagina Gestisci risorse.

    Vai a Gestisci risorse

  2. Se il progetto che prevedi di eliminare è associato a un'organizzazione, espandi l'elenco Organizzazione nella colonna Nome.
  3. Nell'elenco dei progetti, seleziona quello che vuoi eliminare, quindi fai clic su Elimina.
  4. Nella finestra di dialogo, digita l'ID del progetto e fai clic su Chiudi per eliminare il progetto.

In alternativa, puoi eliminare le risorse utilizzate in questo tutorial:

  1. Elimina il servizio Dataproc Metastore.

    Console

    1. Nella console Google Cloud , apri la pagina Dataproc Metastore:

      Vai a Dataproc Metastore

    2. Nell'elenco dei servizi, seleziona example-service.

    3. Nella barra di navigazione, fai clic su Elimina.

      Si apre la finestra di dialogo Elimina servizio.

    4. Nella finestra di dialogo, fai clic su Elimina.

      Il servizio non viene più visualizzato nell'elenco dei servizi.

    Interfaccia a riga di comando gcloud

    Per eliminare il servizio, esegui questo comando gcloud metastore services delete.

     gcloud metastore services delete example-service \
         --location=us-central1

    REST

    Segui le istruzioni dell'API per eliminare un servizio utilizzando Explorer API.

    Tutte le eliminazioni vengono eseguite immediatamente.

  2. Elimina il bucket Cloud Storage per il servizio Dataproc Metastore.

  3. Elimina il cluster Managed Service for Apache Spark che utilizzava il servizio Dataproc Metastore.

Passaggi successivi