La libreria Java open source del connettore Cloud Storage ti consente di eseguire job Apache Hadoop o Apache Spark direttamente sui dati in Cloud Storage.
Vantaggi del connettore Cloud Storage
- Accesso diretto ai dati: archivia i dati in Cloud Storage e accedi direttamente. Non devi prima trasferirli in HDFS.
- Compatibilità con HDFS: puoi accedere ai dati in
Cloud Storage utilizzando il prefisso
gs://anzichéhdfs://. - Interoperabilità: l'archiviazione dei dati in Cloud Storage consente un'interoperabilità perfetta tra Spark, Hadoop e i servizi Google.
- Accessibilità dei dati: quando arresti un cluster Hadoop, a differenza di HDFS, continui ad avere accesso ai dati in Cloud Storage.
- Elevata disponibilità dei dati: i dati archiviati in Cloud Storage sono altamente disponibili e replicati a livello globale senza perdita di prestazioni.
- Nessun overhead di gestione dello spazio di archiviazione: a differenza di HDFS, Cloud Storage non richiede manutenzione di routine, come il controllo del file system o l'upgrade o il rollback a una versione precedente del file system.
- Avvio rapido: in HDFS, un job MapReduce non può essere avviato finché
NameNodenon esce dalla modalità provvisoria, un processo che può richiedere da pochi secondi a molti minuti a seconda delle dimensioni e dello stato dei dati. Con Cloud Storage, puoi avviare il job non appena vengono avviati i nodi delle attività, il che comporta un notevole risparmio sui costi nel tempo.
Configurazione del connettore sui cluster Dataproc
Il connettore Cloud Storage è installato per impostazione predefinita su tutti i nodi del cluster Dataproc nella directory
/usr/local/share/google/dataproc/lib/. Le seguenti
sottosezioni descrivono i passaggi che puoi seguire per completare
la configurazione del connettore sui cluster Dataproc.
Service account VM
Quando esegui il connettore sui nodi del cluster Dataproc
e su altre VM Compute Engine, la
google.cloud.auth.service.account.enable proprietà è impostata
su false per impostazione predefinita, il che significa che non devi configurare le
credenziali del service account VM
per il connettore. Le credenziali del service account VM vengono fornite dal
server dei metadati della VM.
Il service account VM Dataproc deve disporre dell'autorizzazione per accedere al bucket Cloud Storage.
Versioni del connettore selezionate dall'utente
Le versioni predefinite del connettore Cloud Storage utilizzate nelle immagini più recenti installate sui cluster Dataproc sono elencate nelle pagine delle versioni delle immagini. Se la tua applicazione dipende da una versione del connettore non predefinita di cui è stato eseguito il deployment sul tuo cluster, puoi eseguire una delle seguenti azioni per utilizzare la versione del connettore selezionata:
- Crea un cluster con il flag
--metadata=GCS_CONNECTOR_VERSION=x.y.z, che aggiorna il connettore utilizzato dalle applicazioni in esecuzione sul cluster alla versione del connettore specificata. - Includi e riloca le classi del connettore e le dipendenze del connettore per la versione che stai utilizzando nel file JAR dell'applicazione. La rilocazione è necessaria per evitare un conflitto tra la versione del connettore di cui hai eseguito il deployment e la versione del connettore predefinita installata sul cluster Dataproc. Consulta anche l'esempio di rilocazione delle dipendenze Maven .
Configurazione del connettore sui cluster non Dataproc
Puoi seguire questi passaggi per configurare il connettore Cloud Storage su un cluster non Dataproc, ad esempio un cluster Apache Hadoop o Spark che utilizzi per spostare i dati HDFS on-premise in Cloud Storage.
Scarica il connettore.
- Per scaricare il connettore Cloud Storage:
- Per utilizzare una versione
latestche si trova nel bucket Cloud Storage (l'utilizzo di una versionelatestnon è consigliato per le applicazioni di produzione): - Per utilizzare una versione specifica
dal bucket Cloud Storage sostituendo le versioni del connettore Hadoop e
Cloud Storage nel
gcs-connector-HADOOP_VERSION-CONNECTOR_VERSION.jarpattern del nome, ad esempiogs://hadoop-lib/gcs/gcs-connector-hadoop2-2.1.1.jar. - Per utilizzare una versione specifica
dal
repository Apache Maven,
scarica un file JAR ombreggiato con il suffisso
-shadednel nome.
- Per utilizzare una versione
- Per scaricare il connettore Cloud Storage:
Installa il connettore.
Segui le istruzioni di GitHub per installare, configurare e testare il connettore Cloud Storage.
Utilizzo del connettore
Puoi utilizzare il connettore per accedere ai dati di Cloud Storage nei seguenti modi:
- In un'applicazione Spark, PySpark o Hadoop con il prefisso
gs:// - In una shell Hadoop con
hadoop fs -ls gs://bucket/dir/file - Nel browser Cloud Storage Browser In the Google Cloud console
- Utilizzando i comandi di Google Cloud SDK, ad esempio:
Utilizzo di Java
Il connettore Cloud Storage richiede Java 8.
Di seguito è riportata una sezione di esempio di gestione delle dipendenze Maven POM per il connettore Cloud Storage. Per ulteriori informazioni, consulta Gestione delle dipendenze.
<dependency>
<groupId>com.google.cloud.bigdataoss</groupId>
<artifactId>gcs-connector</artifactId>
<version>hadoopX-X.X.XCONNECTOR VERSION</version>
<scope>provided</scope>
</dependency>
Per una versione ombreggiata:
<dependency>
<groupId>com.google.cloud.bigdataoss</groupId>
<artifactId>gcs-connector</artifactId>
<version>hadoopX-X.X.XCONNECTOR VERSION</version>
<scope>provided</scope>
<classifier>shaded</classifier>
</dependency>
Supporto del connettore
Il connettore Cloud Storage è supportato da Google Cloud per l'utilizzo con Google Cloud prodotti e casi d'uso. Se utilizzato con Dataproc, è supportato allo stesso livello di Dataproc. Per ulteriori informazioni, consulta Richiedere assistenza.
Connettersi a Cloud Storage utilizzando gRPC
Per impostazione predefinita, il connettore Cloud Storage su Dataproc utilizza l'API JSON di Cloud Storage. Questa sezione mostra come abilitare il connettore Cloud Storage per utilizzare gRPC.
Considerazioni sull'utilizzo
L'utilizzo del connettore Cloud Storage con gRPC include le seguenti considerazioni:
- Località del bucket a livello di regione: gRPC può migliorare le latenze di lettura solo quando le VM Compute Engine e i bucket Cloud Storage si trovano nella stessa regione Compute Engine.
- Job ad alta intensità di lettura: gRPC può offrire latenze di lettura migliorate per le letture a lunga esecuzione e può aiutare i workload ad alta intensità di lettura. Non è consigliato per le applicazioni che creano un canale gRPC, eseguono un breve calcolo e poi chiudono il canale.
- Richieste non autenticate: gRPC non supporta le richieste non autenticate.
Requisiti
Quando utilizzi gRPC con il connettore Cloud Storage, si applicano i seguenti requisiti:
La rete VPC del cluster Dataproc deve supportare la connettività diretta. Ciò significa che le route e le regole firewall della rete devono consentire al traffico in uscita di raggiungere
34.126.0.0/18e2001:4860:8040::/42.- Se il cluster Dataproc utilizza la rete IPv6, devi configurare una subnet IPv6 per le istanze VM. Per ulteriori informazioni, consulta Configurare IPv6 per istanze e modelli di istanza.
Quando crei un cluster Dataproc, devi utilizzare la versione del connettore Cloud Storage
2.2.23o successive con la versione dell'immagine2.1.56+o la versione del connettore Cloud Storage v3.0.0 o successive con la versione dell'immagine 2.2.0+. La versione del connettore Cloud Storage installata su ogni versione dell'immagine Dataproc è elencata nelle pagine delle versioni dell'immagine Dataproc.- Se crei e utilizzi un
cluster virtuale Dataproc su GKE
per le richieste gRPC Cloud Storage, è consigliata la versione GKE
1.28.5-gke.1199000congke-metadata-server 0.4.285. Questa combinazione supporta la connettività diretta.
- Se crei e utilizzi un
cluster virtuale Dataproc su GKE
per le richieste gRPC Cloud Storage, è consigliata la versione GKE
Tu o l'amministratore della tua organizzazione dovete concedere i ruoli Identity and Access Management che includono le autorizzazioni necessarie per configurare ed effettuare richieste gRPC al connettore Cloud Storage. Questi ruoli possono includere:
- Ruolo utente: Editor Dataproc ruolo concesso agli utenti per consentire loro di creare cluster e inviare job
- Ruolo del service account: Ruolo Storage Object User concesso al service account VM Dataproc per consentire alle applicazioni in esecuzione sulle VM del cluster di visualizzare, leggere, creare e scrivere oggetti Cloud Storage.
Abilitare gRPC sul connettore Cloud Storage
Puoi abilitare gRPC sul connettore Cloud Storage a livello di cluster o job. Una volta abilitato sul cluster, le richieste di lettura del connettore Cloud Storage utilizzano gRPC. Se abilitato su un job anziché a livello di cluster, le richieste di lettura del connettore Cloud Storage utilizzano gRPC solo per il job.
Abilitare un cluster
Per abilitare gRPC sul connettore Cloud Storage a livello di cluster,
imposta la proprietà core:fs.gs.client.type=STORAGE_CLIENT quando
crei un cluster Dataproc.
Una volta abilitato gRPC a livello di cluster, le richieste di
lettura del connettore Cloud Storage effettuate dai job in esecuzione sul cluster utilizzano gRPC.
Esempio di gcloud CLI:
gcloud dataproc clusters create CLUSTER_NAME \
--project=PROJECT_ID \
--region=REGION \
--properties=core:fs.gs.client.type=STORAGE_CLIENT
Sostituisci quanto segue:
- CLUSTER_NAME: specifica un nome per il cluster.
- PROJECT_NAME: l'ID progetto del progetto in cui si trova il cluster. Gli ID progetto sono elencati nella sezione Informazioni sul progetto su la Google Cloud dashboard della console.
- REGION: specifica una regione Compute Engine in cui si troverà il cluster.
Abilitare un job
Per abilitare gRPC sul connettore Cloud Storage per un job specifico, includi --properties=spark.hadoop.fs.gs.client.type=STORAGE_CLIENT
quando invii un job.
Esempio: esegui un job su un cluster esistente che utilizza gRPC per leggere da Cloud Storage.
Crea uno script PySpark
/tmp/line-count.pylocale che utilizza gRPC per leggere un file di testo di Cloud Storage e restituire il numero di righe nel file.cat <<EOF >"/tmp/line-count.py" #!/usr/bin/python import sys from pyspark.sql import SparkSession path = sys.argv[1] spark = SparkSession.builder.getOrCreate() rdd = spark.read.text(path) lines_counter = rdd.count() print("There are {} lines in file: {}".format(lines_counter,path)) EOFCrea un file di testo locale
/tmp/line-count-sample.txt.cat <<EOF >"/tmp/line-count-sample.txt" Line 1 Line 2 line 3 EOF
Carica i file locali
/tmp/line-count.pye/tmp/line-count-sample.txtnel bucket in Cloud Storage.gcloud storage cp /tmp/line-count* gs://BUCKET
Esegui il
line-count.pyjob sul cluster. Imposta--properties=spark.hadoop.fs.gs.client.type=STORAGE_CLIENTper abilitare gRPC per le richieste di lettura del connettore Cloud Storage.gcloud dataproc jobs submit pyspark gs://BUCKET/line-count.py \ --cluster=CLUSTER_NAME \ --project=PROJECT_ID \ --region=REGION \ --properties=spark.hadoop.fs.gs.client.type=STORAGE_CLIENT \ -- gs://BUCKET/line-count-sample.txt
Sostituisci quanto segue:
Generare metriche lato client gRPC
Puoi configurare il connettore Cloud Storage per generare metriche correlate a gRPC in Cloud Monitoring. Le metriche correlate a gRPC possono aiutarti a:
- Monitorare e ottimizzare le prestazioni delle richieste gRPC a Cloud Storage
- Risolvere i problemi ed eseguire il debug
- Ottenere informazioni sull'utilizzo e sul comportamento delle applicazioni
Per informazioni su come configurare il connettore Cloud Storage per generare metriche correlate a gRPC, consulta Utilizzare le metriche lato client gRPC.
Risorse
- Consulta le proprietà di configurazione del connettore Cloud Storage di GitHub configuration properties.
- Consulta Connettersi a Cloud Storage utilizzando gRPC per utilizzare il connettore Cloud Storage con le librerie client, i Controlli di servizio VPC e altri scenari.
- Scopri di più su Cloud Storage.
- Consulta Utilizzare il connettore Cloud Storage con Apache Spark.
- Comprendi il file system Apache Hadoop .
- Visualizza la documentazione di riferimento JavaDoc.