Puoi configurare l'accesso a un bucket Amazon S3 utilizzando uno dei due metodi:
Aree geografiche supportate
Storage Transfer Service supporta le seguenti regioni Amazon S3:
af-south-1ap-east-1ap-northeast-1ap-northeast-2ap-northeast-3ap-south-1ap-south-2ap-southeast-1ap-southeast-2ap-southeast-3 |
ap-southeast-4ca-central-1ca-west-1eu-central-1eu-central-2eu-north-1eu-south-1eu-south-2eu-west-1eu-west-2
|
eu-west-3il-central-1me-central-1me-south-1sa-east-1us-east-1us-east-2us-west-1us-west-2
|
us-gov-east-1us-gov-west-1
|
ap-east-1ap-northeast-1ap-northeast-2ap-northeast-3ap-south-1ap-south-2ap-southeast-1ca-central-1ca-west-1eu-central-1eu-central-2 |
eu-north-1eu-south-1eu-south-2eu-west-1eu-west-2eu-west-3us-east-1us-east-2us-west-1us-west-2
|
Autorizzazioni obbligatorie
Per utilizzare Storage Transfer Service per spostare i dati da un bucket Amazon S3, il tuo account utente o il tuo ruolo di identità federata deve disporre delle autorizzazioni appropriate per il bucket:
| Autorizzazione | Descrizione | Utilizza |
|---|---|---|
s3:ListBucket |
Consente a Storage Transfer Service di elencare gli oggetti nel bucket. | Sempre obbligatorio. |
s3:GetObject |
Consente a Storage Transfer Service di leggere gli oggetti nel bucket. | Obbligatorio se trasferisci la versione attuale di tutti gli oggetti. Se il manifest specifica una versione dell'oggetto, utilizza s3:GetObjectVersion. |
s3:GetObjectVersion |
Consente a Storage Transfer Service di leggere versioni specifiche degli oggetti nel bucket. | Obbligatorio se il manifest specifica una versione dell'oggetto. In caso contrario, utilizza s3:GetObject. |
s3:DeleteObject |
Consente a Storage Transfer Service di eliminare gli oggetti nel bucket. | Obbligatorio se imposti deleteObjectsFromSourceAfterTransfer su true. |
Eseguire l'autenticazione utilizzando le credenziali di accesso
Per utilizzare un ID chiave di accesso e una chiave segreta per l'autenticazione su AWS:
Crea un utente AWS Identity and Access Management (AWS IAM) con un nome riconoscibile, ad esempio
transfer-user.Per il tipo di accesso AWS, seleziona Chiave di accesso - accesso programmatico.
Concedi all'utente uno dei seguenti ruoli:
- AmazonS3ReadOnlyAccess per fornire l'accesso in sola lettura all'origine. Consente i trasferimenti, ma non supporta l'eliminazione degli oggetti all'origine una volta completato il trasferimento.
- AmazonS3FullAccess se il trasferimento è configurato per eliminare gli oggetti nell'origine.
Un ruolo personalizzato con le autorizzazioni appropriate della tabella Autorizzazioni richieste. Il JSON per le autorizzazioni minime è simile all'esempio seguente:
Regioni AWS standard
{ "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Action": [ "s3:GetObject", "s3:ListBucket" ], "Resource": [ "arn:aws:s3:::S3_BUCKET_NAME/*", "arn:aws:s3:::S3_BUCKET_NAME" ] } ] }
Regioni AWS GovCloud
{ "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Action": [ "s3:GetObject", "s3:ListBucket" ], "Resource": [ "arn:aws-us-gov:s3:::S3_BUCKET_NAME/*", "arn:aws-us-gov:s3:::S3_BUCKET_NAME" ] } ] }
Prendi nota dell'ID chiave di accesso e della chiave di accesso segreta quando l'utente viene creato correttamente.
Il modo in cui trasmetti l'ID chiave di accesso e la chiave di accesso segreta a Storage Transfer Service dipende dall'interfaccia che utilizzi per avviare il trasferimento.
Console Google Cloud
Inserisci i valori direttamente nel modulo di creazione del job di trasferimento.
Consulta Crea trasferimenti per iniziare.
gcloud CLI
Crea un file JSON nel seguente formato:
{
"accessKeyId": "AWS_ACCESS_KEY_ID",
"secretAccessKey": "AWS_SECRET_ACCESS_KEY"
}
Passa la posizione del file al comando gcloud transfer jobs create
utilizzando il flag source-creds-file:
gcloud transfer jobs create s3://S3_BUCKET_NAME gs://GCS_BUCKET_NAME \
--source-creds-file=PATH/TO/KEYFILE.JSON
API REST
L'oggetto transferSpec deve contenere le informazioni chiave come parte dell'oggetto awsS3DataSource:
"transferSpec": {
"awsS3DataSource": {
"bucketName": "S3_BUCKET_NAME",
"awsAccessKey": {
"accessKeyId": "AWS_ACCESS_KEY_ID",
"secretAccessKey": "AWS_SECRET_ACCESS_KEY"
}
},
"gcsDataSink": {
"bucketName": "GCS_BUCKET_NAME"
}
}
Librerie client
Consulta gli esempi nella pagina Crea trasferimenti.
Salva le credenziali di accesso in Secret Manager
Secret Manager è un servizio sicuro che archivia e gestisce dati sensibili come le password. Utilizza una crittografia avanzata, il controllo dell'accesso basato sui ruoli e la registrazione delle attività di audit per proteggere i tuoi secret.
Storage Transfer Service può utilizzare Secret Manager per proteggere le credenziali di accesso AWS. Carichi le credenziali in Secret Manager, quindi trasferisci il nome della risorsa secret a Storage Transfer Service.
Abilita l'API
Abilita l'API Secret Manager.
Ruoli richiesti per abilitare le API
Per abilitare le API, devi disporre del ruolo IAM Amministratore utilizzo dei servizi (roles/serviceusage.serviceUsageAdmin), che include l'autorizzazione serviceusage.services.enable. Scopri come concedere
i ruoli.
Configurare autorizzazioni aggiuntive
Autorizzazioni utente
L'utente che crea il secret deve disporre del seguente ruolo:
- Secret Manager Admin (
roles/secretmanager.admin)
Scopri come concedere un ruolo.
Autorizzazioni service agent
Il service agent Storage Transfer Service richiede il seguente ruolo IAM:
- Secret Manager Secret Accessor (
roles/secretmanager.secretAccessor)
Per concedere il ruolo al service agent:
Console Google Cloud
Segui le istruzioni per recuperare l'email dell'agente di servizio.
Vai alla pagina IAM nella console Google Cloud .
Fai clic su Concedi l'accesso.
Nel campo Nuove entità, inserisci l'email del service agent.
Nel menu a discesa Seleziona un ruolo, cerca e seleziona Secret Manager Secret Accessor.
Fai clic su Salva.
gcloud CLI
Utilizza il comando gcloud projects add-iam-policy-binding per aggiungere il ruolo IAM all'agente di servizio.
Segui le istruzioni per recuperare l'email dell'agente di servizio.
Dalla riga di comando, inserisci il seguente comando:
gcloud projects add-iam-policy-binding PROJECT_ID \ --member='serviceAccount:SERVICE_AGENT_EMAIL' \ --role='roles/secretmanager.secretAccessor'
Crea un secret
Crea un secret con Secret Manager:
Console Google Cloud
Vai alla pagina Secret Manager nella console Google Cloud .
Fai clic su Crea secret.
Inserisci un nome.
Nel campo Valore secret, inserisci le tue credenziali nel seguente formato:
{ "accessKeyId": "AWS_ACCESS_KEY_ID", "secretAccessKey": "AWS_SECRET_ACCESS_KEY" }Fai clic su Crea secret.
Una volta creato il secret, annota il nome completo della risorsa:
Seleziona la scheda Panoramica.
Copia il valore di ID risorsa. Utilizza il formato seguente:
projects/1234567890/secrets/SECRET_NAME
gcloud CLI
Per creare un nuovo secret utilizzando gcloud CLI, trasmetti le credenziali
in formato JSON al comando gcloud secrets create:
printf '{
"accessKeyId": "AWS_ACCESS_KEY_ID",
"secretAccessKey": "AWS_SECRET_ACCESS_KEY"
}' | gcloud secrets create SECRET_NAME --data-file=-
Recupera il nome completo della risorsa del secret:
gcloud secrets describe SECRET_NAME
Prendi nota del valore di name nella risposta. Utilizza il formato seguente:
projects/1234567890/secrets/SECRET_NAME
Per saperne di più sulla creazione e gestione dei secret, consulta la documentazione di Secret Manager.
Trasferisci il segreto al comando di creazione del job
L'utilizzo di Secret Manager con Storage Transfer Service richiede l'utilizzo dell'API REST per creare un job di trasferimento.
Trasmetti il nome della risorsa Secret Manager come valore del campo
transferSpec.awsS3DataSource.credentialsSecret:
POST https://storagetransfer.googleapis.com/v1/transferJobs
{
"description": "Transfer with Secret Manager",
"status": "ENABLED",
"projectId": "PROJECT_ID",
"transferSpec": {
"awsS3DataSource": {
"bucketName": "S3_BUCKET_NAME",
"credentialsSecret": "SECRET_RESOURCE_ID",
},
"gcsDataSink": {
"bucketName": "GCS_BUCKET_NAME"
}
}
}
Autenticazione tramite identità federata
Per utilizzare l'identità federata per l'autenticazione su AWS:
Crea un nuovo ruolo IAM in AWS.
Seleziona Policy di attendibilità personalizzata come tipo di entità attendibile.
Copia e incolla la seguente policy di attendibilità:
{ "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Principal": { "Federated": "accounts.google.com" }, "Action": "sts:AssumeRoleWithWebIdentity", "Condition": { "StringEquals": { "accounts.google.com:sub": "SUBJECT_ID" } } } ] }Sostituisci SUBJECT_ID con
subjectIDdel account di servizio gestito da Google che viene creato automaticamente quando inizi a utilizzare Storage Transfer Service. Per recuperaresubjectID:Vai alla pagina di riferimento
googleServiceAccounts.get.Si apre un riquadro interattivo intitolato Prova questo metodo.
Nel riquadro, in Parametri della richiesta, inserisci il tuo ID progetto. Il progetto che specifichi qui deve essere il progetto che utilizzi per gestire Storage Transfer Service.
Fai clic su Esegui.
subjectIdè incluso nella risposta.
Concedi al ruolo una delle seguenti policy delle autorizzazioni:
- AmazonS3ReadOnlyAccess fornisce l'accesso di sola lettura all'origine. Consente i trasferimenti, ma non supporta l'eliminazione degli oggetti all'origine una volta completato il trasferimento.
- AmazonS3FullAccess se il trasferimento è configurato per eliminare gli oggetti nell'origine.
Un ruolo personalizzato con le autorizzazioni appropriate della tabella Autorizzazioni richieste. Il JSON per le autorizzazioni minime è simile all'esempio seguente:
Regioni AWS standard
{ "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Action": [ "s3:GetObject", "s3:ListBucket" ], "Resource": [ "arn:aws:s3:::S3_BUCKET_NAME/*", "arn:aws:s3:::S3_BUCKET_NAME" ] } ] }
Regioni AWS GovCloud
{ "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Action": [ "s3:GetObject", "s3:ListBucket" ], "Resource": [ "arn:aws-us-gov:s3:::S3_BUCKET_NAME/*", "arn:aws-us-gov:s3:::S3_BUCKET_NAME" ] } ] }
Assegna un nome al ruolo e crealo.
Una volta creato, visualizza i dettagli del ruolo per recuperare il nome della risorsa Amazon (ARN). Prendi nota di questo valore, che ha uno dei seguenti formati:
- Per le regioni AWS standard:
arn:aws:iam::AWS_ACCOUNT:role/AWS_ROLE_NAME - Per le regioni AWS GovCloud:
arn:aws-us-gov:iam::AWS_ACCOUNT:role/AWS_ROLE_NAME
La modalità di trasmissione dell'ARN del ruolo a Storage Transfer Service dipende dall'interfaccia che utilizzi per avviare il trasferimento.
Console Google Cloud
Inserisci l'ARN del ruolo direttamente nel modulo di creazione del job di trasferimento.
Consulta Crea trasferimenti per iniziare.
gcloud CLI
Crea un file JSON nel seguente formato:
{
"roleArn": "AWS_ROLE_ARN"
}
Passa la posizione del file al comando gcloud transfer jobs create
utilizzando il flag source-creds-file:
gcloud transfer jobs create s3://S3_BUCKET_NAME gs://GCS_BUCKET_NAME \
--source-creds-file=PATH/TO/ARNFILE.JSON
API REST
L'oggetto transferSpec deve contenere le informazioni sull'ARN del ruolo come parte dell'oggetto awsS3DataSource:
"transferSpec": {
"awsS3DataSource": {
"bucketName": "AWS_SOURCE_NAME",
"roleArn": "AWS_ROLE_ARN"
},
"gcsDataSink": {
"bucketName": "GCS_BUCKET_NAME"
}
}
Librerie client
Consulta gli esempi nella pagina Crea trasferimenti.
Limitazioni IP
Se il tuo progetto AWS utilizza limitazioni IP per l'accesso allo spazio di archiviazione, devi aggiungere gli intervalli IP utilizzati dai worker di Storage Transfer Service all'elenco di IP consentiti.
Poiché questi intervalli IP possono cambiare, pubblichiamo i valori attuali come file JSON a un indirizzo permanente:
https://www.gstatic.com/storage-transfer-service/ipranges.json
Quando viene aggiunto un nuovo intervallo al file, attendiamo almeno 7 giorni prima di utilizzare questo intervallo per le richieste di Storage Transfer Service.
Ti consigliamo di estrarre i dati da questo documento almeno una volta alla settimana per mantenere aggiornata la configurazione della sicurezza. Per un esempio di script Python che recupera intervalli IP da un file JSON, consulta questo articolo della documentazione di Virtual Private Cloud.
Per aggiungere questi intervalli come IP consentiti, utilizza il campo Condition in una policy del bucket, come descritto nella documentazione di AWS S3: Gestione dell'accesso in base a indirizzi IP specifici.