Este guia dá instruções sobre como criar um único cliente do Compute Engine e conectá-lo à sua instância gerenciada do Lustre no Google Cloud. O Lustre gerenciado aceita conexões de até 20.000 clientes.
Para ter um desempenho melhor, as VMs do Compute Engine do cliente precisam ser criadas na mesma zona da instância gerenciada do Lustre.
Permissões necessárias
Você precisa ter os seguintes papéis do IAM:
Administrador da instância do Compute (v1) (
roles/compute.instanceAdmin.v1) para criar uma VM do Compute Engine.Administrador do Compute (
roles/compute.admin) ou Administrador de segurança do Compute (roles/compute.securityAdmin) para criar uma regra de firewall.Usuário do túnel protegido pelo IAP (
roles/iap.tunnelResourceAccessor) para SSH em uma VM do Compute Engine usando o Identity-Aware Proxy.
Para uma lista completa das permissões concedidas por cada papel, consulte a Referência de papéis do IAM.
Criar uma VM do Compute Engine
Siga as instruções para criar uma VM do Compute Engine usando uma das seguintes famílias de imagens do Google Cloud:
- Rocky Linux 8
- Rocky Linux 9
- Red Hat Enterprise Linux (RHEL) 9
- Ubuntu 20.04 LTS, v20250213 ou mais recente. O Ubuntu 20.04 atingiu o fim do suporte (EOS) e não pode ser selecionado no console do Google Cloud .
- Ubuntu 22.04 LTS, v20250128 ou mais recente
- Ubuntu 24.04 LTS, somente para VMs Arm.
Se você estiver executando um kernel personalizado do Ubuntu 22.04 ou 24.04, o suporte para DKMS está disponível.
Tipos de máquinas e rede
É possível escolher qualquer tipo de máquina e disco de inicialização. Recomendamos pelo menos um tipo de máquina c2-standard-4.
A capacidade de processamento da rede pode ser afetada pela escolha do tipo de máquina. Em geral, para conseguir a melhor capacidade de processamento:
- Aumentar o número de vCPUs. A largura de banda de saída máxima por instância geralmente é de 2 Gbps por vCPU, até o máximo do tipo de máquina.
- Selecione uma série de máquinas que ofereça suporte a limites de entrada e saída mais altos. Por exemplo, as instâncias C2 com rede Tier_1 oferecem suporte a até 100 Gbps de largura de banda de saída. As instâncias C3 com rede Tier_1 oferecem suporte a até 200 Gbps.
- Ative o desempenho de rede por VM de Tier_1 com tipos de máquinas maiores.
Para informações detalhadas, consulte Largura de banda de rede.
criar a VM
Console do Google Cloud
No console do Google Cloud , acesse a página Instâncias de VM.
Selecione o projeto e clique em Continuar.
Clique em Criar instância.
Insira um nome para a VM em Nome. Saiba mais em Convenção de nomenclatura de recursos.
Selecione a Região e a Zona nos menus suspensos para essa VM. A VM precisa estar na mesma zona que a instância do Lustre gerenciado.
Selecione uma Configuração de máquina para sua VM na lista.
Clique em SO e armazenamento na navegação à esquerda.
Em Sistema operacional e armazenamento, clique em Mudar.
No menu suspenso Sistema operacional, selecione uma das seguintes opções:
- Imagem de VM de HPC para Rocky 8
- Rocky Linux para Rocky 9
- Red Hat Enterprise Linux para RHEL 9
- Ubuntu para Ubuntu 22.04 LTS ou 24.04 LTS
No menu suspenso Versão, selecione uma das seguintes opções:
- HPC Rocky Linux 8
- Rocky Linux 9
- Red Hat Enterprise Linux 9
- Ubuntu 22.04 LTS
- Ubuntu 24.04 LTS
Selecione a versão x86/64 ou Arm64 para corresponder ao tipo de máquina. O Ubuntu 24.04 LTS só é compatível com VMs Arm.
Para confirmar as opções do disco de inicialização, clique em Selecionar.
Na navegação à esquerda, clique em Rede.
Em Interfaces de rede, selecione a rede VPC criada em Configurar uma rede VPC.
Na navegação à esquerda, clique em Segurança.
Em Escopos de acesso, selecione Permitir acesso total a todas as APIs do Cloud:
No painel de navegação à esquerda, clique em Avançado.
Em Automação, insira o seguinte no campo Script de inicialização:
#!/bin/bash sudo apt-get update sudo apt-get install -y lustre-client-modules-$(uname -r)Esse script garante que os pacotes do cliente Lustre sejam atualizados se o kernel do Ubuntu for atualizado.
Para criar e iniciar a VM, clique em Criar.
gcloud
Use a ferramenta de linha de comando gcloud para criar uma VM:
HPC Rocky Linux 8
Crie uma VM usando o comando gcloud compute instances create.
É possível atualizar o tipo de máquina e as especificações de disco antes de
executar o comando.
gcloud compute instances create VM_NAME \
--project=PROJECT_ID \
--zone=LOCATION \
--machine-type=c2d-standard-112 \
--scopes="https://www.googleapis.com/auth/cloud-platform" \
--network-interface=stack-type=IPV4_ONLY,subnet=NETWORK_NAME,nic-type=GVNIC \
--network-performance-configs=total-egress-bandwidth-tier=TIER_1 \
--create-disk=auto-delete=yes,boot=yes,device-name=VM_NAME,\
image-project=cloud-hpc-image-public,image-family=hpc-rocky-linux-8,\
mode=rw,size=100,type=pd-balanced
Rocky Linux 9
Crie uma VM usando o comando gcloud compute instances create.
É possível atualizar o tipo de máquina e as especificações de disco antes de
executar o comando.
gcloud compute instances create VM_NAME \
--project=PROJECT_ID \
--zone=LOCATION \
--machine-type=c2d-standard-112 \
--scopes="https://www.googleapis.com/auth/cloud-platform" \
--network-interface=stack-type=IPV4_ONLY,subnet=NETWORK_NAME,nic-type=GVNIC \
--network-performance-configs=total-egress-bandwidth-tier=TIER_1 \
--create-disk=auto-delete=yes,boot=yes,device-name=VM_NAME,\
image-project=rocky-linux-cloud,image-family=rocky-linux-9,\
mode=rw,size=100,type=pd-balanced
RHEL 9
Crie uma VM usando o comando gcloud compute instances create.
É possível atualizar o tipo de máquina e as especificações de disco antes de
executar o comando.
gcloud compute instances create VM_NAME \
--project=PROJECT_ID \
--zone=LOCATION \
--machine-type=c2d-standard-112 \
--scopes="https://www.googleapis.com/auth/cloud-platform" \
--network-interface=stack-type=IPV4_ONLY,subnet=NETWORK_NAME,nic-type=GVNIC \
--network-performance-configs=total-egress-bandwidth-tier=TIER_1 \
--create-disk=auto-delete=yes,boot=yes,device-name=VM_NAME,\
image-project=rhel-cloud,image-family=rhel-9,\
mode=rw,size=100,type=pd-balanced
Ubuntu 20.04 LTS
Crie uma VM usando o comando gcloud compute instances create.
É possível atualizar o tipo de máquina e as especificações de disco antes de
executar o comando.
gcloud compute instances create VM_NAME \
--project=PROJECT_ID \
--zone=LOCATION \
--machine-type=c2d-standard-112 \
--scopes="https://www.googleapis.com/auth/cloud-platform" \
--network-interface=stack-type=IPV4_ONLY,subnet=NETWORK_NAME,nic-type=GVNIC \
--network-performance-configs=total-egress-bandwidth-tier=TIER_1 \
--create-disk=auto-delete=yes,boot=yes,device-name=VM_NAME,\
image=projects/ubuntu-os-cloud/global/images/ubuntu-2004-focal-v20250606,\
mode=rw,size=100,type=pd-balanced \
--metadata=startup-script='#!/bin/bash
sudo apt-get update
sudo apt-get install -y lustre-client-modules-$(uname -r)'
Ubuntu 22.04 LTS
Crie uma VM usando o comando gcloud compute instances create.
É possível atualizar o tipo de máquina e as especificações de disco antes de
executar o comando.
gcloud compute instances create VM_NAME \
--project=PROJECT_ID \
--zone=LOCATION \
--machine-type=c2d-standard-112 \
--scopes="https://www.googleapis.com/auth/cloud-platform" \
--network-interface=stack-type=IPV4_ONLY,subnet=NETWORK_NAME,nic-type=GVNIC \
--network-performance-configs=total-egress-bandwidth-tier=TIER_1 \
--create-disk=auto-delete=yes,boot=yes,device-name=VM_NAME,\
image-project=ubuntu-os-cloud,image-family=ubuntu-2204-lts,\
mode=rw,size=100,type=pd-balanced \
--metadata=startup-script='#!/bin/bash
sudo apt-get update
sudo apt-get install -y lustre-client-modules-$(uname -r)'
Ubuntu 24.04 LTS
Crie uma VM usando o comando gcloud compute instances create.
O Lustre gerenciado só é compatível com o Ubuntu 24.04 LTS em VMs Arm.
É possível atualizar o tipo de máquina e as especificações de disco antes de executar o comando.
gcloud compute instances create VM_NAME \
--project=PROJECT_ID \
--zone=LOCATION \
--machine-type=c4a-standard-32 \
--scopes="https://www.googleapis.com/auth/cloud-platform" \
--network-interface=network-tier=PREMIUM,nic-type=GVNIC,stack-type=IPV4_ONLY,subnet=NETWORK_NAME \
--network-performance-configs=total-egress-bandwidth-tier=TIER_1 \
--create-disk=auto-delete=yes,boot=yes,device-name=VM_NAME,\
image-project=ubuntu-os-cloud,image-family=ubuntu-2404-lts-arm64,mode=rw,size=100,type=hyperdisk-balanced
Para mais informações sobre as opções disponíveis, consulte a documentação do Compute Engine.
Criar uma regra de firewall que permita o SSH
Para fazer SSH na VM do Compute Engine, primeiro crie uma regra de firewall que permita o acesso à porta TCP 22 na VM.
VMs sem IPs públicos
Ao usar SSH em VMs sem IPs externos, o botão SSH do console Google Cloud
e o gcloud compute ssh usam o
Identity-Aware Proxy (IAP) para se conectar.
Para essas conexões, siga as instruções em
Criar a regra de firewall para permitir
a entrada apenas do intervalo de origem do IAP, que é sempre
35.235.240.0/20. Isso aumenta a segurança porque não expõe a porta 22 à
Internet em geral.
VMs com IPs públicos
Se você atribuiu um IP público à sua VM do Compute Engine, o botão Google Cloud SSH do console pode tentar uma conexão direta, ignorando o IAP.
O IP de origem dessa conexão direta não é o intervalo do IAP,
mas um de um grande pool de endereços IP do Google. Para permitir essa conexão, é necessário um intervalo de endereços de origem mais amplo, por exemplo, 0.0.0.0/0 (qualquer origem).
Se a VM tiver um IP público, recomendamos que você configure a regra de firewall
para permitir o SSH apenas do intervalo do IAP (35.235.240.0/20).
Em seguida, use gcloud compute ssh para se conectar, especificando a flag --tunnel-through-iap.
Se você precisar atribuir um IP público e se conectar pelo console do Google Cloud ,
especifique 0.0.0.0/0 como o valor do intervalo IPv4 de origem.
Crie a regra de firewall
Console do Google Cloud
Crie uma regra de firewall que permita o SSH.
No console do Google Cloud , acesse a página Políticas de firewall.
Clique em Criar regra de firewall.
Insira um Nome para a regra.
Em Rede, selecione a rede VPC que você criou anteriormente.
Selecione Entrada como a Direção de tráfego e Permitir como a Ação se houver correspondência.
No menu suspenso Destinos, selecione Todas as instâncias na rede.
No campo Intervalos IPv4 de origem, insira
35.235.240.0/20.Em Protocolos e portas, selecione Protocolos e portas especificados.
Selecione TCP e insira
22no campo Portas.Clique em Criar.
gcloud
Crie uma regra de firewall que permita o SSH.
gcloud compute firewall-rules create FIREWALL_RULE_NAME \
--allow=tcp:22 \
--network=NETWORK_NAME \
--source-ranges=35.235.240.0/20 \
--project=PROJECT_ID
SSH na VM do Compute Engine
Depois que a regra de firewall for criada, você poderá acessar a VM por SSH:
Console do Google Cloud
No console do Google Cloud , acesse a página Instâncias de VM.
Na tabela de instâncias, encontre a linha da sua instância e clique em SSH na coluna Conectar.
Se for preciso, clique em Autorizar para permitir a conexão.
gcloud
gcloud compute ssh VM_NAME \
--zone=LOCATION \
--project=PROJECT_ID \
--tunnel-through-iap
Instalar os pacotes de cliente do Lustre
Os pacotes de cliente do Lustre estão hospedados no projeto lustre-client-binaries do Artifact Registry.
Configurar o acesso ao repositório
Para configurar sua VM para instalar do Artifact Registry, siga estas instruções.
HPC Rocky Linux 8
Execute gcloud beta artifacts print-settings e redirecione a saída para bash para executar
os comandos necessários:
gcloud beta artifacts print-settings yum \
--repository=lustre-client-rocky-8 \
--location=us --project=lustre-client-binaries | sudo bash
Rocky Linux 9
Execute gcloud beta artifacts print-settings e redirecione a saída para bash para executar
os comandos necessários:
gcloud beta artifacts print-settings yum \
--repository=lustre-client-rocky-9 \
--location=us --project=lustre-client-binaries | sudo bash
RHEL 9
Execute gcloud beta artifacts print-settings e redirecione a saída para bash para executar
os comandos necessários:
gcloud beta artifacts print-settings yum \
--repository=lustre-client-rocky-9 \
--location=us --project=lustre-client-binaries | sudo bash
O RHEL 9 usa o mesmo repositório lustre-client-rocky-9 do Rocky Linux 9.
Ubuntu 20.04 LTS
Instale as chaves de assinatura do repositório Apt:
curl -fsSL https://packages.cloud.google.com/apt/doc/apt-key.gpg \ | sudo gpg --dearmor -o /usr/share/keyrings/google-cloud.gpg curl -fsSL https://us-apt.pkg.dev/doc/repo-signing-key.gpg \ | sudo gpg --dearmor -o /usr/share/keyrings/lustre-client.gpgConfigure a VM para acessar pacotes do Artifact Registry:
echo 'deb [signed-by=/usr/share/keyrings/google-cloud.gpg] http://packages.cloud.google.com/apt apt-transport-artifact-registry-stable main' \ | sudo tee /etc/apt/sources.list.d/artifact-registry.listAtualize o apt e instale o pacote
apt-transport-artifact-registry:sudo apt update && sudo apt install apt-transport-artifact-registryConfigure o Apt para buscar pacotes do repositório:
echo "deb [signed-by=/usr/share/keyrings/lustre-client.gpg] ar+https://us-apt.pkg.dev/projects/lustre-client-binaries lustre-client-ubuntu-focal main" \ | sudo tee -a /etc/apt/sources.list.d/artifact-registry.listAtualize as fontes do repositório:
sudo apt updateSe o comando retornar um erro, verifique se a VM do Compute Engine foi criada com o escopo de acesso que permite acesso total a todas as APIs do Cloud. Consulte Como conceder acesso a instâncias do Compute Engine para mais detalhes.
Mais informações sobre esses comandos estão disponíveis na documentação do Artifact Registry: Configurar VMs para instalar pacotes Debian.
Ubuntu 22.04 LTS
Instale as chaves de assinatura do repositório Apt:
curl -fsSL https://packages.cloud.google.com/apt/doc/apt-key.gpg \ | sudo gpg --dearmor -o /usr/share/keyrings/google-cloud.gpg curl -fsSL https://us-apt.pkg.dev/doc/repo-signing-key.gpg \ | sudo gpg --dearmor -o /usr/share/keyrings/lustre-client.gpgConfigure a VM para acessar pacotes do Artifact Registry:
echo 'deb [signed-by=/usr/share/keyrings/google-cloud.gpg] http://packages.cloud.google.com/apt apt-transport-artifact-registry-stable main' \ | sudo tee /etc/apt/sources.list.d/artifact-registry.listAtualize o apt e instale o pacote
apt-transport-artifact-registry:sudo apt update && sudo apt install apt-transport-artifact-registryConfigure o Apt para buscar pacotes do repositório:
echo "deb [signed-by=/usr/share/keyrings/lustre-client.gpg] ar+https://us-apt.pkg.dev/projects/lustre-client-binaries lustre-client-ubuntu-jammy main" \ | sudo tee -a /etc/apt/sources.list.d/artifact-registry.listAtualize as fontes do repositório:
sudo apt updateSe o comando retornar um erro, verifique se a VM do Compute Engine foi criada com o escopo de acesso que permite acesso total a todas as APIs do Cloud. Consulte Como conceder acesso a instâncias do Compute Engine para mais detalhes.
Mais informações sobre esses comandos estão disponíveis na documentação do Artifact Registry: Configurar VMs para instalar pacotes Debian.
Ubuntu 24.04 LTS
Instale as chaves de assinatura do repositório Apt:
curl -fsSL https://packages.cloud.google.com/apt/doc/apt-key.gpg \ | sudo gpg --dearmor -o /usr/share/keyrings/google-cloud.gpg curl -fsSL https://us-apt.pkg.dev/doc/repo-signing-key.gpg \ | sudo gpg --dearmor -o /usr/share/keyrings/lustre-client.gpgConfigure a VM para acessar pacotes do Artifact Registry:
echo 'deb [signed-by=/usr/share/keyrings/google-cloud.gpg] http://packages.cloud.google.com/apt apt-transport-artifact-registry-stable main' \ | sudo tee /etc/apt/sources.list.d/artifact-registry.listAtualize o apt e instale o pacote
apt-transport-artifact-registry:sudo apt update && sudo apt install apt-transport-artifact-registryConfigure o Apt para buscar pacotes do repositório:
echo "deb [signed-by=/usr/share/keyrings/lustre-client.gpg] ar+https://us-apt.pkg.dev/projects/lustre-client-binaries lustre-client-ubuntu-noble main" \ | sudo tee -a /etc/apt/sources.list.d/artifact-registry.listAtualize as fontes do repositório:
sudo apt updateSe o comando retornar um erro, verifique se a VM do Compute Engine foi criada com o escopo de acesso que permite acesso total a todas as APIs do Cloud. Consulte Como conceder acesso a instâncias do Compute Engine para mais detalhes.
Mais informações sobre esses comandos estão disponíveis na documentação do Artifact Registry: Configurar VMs para instalar pacotes Debian.
Instalar os pacotes de cliente do Lustre
Siga as instruções para instalar os pacotes de cliente do Lustre.
HPC Rocky Linux 8
sudo yum -y --enablerepo=lustre-client-rocky-8 install kmod-lustre-client
sudo yum -y --enablerepo=lustre-client-rocky-8 install lustre-client
Rocky Linux 9
sudo yum -y --enablerepo=lustre-client-rocky-9 install kmod-lustre-client
sudo yum -y --enablerepo=lustre-client-rocky-9 install lustre-client
RHEL 9
sudo yum -y --enablerepo=lustre-client-rocky-9 install kmod-lustre-client
sudo yum -y --enablerepo=lustre-client-rocky-9 install lustre-client
Ubuntu 20.04 LTS
Execute os seguintes comandos:
sudo apt install lustre-client-modules-$(uname -r)/lustre-client-ubuntu-focal
sudo apt install lustre-client-utils/lustre-client-ubuntu-focal
Os pacotes de cliente do Lustre são específicos da versão do kernel. Se você não incluiu o script de inicialização ao criar a instância do Compute Engine e a versão do kernel do Ubuntu mudar devido a uma atualização automática, será necessário executar esses comandos novamente para baixar os pacotes de cliente do Lustre adequados.
Ubuntu 22.04 LTS
Execute os seguintes comandos:
sudo apt install lustre-client-modules-$(uname -r)/lustre-client-ubuntu-jammy
sudo apt install lustre-client-utils/lustre-client-ubuntu-jammy
Os pacotes de cliente do Lustre são específicos da versão do kernel. Se a versão do kernel do Ubuntu mudar devido a uma atualização automática, execute esses comandos novamente para baixar os pacotes de cliente do Lustre adequados.
Ubuntu 24.04 LTS
Execute os seguintes comandos:
sudo apt install lustre-client-modules-$(uname -r)/lustre-client-ubuntu-noble
sudo apt install lustre-client-utils/lustre-client-ubuntu-noble
Os pacotes de cliente do Lustre são específicos da versão do kernel. Se você não incluiu o script de inicialização ao criar a instância do Compute Engine e a versão do kernel do Ubuntu mudar devido a uma atualização automática, será necessário executar esses comandos novamente para baixar os pacotes de cliente do Lustre adequados.
Carregar o módulo do kernel do Lustre
Depois que os pacotes de cliente forem instalados, execute o comando a seguir para carregar o módulo do kernel do Lustre:
sudo modprobe lustre
(Opcional) Configure a LNet para instâncias gke-support-enabled
Esta seção se aplica apenas a clientes do Compute Engine que se conectam a instâncias gerenciadas do Lustre com --gke-support-enabled especificado.
Se a instância do Lustre gerenciado não foi criada com a opção Suporte do GKE, pule esta seção.
Configurar o LNet para usar accept_port 6988
Se a instância gerenciada do Lustre tiver
--gke-support-enabled definido como "true" e você estiver se conectando de
uma VM do Compute Engine:
- Crie ou edite
/etc/modprobe.d/lnet.conf. - Adicione a linha abaixo:
options lnet accept_port=6988
- Reinicialize a VM:
sudo reboot
Montar uma instância do Managed Lustre
Monte a instância do Managed Lustre.
Para uma montagem rápida que não precisa persistir em reinicializações, use o comando
mount.Para montar automaticamente sempre que a VM for inicializada, use a opção
/etc/fstab.
Em ambos os casos, o diretório a ser usado como ponto de montagem precisa existir antes da execução do comando.
Para recuperar o endereço IP e o nome do sistema de arquivos da sua instância, use o comando
gcloud lustre instances describe ou acesse a página
Instâncias no console do Google Cloud .
gcloud lustre instances describe INSTANCE_NAME \
--location=ZONE
mount
Na linha de comando da VM do Compute Engine, use o comando mount para
montar manualmente a instância do Managed Lustre:
sudo mkdir -p ~/MOUNT_DIR
sudo mount -t lustre IP_ADDRESS:/FILESYSTEM_NAME ~/MOUNT_DIR
Em que:
IP_ADDRESS é o endereço IP da instância do Managed Lustre.
FILESYSTEM_NAME é o nome do sistema de arquivos da instância.
~/MOUNT_DIR é o diretório de ponto de montagem local que você criou.
/etc/fstab
Na linha de comando da VM do Compute Engine:
Crie um diretório local para o ponto de montagem:
sudo mkdir -p ~/MOUNT_DIRAbra o arquivo
/etc/fstabpara edição e adicione a seguinte linha:IP_ADDRESS@tcp:/FILESYSTEM_NAME ~/MOUNT_DIR lustre defaults,_netdev 0 0Em que:
IP_ADDRESS é o endereço IP da instância do Managed Lustre.
FILESYSTEM_NAME é o nome do sistema de arquivos da instância.
~/MOUNT_DIR é o diretório de ponto de montagem local que você criou.
lustre defaults,_netdev 0 0são as opções de montagem recomendadas:lustreespecifica o tipo de sistema de arquivos como Lustre.defaultsusa o conjunto padrão de opções de montagem._netdevinstrui o sistema a aguardar a conectividade de rede antes de tentar montar o sistema de arquivos.0 0controla a ordem de despejo e verificação do sistema de arquivos.
Salve e saia do arquivo
/etc/fstab.Execute o seguinte comando para ativar todos os sistemas de arquivos listados em
/etc/fstab:sudo mount -a
Sua instância do Managed Lustre está montada. Ele será montado automaticamente sempre que a VM do Compute Engine for inicializada.
Se o comando de montagem falhar, consulte as instruções de Solução de problemas para diagnosticar o problema.
Como usar uma NIC secundária
Se você estiver montando a instância do Managed Lustre usando a VPC de uma NIC secundária de uma instância do Compute Engine que tem várias NICs, use as seguintes instruções:
Configure o LNET para usar a placa de rede correta.
Copie o conteúdo de
/etc/lnet.confpara um arquivo chamado/etc/modprobe.d/lustre.confna VM. Adicione a seguinte linha ao arquivo, substituindoeth1pelo nome da NIC secundária:options lnet networks="tcp0(eth1)"Atualize o módulo do kernel do Lustre:
lustre_rmmod modprobe lustreVerifique se o LNET está configurado para usar a segunda NIC. A saída do comando a seguir deve ser a segunda NIC:
lctl list_nidsAdicione uma rota estática ao bloco CIDR da instância do Lustre gerenciado pelo gateway da NIC secundária.
Para encontrar o gateway da NIC secundária, execute o comando
route.Para encontrar o bloco CIDR da instância do Managed Lustre:
- Para conferir os detalhes da instância, execute o comando
gcloud lustre instances describe. - Pegue o endereço fornecido no campo
mountPoint. - Converta o endereço IP em um bloco CIDR que o contenha, com um tamanho de 24.
- Para conferir os detalhes da instância, execute o comando
Por exemplo, se o bloco CIDR da instância do Lustre gerenciado for
172.16.0.0/24, a NIC secundária foreth1e o gateway for10.128.0.1, execute o seguinte comando:ip route add 172.16.0.0/24 via 10.128.0.1 dev eth1A rota adicionada não vai persistir se a instância do Compute Engine for reinicializada. A forma de tornar isso persistente é específica para a família de SO que você está usando.
Acessar a instância do Managed Lustre
Sua instância gerenciada do Lustre agora está montada na VM do Compute Engine e pode ser lida/gravada usando a sintaxe POSIX padrão, com algumas exceções.
Execute o seguinte comando para verificar o diretório montado:
sudo lfs df -h ~/MOUNT_DIR
É possível testar a cópia e a gravação de arquivos com os seguintes comandos:
# sample file copy/file write
sudo dd if=/dev/zero of=~/MOUNT_DIR/bigfile1 bs=1M count=8000
sudo dd if=/dev/urandom of=~/MOUNT_DIR/bigfile1 bs=1M count=1000
Para confirmar o uso do espaço em disco:
sudo lfs df -h ~/MOUNT_DIR
Desmontar a instância
A instância gerenciada do Lustre pode ser desmontada usando o seguinte comando:
sudo umount ~/MOUNT_DIR