이 가이드에서는 단일 Compute Engine 클라이언트를 만들고 Google Cloud 관리 Lustre 인스턴스에 연결하는 방법을 설명합니다. Managed Lustre는 최대 20,000개의 클라이언트의 연결을 지원합니다.
성능 향상을 위해 클라이언트 Compute Engine VM은 관리형 Lustre 인스턴스와 동일한 영역에 만들어야 합니다.
필수 권한
다음 IAM 역할이 있어야 합니다.
Compute Engine VM을 만들 수 있는 Compute 인스턴스 관리자 (v1) (
roles/compute.instanceAdmin.v1)Compute 관리자 (
roles/compute.admin) 또는 Compute 보안 관리자(roles/compute.securityAdmin)가 방화벽 규칙을 만듭니다.IAP 보안 터널 사용자(
roles/iap.tunnelResourceAccessor): IAP(Identity-Aware Proxy)를 사용하여 Compute Engine VM에 SSH로 연결
각 역할별로 부여되는 권한의 전체 목록은 IAM 역할 참조를 참고하세요.
Compute Engine VM 만들기
다음 Google Cloud 이미지 계열 중 하나를 사용하여 Compute Engine VM을 만드는 안내를 따르세요.
- Rocky Linux 8
- Rocky Linux 9
- Red Hat Enterprise Linux (RHEL) 9
- Ubuntu 20.04 LTS, v20250213 이상 Ubuntu 20.04는 지원 종료 (EOS)되었으며 Google Cloud 콘솔에서 선택할 수 없습니다.
- Ubuntu 22.04 LTS, v20250128 이상
- Ubuntu 24.04 LTS(Arm VM만 해당)
맞춤 Ubuntu 22.04 또는 24.04 커널을 실행하는 경우 DKMS 지원이 제공됩니다.
머신 유형 및 네트워킹
머신 유형과 부팅 디스크는 원하는 대로 선택할 수 있습니다. c2-standard-4 머신 유형 이상을 사용하는 것이 좋습니다.
네트워크 처리량은 선택한 머신 유형에 따라 달라질 수 있습니다. 일반적으로 최상의 처리량을 얻으려면 다음을 충족해야 합니다.
- vCPU의 수를 늘립니다. 인스턴스당 최대 이그레스 대역폭은 일반적으로 vCPU당 2Gbps이며 머신 유형 최대치까지입니다.
- 더 높은 인그레스 및 이그레스 한도를 지원하는 머신 시리즈를 선택합니다. 예를 들어 Tier_1 네트워킹을 사용하는 C2 인스턴스는 최대 100Gbps의 이그레스 대역폭을 지원합니다. Tier_1 네트워킹을 사용하는 C3 인스턴스는 최대 200Gbps를 지원합니다.
- 더 큰 머신 유형을 사용하여 VM당 Tier_1 네트워킹 성능을 사용 설정합니다.
자세한 내용은 네트워크 대역폭을 참고하세요.
VM 만들기
Google Cloud 콘솔
Google Cloud 콘솔에서 VM 인스턴스 페이지로 이동합니다.
프로젝트를 선택하고 계속을 클릭합니다.
인스턴스 만들기를 클릭합니다.
이름에 VM의 이름을 입력합니다. 자세한 내용은 리소스 이름 지정 규칙을 참조하세요.
드롭다운 메뉴에서 이 VM의 리전과 영역을 선택합니다. VM은 관리형 Lustre 인스턴스와 동일한 영역에 있어야 합니다.
목록에서 VM의 머신 구성을 선택합니다.
왼쪽 탐색 메뉴에서 OS 및 스토리지를 클릭합니다.
운영체제 및 스토리지에서 변경을 클릭합니다.
운영체제 드롭다운에서 다음 중 하나를 선택합니다.
- Rocky 8용 HPC VM 이미지
- Rocky 9용 Rocky Linux
- RHEL 9용 Red Hat Enterprise Linux
- Ubuntu 22.04 LTS 또는 24.04 LTS의 경우 Ubuntu
버전 드롭다운에서 다음 중 하나를 선택합니다.
- HPC Rocky Linux 8
- Rocky Linux 9
- Red Hat Enterprise Linux 9
- Ubuntu 22.04 LTS
- Ubuntu 24.04 LTS
머신 유형에 맞게 x86/64 버전 또는 Arm64 버전을 선택합니다. Ubuntu 24.04 LTS는 Arm VM에서만 지원됩니다.
부팅 디스크 옵션을 확인하려면 선택을 클릭합니다.
왼쪽 탐색에서 네트워킹을 클릭합니다.
네트워크 인터페이스에서 VPC 네트워크 구성에서 만든 VPC 네트워크를 선택합니다.
왼쪽 탐색 메뉴에서 보안을 클릭합니다.
액세스 범위에서 모든 Cloud API에 대한 전체 액세스 허용을 선택합니다.
왼쪽 탐색 메뉴에서 고급을 클릭합니다.
자동화의 시작 스크립트 필드에 다음을 입력합니다.
#!/bin/bash sudo apt-get update sudo apt-get install -y lustre-client-modules-$(uname -r)이 스크립트는 Ubuntu 커널이 업그레이드되는 경우 Lustre 클라이언트 패키지가 업데이트되도록 합니다.
만들기를 클릭하여 VM을 만들고 시작합니다.
gcloud
gcloud 명령줄 도구를 사용하여 VM을 만듭니다.
HPC Rocky Linux 8
gcloud compute instances create 명령어를 사용하여 VM을 만듭니다.
명령어를 실행하기 전에 머신 유형과 디스크 사양을 업데이트할 수 있습니다.
gcloud compute instances create VM_NAME \
--project=PROJECT_ID \
--zone=LOCATION \
--machine-type=c2d-standard-112 \
--scopes="https://www.googleapis.com/auth/cloud-platform" \
--network-interface=stack-type=IPV4_ONLY,subnet=NETWORK_NAME,nic-type=GVNIC \
--network-performance-configs=total-egress-bandwidth-tier=TIER_1 \
--create-disk=auto-delete=yes,boot=yes,device-name=VM_NAME,\
image-project=cloud-hpc-image-public,image-family=hpc-rocky-linux-8,\
mode=rw,size=100,type=pd-balanced
Rocky Linux 9
gcloud compute instances create 명령어를 사용하여 VM을 만듭니다.
명령어를 실행하기 전에 머신 유형과 디스크 사양을 업데이트할 수 있습니다.
gcloud compute instances create VM_NAME \
--project=PROJECT_ID \
--zone=LOCATION \
--machine-type=c2d-standard-112 \
--scopes="https://www.googleapis.com/auth/cloud-platform" \
--network-interface=stack-type=IPV4_ONLY,subnet=NETWORK_NAME,nic-type=GVNIC \
--network-performance-configs=total-egress-bandwidth-tier=TIER_1 \
--create-disk=auto-delete=yes,boot=yes,device-name=VM_NAME,\
image-project=rocky-linux-cloud,image-family=rocky-linux-9,\
mode=rw,size=100,type=pd-balanced
RHEL 9
gcloud compute instances create 명령어를 사용하여 VM을 만듭니다.
명령어를 실행하기 전에 머신 유형과 디스크 사양을 업데이트할 수 있습니다.
gcloud compute instances create VM_NAME \
--project=PROJECT_ID \
--zone=LOCATION \
--machine-type=c2d-standard-112 \
--scopes="https://www.googleapis.com/auth/cloud-platform" \
--network-interface=stack-type=IPV4_ONLY,subnet=NETWORK_NAME,nic-type=GVNIC \
--network-performance-configs=total-egress-bandwidth-tier=TIER_1 \
--create-disk=auto-delete=yes,boot=yes,device-name=VM_NAME,\
image-project=rhel-cloud,image-family=rhel-9,\
mode=rw,size=100,type=pd-balanced
Ubuntu 20.04 LTS
gcloud compute instances create 명령어를 사용하여 VM을 만듭니다.
명령어를 실행하기 전에 머신 유형과 디스크 사양을 업데이트할 수 있습니다.
gcloud compute instances create VM_NAME \
--project=PROJECT_ID \
--zone=LOCATION \
--machine-type=c2d-standard-112 \
--scopes="https://www.googleapis.com/auth/cloud-platform" \
--network-interface=stack-type=IPV4_ONLY,subnet=NETWORK_NAME,nic-type=GVNIC \
--network-performance-configs=total-egress-bandwidth-tier=TIER_1 \
--create-disk=auto-delete=yes,boot=yes,device-name=VM_NAME,\
image=projects/ubuntu-os-cloud/global/images/ubuntu-2004-focal-v20250606,\
mode=rw,size=100,type=pd-balanced \
--metadata=startup-script='#!/bin/bash
sudo apt-get update
sudo apt-get install -y lustre-client-modules-$(uname -r)'
Ubuntu 22.04 LTS
gcloud compute instances create 명령어를 사용하여 VM을 만듭니다.
명령어를 실행하기 전에 머신 유형과 디스크 사양을 업데이트할 수 있습니다.
gcloud compute instances create VM_NAME \
--project=PROJECT_ID \
--zone=LOCATION \
--machine-type=c2d-standard-112 \
--scopes="https://www.googleapis.com/auth/cloud-platform" \
--network-interface=stack-type=IPV4_ONLY,subnet=NETWORK_NAME,nic-type=GVNIC \
--network-performance-configs=total-egress-bandwidth-tier=TIER_1 \
--create-disk=auto-delete=yes,boot=yes,device-name=VM_NAME,\
image-project=ubuntu-os-cloud,image-family=ubuntu-2204-lts,\
mode=rw,size=100,type=pd-balanced \
--metadata=startup-script='#!/bin/bash
sudo apt-get update
sudo apt-get install -y lustre-client-modules-$(uname -r)'
Ubuntu 24.04 LTS
gcloud compute instances create 명령어를 사용하여 VM을 만듭니다.
관리형 Lustre는 Arm VM에서 Ubuntu 24.04 LTS만 지원합니다.
명령어를 실행하기 전에 머신 유형과 디스크 사양을 업데이트할 수 있습니다.
gcloud compute instances create VM_NAME \
--project=PROJECT_ID \
--zone=LOCATION \
--machine-type=c4a-standard-32 \
--scopes="https://www.googleapis.com/auth/cloud-platform" \
--network-interface=network-tier=PREMIUM,nic-type=GVNIC,stack-type=IPV4_ONLY,subnet=NETWORK_NAME \
--network-performance-configs=total-egress-bandwidth-tier=TIER_1 \
--create-disk=auto-delete=yes,boot=yes,device-name=VM_NAME,\
image-project=ubuntu-os-cloud,image-family=ubuntu-2404-lts-arm64,mode=rw,size=100,type=hyperdisk-balanced
사용 가능한 옵션에 대한 자세한 내용은 Compute Engine 문서를 참고하세요.
SSH를 허용하는 방화벽 규칙 만들기
Compute Engine VM에 SSH로 연결하려면 먼저 VM의 TCP 포트 22에 대한 액세스를 허용하는 방화벽 규칙을 만들어야 합니다.
공개 IP가 없는 VM
외부 IP가 없는 VM에 SSH로 연결할 때 Google Cloud 콘솔 SSH 버튼과 gcloud compute ssh 모두 IAP (Identity-Aware Proxy)를 사용하여 연결합니다.
이러한 연결의 경우 방화벽 규칙 만들기의 안내에 따라 항상 35.235.240.0/20인 IAP 소스 범위의 인그레스만 허용하는 방화벽 규칙을 만듭니다. 이렇게 하면 포트 22가 더 넓은 인터넷에 노출되지 않아 보안이 강화됩니다.
공개 IP가 있는 VM
Compute Engine VM에 공개 IP를 할당한 경우Google Cloud 콘솔 SSH 버튼이 IAP를 우회하여 직접 연결을 시도할 수 있습니다.
이 직접 연결의 소스 IP는 IAP 범위가 아니라 대규모 Google IP 주소 풀 중 하나입니다. 이 연결을 허용하려면 더 넓은 소스 주소 범위(예: 0.0.0.0/0(모든 소스))가 필요합니다.
VM에 공용 IP가 있는 경우 IAP 범위 (35.235.240.0/20)에서만 SSH를 허용하도록 방화벽 규칙을 구성하는 것이 좋습니다.
그런 다음 gcloud compute ssh를 사용하여 연결하고 --tunnel-through-iap 플래그를 지정합니다.
공개 IP를 할당하고 Google Cloud 콘솔에서 연결해야 하는 경우 소스 IPv4 범위의 값으로 0.0.0.0/0를 지정합니다.
방화벽 규칙 만들기
Google Cloud 콘솔
SSH를 허용하는 방화벽 규칙을 만듭니다.
Google Cloud 콘솔에서 방화벽 정책 페이지로 이동합니다.
방화벽 규칙 만들기를 클릭합니다.
규칙의 이름을 입력합니다.
네트워크에서 이전에 만든 VPC 네트워크를 선택합니다.
트래픽 방향으로 인그레스를 선택하고 일치 시 작업으로 허용을 선택합니다.
대상 드롭다운에서 네트워크의 모든 인스턴스를 선택합니다.
소스 IPv4 범위 필드에
35.235.240.0/20를 입력합니다.프로토콜 및 포트에서 지정된 프로토콜 및 포트를 선택합니다.
TCP를 선택하고 포트 필드에
22를 입력합니다.만들기를 클릭합니다.
gcloud
SSH를 허용하는 방화벽 규칙을 만듭니다.
gcloud compute firewall-rules create FIREWALL_RULE_NAME \
--allow=tcp:22 \
--network=NETWORK_NAME \
--source-ranges=35.235.240.0/20 \
--project=PROJECT_ID
Compute Engine VM에 SSH를 통해 연결
방화벽 규칙이 생성되면 VM에 SSH로 연결할 수 있습니다.
Google Cloud 콘솔
Google Cloud 콘솔에서 VM 인스턴스 페이지로 이동합니다.
인스턴스 표에서 인스턴스 행을 찾아 연결이라는 제목의 열에서 SSH를 클릭합니다.
메시지가 표시되면 승인을 클릭하여 연결을 허용합니다.
gcloud
gcloud compute ssh VM_NAME \
--zone=LOCATION \
--project=PROJECT_ID \
--tunnel-through-iap
Lustre 클라이언트 패키지 설치
Lustre 클라이언트 패키지는 Artifact Registry의 lustre-client-binaries 프로젝트에서 호스팅됩니다.
저장소에 대한 액세스 구성
Artifact Registry에서 설치하도록 VM을 구성하려면 다음 안내를 따르세요.
HPC Rocky Linux 8
gcloud beta artifacts print-settings를 실행하고 출력을 bash에 파이프하여 필요한 명령어를 실행합니다.
gcloud beta artifacts print-settings yum \
--repository=lustre-client-rocky-8 \
--location=us --project=lustre-client-binaries | sudo bash
Rocky Linux 9
gcloud beta artifacts print-settings를 실행하고 출력을 bash에 파이프하여 필요한 명령어를 실행합니다.
gcloud beta artifacts print-settings yum \
--repository=lustre-client-rocky-9 \
--location=us --project=lustre-client-binaries | sudo bash
RHEL 9
gcloud beta artifacts print-settings를 실행하고 출력을 bash에 파이프하여 필요한 명령어를 실행합니다.
gcloud beta artifacts print-settings yum \
--repository=lustre-client-rocky-9 \
--location=us --project=lustre-client-binaries | sudo bash
RHEL 9는 Rocky Linux 9와 동일한 lustre-client-rocky-9 저장소를 사용합니다.
Ubuntu 20.04 LTS
Apt 저장소 서명 키를 설치합니다.
curl -fsSL https://packages.cloud.google.com/apt/doc/apt-key.gpg \ | sudo gpg --dearmor -o /usr/share/keyrings/google-cloud.gpg curl -fsSL https://us-apt.pkg.dev/doc/repo-signing-key.gpg \ | sudo gpg --dearmor -o /usr/share/keyrings/lustre-client.gpgArtifact Registry 패키지에 액세스하도록 VM을 구성합니다.
echo 'deb [signed-by=/usr/share/keyrings/google-cloud.gpg] http://packages.cloud.google.com/apt apt-transport-artifact-registry-stable main' \ | sudo tee /etc/apt/sources.list.d/artifact-registry.listApt를 업데이트하고
apt-transport-artifact-registry패키지를 설치합니다.sudo apt update && sudo apt install apt-transport-artifact-registry저장소에서 패키지를 가져오도록 Apt를 구성합니다.
echo "deb [signed-by=/usr/share/keyrings/lustre-client.gpg] ar+https://us-apt.pkg.dev/projects/lustre-client-binaries lustre-client-ubuntu-focal main" \ | sudo tee -a /etc/apt/sources.list.d/artifact-registry.list저장소 소스를 업데이트합니다.
sudo apt update명령어가 오류를 반환하면 모든 Cloud API에 대한 전체 액세스를 허용하는 액세스 범위로 Compute Engine VM이 생성되었는지 확인합니다. 자세한 내용은 Compute Engine 인스턴스에 대한 액세스 권한 부여를 참고하세요.
이러한 명령어에 대한 자세한 내용은 Artifact Registry 문서(Debian 패키지를 설치하도록 VM 구성)를 참고하세요.
Ubuntu 22.04 LTS
Apt 저장소 서명 키를 설치합니다.
curl -fsSL https://packages.cloud.google.com/apt/doc/apt-key.gpg \ | sudo gpg --dearmor -o /usr/share/keyrings/google-cloud.gpg curl -fsSL https://us-apt.pkg.dev/doc/repo-signing-key.gpg \ | sudo gpg --dearmor -o /usr/share/keyrings/lustre-client.gpgArtifact Registry 패키지에 액세스하도록 VM을 구성합니다.
echo 'deb [signed-by=/usr/share/keyrings/google-cloud.gpg] http://packages.cloud.google.com/apt apt-transport-artifact-registry-stable main' \ | sudo tee /etc/apt/sources.list.d/artifact-registry.listApt를 업데이트하고
apt-transport-artifact-registry패키지를 설치합니다.sudo apt update && sudo apt install apt-transport-artifact-registry저장소에서 패키지를 가져오도록 Apt를 구성합니다.
echo "deb [signed-by=/usr/share/keyrings/lustre-client.gpg] ar+https://us-apt.pkg.dev/projects/lustre-client-binaries lustre-client-ubuntu-jammy main" \ | sudo tee -a /etc/apt/sources.list.d/artifact-registry.list저장소 소스를 업데이트합니다.
sudo apt update명령어가 오류를 반환하면 모든 Cloud API에 대한 전체 액세스를 허용하는 액세스 범위로 Compute Engine VM이 생성되었는지 확인합니다. 자세한 내용은 Compute Engine 인스턴스에 대한 액세스 권한 부여를 참고하세요.
이러한 명령어에 대한 자세한 내용은 Artifact Registry 문서(Debian 패키지를 설치하도록 VM 구성)를 참고하세요.
Ubuntu 24.04 LTS
Apt 저장소 서명 키를 설치합니다.
curl -fsSL https://packages.cloud.google.com/apt/doc/apt-key.gpg \ | sudo gpg --dearmor -o /usr/share/keyrings/google-cloud.gpg curl -fsSL https://us-apt.pkg.dev/doc/repo-signing-key.gpg \ | sudo gpg --dearmor -o /usr/share/keyrings/lustre-client.gpgArtifact Registry 패키지에 액세스하도록 VM을 구성합니다.
echo 'deb [signed-by=/usr/share/keyrings/google-cloud.gpg] http://packages.cloud.google.com/apt apt-transport-artifact-registry-stable main' \ | sudo tee /etc/apt/sources.list.d/artifact-registry.listApt를 업데이트하고
apt-transport-artifact-registry패키지를 설치합니다.sudo apt update && sudo apt install apt-transport-artifact-registry저장소에서 패키지를 가져오도록 Apt를 구성합니다.
echo "deb [signed-by=/usr/share/keyrings/lustre-client.gpg] ar+https://us-apt.pkg.dev/projects/lustre-client-binaries lustre-client-ubuntu-noble main" \ | sudo tee -a /etc/apt/sources.list.d/artifact-registry.list저장소 소스를 업데이트합니다.
sudo apt update명령어가 오류를 반환하면 모든 Cloud API에 대한 전체 액세스를 허용하는 액세스 범위로 Compute Engine VM이 생성되었는지 확인합니다. 자세한 내용은 Compute Engine 인스턴스에 대한 액세스 권한 부여를 참고하세요.
이러한 명령어에 대한 자세한 내용은 Artifact Registry 문서(Debian 패키지를 설치하도록 VM 구성)를 참고하세요.
Lustre 클라이언트 패키지 설치
안내에 따라 Lustre 클라이언트 패키지를 설치합니다.
HPC Rocky Linux 8
sudo yum -y --enablerepo=lustre-client-rocky-8 install kmod-lustre-client
sudo yum -y --enablerepo=lustre-client-rocky-8 install lustre-client
Rocky Linux 9
sudo yum -y --enablerepo=lustre-client-rocky-9 install kmod-lustre-client
sudo yum -y --enablerepo=lustre-client-rocky-9 install lustre-client
RHEL 9
sudo yum -y --enablerepo=lustre-client-rocky-9 install kmod-lustre-client
sudo yum -y --enablerepo=lustre-client-rocky-9 install lustre-client
Ubuntu 20.04 LTS
다음 명령어를 실행합니다.
sudo apt install lustre-client-modules-$(uname -r)/lustre-client-ubuntu-focal
sudo apt install lustre-client-utils/lustre-client-ubuntu-focal
Lustre 클라이언트 패키지는 커널 버전에 따라 다릅니다. Compute Engine 인스턴스를 만들 때 시작 스크립트를 포함하지 않았고 자동 커널 업데이트로 인해 Ubuntu 커널 버전이 변경된 경우 이러한 명령어를 다시 실행하여 적절한 Lustre 클라이언트 패키지를 다운로드해야 합니다.
Ubuntu 22.04 LTS
다음 명령어를 실행합니다.
sudo apt install lustre-client-modules-$(uname -r)/lustre-client-ubuntu-jammy
sudo apt install lustre-client-utils/lustre-client-ubuntu-jammy
Lustre 클라이언트 패키지는 커널 버전에 따라 다릅니다. 자동 커널 업데이트로 인해 Ubuntu 커널 버전이 변경되면 이러한 명령어를 다시 실행하여 적절한 Lustre 클라이언트 패키지를 다운로드해야 합니다.
Ubuntu 24.04 LTS
다음 명령어를 실행합니다.
sudo apt install lustre-client-modules-$(uname -r)/lustre-client-ubuntu-noble
sudo apt install lustre-client-utils/lustre-client-ubuntu-noble
Lustre 클라이언트 패키지는 커널 버전에 따라 다릅니다. Compute Engine 인스턴스를 만들 때 시작 스크립트를 포함하지 않았고 자동 커널 업데이트로 인해 Ubuntu 커널 버전이 변경된 경우 이러한 명령어를 다시 실행하여 적절한 Lustre 클라이언트 패키지를 다운로드해야 합니다.
Lustre 커널 모듈 로드
클라이언트 패키지가 설치된 후 다음 명령어를 실행하여 Lustre 커널 모듈을 로드합니다.
sudo modprobe lustre
(선택사항) gke-support-enabled 인스턴스용 LNet 구성
이 섹션은 --gke-support-enabled가 지정된 관리 Lustre 인스턴스에 연결하는 Compute Engine 클라이언트에만 적용됩니다.
GKE 지원 옵션으로 Managed Lustre 인스턴스를 만들지 않은 경우 이 섹션을 건너뜁니다.
accept_port 6988을 사용하도록 LNet 구성
Managed Lustre 인스턴스의 --gke-support-enabled가 true로 설정되어 있고 Compute Engine VM에서 연결하는 경우:
/etc/modprobe.d/lnet.conf만들기 또는 수정- 다음 줄을 추가합니다.
options lnet accept_port=6988
- VM을 재부팅합니다.
sudo reboot
Managed Lustre 인스턴스 마운트
Managed Lustre 인스턴스를 마운트합니다.
재부팅 시 유지할 필요가 없는 빠른 마운트의 경우
mount명령어를 사용합니다.VM이 부팅될 때마다 자동으로 마운트하려면
/etc/fstab옵션을 사용하세요.
두 경우 모두 마운트 지점으로 사용할 디렉터리가 명령어를 실행하기 전에 있어야 합니다.
인스턴스의 IP 주소와 파일 시스템 이름을 가져오려면 gcloud lustre instances describe 명령어를 사용하거나 Google Cloud 콘솔의 인스턴스 페이지를 방문하세요.
gcloud lustre instances describe INSTANCE_NAME \
--location=ZONE
mount
Compute Engine VM의 명령줄에서 mount 명령어를 사용하여 관리형 Lustre 인스턴스를 수동으로 마운트합니다.
sudo mkdir -p ~/MOUNT_DIR
sudo mount -t lustre IP_ADDRESS:/FILESYSTEM_NAME ~/MOUNT_DIR
각 항목의 의미는 다음과 같습니다.
IP_ADDRESS는 관리형 Lustre 인스턴스의 IP 주소입니다.
FILESYSTEM_NAME은 인스턴스의 파일 시스템 이름입니다.
~/MOUNT_DIR은 사용자가 만든 로컬 마운트 지점 디렉터리입니다.
/etc/fstab
Compute Engine VM의 명령줄에서 다음을 실행합니다.
마운트 지점의 로컬 디렉터리를 만듭니다.
sudo mkdir -p ~/MOUNT_DIR수정할
/etc/fstab파일을 열고 다음 줄을 추가합니다.IP_ADDRESS@tcp:/FILESYSTEM_NAME ~/MOUNT_DIR lustre defaults,_netdev 0 0각 항목의 의미는 다음과 같습니다.
IP_ADDRESS는 관리형 Lustre 인스턴스의 IP 주소입니다.
FILESYSTEM_NAME은 인스턴스의 파일 시스템 이름입니다.
~/MOUNT_DIR은 사용자가 만든 로컬 마운트 지점 디렉터리입니다.
lustre defaults,_netdev 0 0는 권장되는 마운트 옵션입니다.lustre는 파일 시스템 유형을 Lustre로 지정합니다.defaults는 기본 마운트 옵션 집합을 사용합니다._netdev는 파일 시스템 마운트를 시도하기 전에 네트워크 연결을 기다리도록 시스템에 지시합니다.0 0는 덤프 및 파일 시스템 확인 순서를 제어합니다.
/etc/fstab파일을 저장하고 종료합니다.다음 명령어를 실행하여
/etc/fstab에 나열된 모든 파일 시스템을 마운트합니다.sudo mount -a
이제 Managed Lustre 인스턴스가 마운트되었습니다. Compute Engine VM이 부팅될 때마다 자동으로 마운트됩니다.
마운트 명령어가 실패하면 문제 해결 안내를 참고하여 문제를 진단하세요.
보조 NIC 사용
NIC가 여러 개 있는 Compute Engine 인스턴스의 보조 NIC의 VPC를 사용하여 관리형 Lustre 인스턴스를 마운트하는 경우 다음 안내를 따르세요.
올바른 NIC를 사용하도록 LNET을 구성합니다.
/etc/lnet.conf의 콘텐츠를 VM의/etc/modprobe.d/lustre.conf파일에 복사합니다.eth1을 보조 NIC 이름으로 바꿔서 다음 줄을 파일에 추가합니다.options lnet networks="tcp0(eth1)"Lustre 커널 모듈을 다시 로드합니다.
lustre_rmmod modprobe lustreLNET이 두 번째 NIC를 사용하도록 구성되어 있는지 확인합니다. 다음 명령어의 출력은 두 번째 NIC여야 합니다.
lctl list_nids보조 NIC의 게이트웨이를 통해 관리형 Lustre 인스턴스의 CIDR 블록에 정적 경로를 추가합니다.
보조 NIC의 게이트웨이를 찾으려면
route명령어를 실행합니다.Managed Lustre 인스턴스의 CIDR 블록을 찾으려면 다음 단계를 따르세요.
gcloud lustre instances describe명령어를 실행하여 인스턴스 세부정보를 가져옵니다.mountPoint필드에 제공된 주소를 가져옵니다.- IP 주소를 크기가 24인 CIDR 블록으로 변환합니다.
예를 들어 Managed Lustre 인스턴스의 CIDR 블록이
172.16.0.0/24이고 보조 NIC가eth1이며 게이트웨이가10.128.0.1이면 다음 명령어를 실행합니다.ip route add 172.16.0.0/24 via 10.128.0.1 dev eth1Compute Engine 인스턴스가 재부팅되면 추가된 경로가 유지되지 않습니다. 이를 영구적으로 만드는 방법은 사용 중인 특정 OS 계열에 따라 다릅니다.
Managed Lustre 인스턴스에 액세스
이제 관리형 Lustre 인스턴스가 Compute Engine VM에 마운트되고 일부 예외를 제외하고 표준 POSIX 구문을 사용하여 읽고 쓸 수 있습니다.
다음 명령어를 실행하여 마운트된 디렉터리를 확인합니다.
sudo lfs df -h ~/MOUNT_DIR
다음 명령어를 사용하여 파일 복사 및 쓰기를 테스트할 수 있습니다.
# sample file copy/file write
sudo dd if=/dev/zero of=~/MOUNT_DIR/bigfile1 bs=1M count=8000
sudo dd if=/dev/urandom of=~/MOUNT_DIR/bigfile1 bs=1M count=1000
디스크 공간 사용량을 확인하려면 다음 단계를 따르세요.
sudo lfs df -h ~/MOUNT_DIR
인스턴스 마운트 해제
다음 명령어를 사용하여 관리형 Lustre 인스턴스를 마운트 해제할 수 있습니다.
sudo umount ~/MOUNT_DIR