Distributed Cloud 接続サーバー上の仮想マシンを管理する

このページでは、Google Distributed Cloud の VM ランタイムを実行している Google Distributed Cloud 接続サーバー上の仮想マシンを管理する方法について説明します。このページの手順を行う前に、GDC 上の VM ランタイムを理解しておく必要があります。サポートされているゲスト オペレーティング システムの一覧については、GDC 上の VM ランタイムの検証済みゲスト オペレーティング システムをご覧ください。

仮想マシンが Distributed Cloud 接続プラットフォームの重要なコンポーネントとして機能する方法については、GKE Enterprise を拡張してオンプレミス エッジ VM を管理するをご覧ください。

Distributed Cloud 接続クラスタは、仮想マシン ウェブフックをサポートしています。これにより、Distributed Cloud Connected はローカル Kubernetes API サーバーに対して行われたユーザー リクエストを検証できます。拒否されたリクエストについては、拒否理由の詳細情報が生成されます。

Symcloud Storage を構成する

Google Distributed Cloud コネクテッド サーバーは、ストレージ ソリューションとして Rakuten Symcloud Storage を使用します。Symcloud Storage は、各 Distributed Cloud 接続ノードでローカル ストレージ抽象化レイヤとして機能し、他の Distributed Cloud 接続ノードで実行されているワークロードでローカル ストレージを使用できるようにするサードパーティ ソリューションです。

Symcloud Storage は Google Cloud Marketplace からデプロイされ、そこに記載されている規約が適用されます。Google は、Distributed Cloud 接続で Symcloud Storage を使用する場合のサポートを限定的に提供します。また、必要に応じてサードパーティ プロバイダに協力を依頼することがあります。Symcloud Storage のソフトウェア アップデートは、Distributed Cloud Connected のソフトウェア アップデートに含まれています。

仮想マシンで Symcloud Storage を有効にするには、Google Distributed Cloud 接続クラスタを次のように構成します。

  1. 次のコマンドを使用して robinio Namespace を作成します。

    kubectl create ns robinio
    
  2. Symcloud Storage ライセンス ファイルを取得し、次のコマンドを使用してクラスタに適用します。

    kubectl apply LICENSE_FILE
    
  3. 次のコマンドを使用して、Symcloud Storage が稼働していることを確認します。

    kubectl apply LICENSE_FILE
    

    このコマンドでは、次のような出力が返されます。

     Name:         robin
     Namespace:
     Labels:       app.kubernetes.io/instance=robin
                   app.kubernetes.io/managed-by=robin.io
                   app.kubernetes.io/name=robin
     Annotations:  <none>
     API Version:  manage.robin.io/v1
     Kind:         RobinCluster
     Metadata:
       
     Spec:
       
     Status:
       
       Phase:             Ready
       
    
  4. 次の構成をクラスタに適用して、robin-block-immediate ストレージ クラスを作成します。

    apiVersion: storage.k8s.io/v1
    kind: StorageClass
    metadata:
      name: robin-block-immediate
    parameters:
      faultdomain: host
      replication: "3"
      blocksize:   "512"
    provisioner: robin
    reclaimPolicy: Delete
    volumeBindingMode: Immediate
    allowVolumeExpansion: true
    
  5. 次の構成をクラスタに適用して、robin-snapshotclass ボリューム スナップショット クラスを作成します。

    apiVersion: snapshot.storage.k8s.io/v1
    kind: VolumeSnapshotClass
    metadata:
      name: robin-snapshotclass
      labels:
        app.kubernetes.io/instance: robin
        app.kubernetes.io/managed-by: robin.io
        app.kubernetes.io/name: robin
      annotations:
        snapshot.storage.kubernetes.io/is-default-class: "true"
    driver: robin
    deletionPolicy: Delete
    

Distributed Cloud Connected で GDC 上の VM ランタイムのサポートを有効にする

デフォルトでは、Distributed Cloud Connected で GDC 上の VM ランタイムの仮想マシン サポートが有効になっています。手動で有効にする必要がある場合は、このセクションの手順を行います。このセクションの手順では、完全に機能する Distributed Cloud 接続クラスタがあることを前提としています。クラスタで GDC 仮想マシンの VM ランタイム サポートを無効にするには、このセクションで説明した変更を元に戻します。

GDC 仮想マシン サブシステムで VM ランタイムを有効にするには、次の操作を行います。

  1. 次の内容で VMRuntime カスタム リソースを変更し、クラスタに適用します。

    apiVersion: vm.cluster.gke.io/v1
    kind: VMRuntime
    metadata:
      annotations:
        baremetal.cluster.gke.io/vmrumtime-force-disable: "false"
        vm.cluster.gke.io/enable-vm-backup: "true"
    spec:
      enabled: true
      storage:
        defaultStorageClass: robin-block-immediate
    haPolicy:
      defaultRecoveryStrategy: Reschedule
      nodeHeartbeatInterval: 15s
      nodeMonitorGracePeriod: 55s

    このプロセスは通常、完了するまでに数分かかります。

  2. 次のコマンドを使用して、VMRuntime カスタム リソースがクラスタに適用されていることを確認します。

    kubectl get vmruntime
    

    このコマンドでは、次の例のような出力が返されます。

    NAME        AGE   ENABLED   READY   PREFLIGHTCHECK
    vmruntime   5m   true      true    true
    
  3. 次の内容で robin-block-immediate ストレージ クラスの storageprofile を変更し、クラスタに適用します。

    apiVersion: cdi.kubevirt.io/v1beta1
    kind: StorageProfile
    metadata:
      name: robin-block-immediate
    spec:
      claimPropertySets:
        accessModes:
          ReadWriteMany
      volumeMode: Block

virtctl 管理ツールをインストールする

Distributed Cloud 接続クラスタの仮想マシンを管理するには、virtctl クライアント ツールが必要です。ツールをインストールする手順は次のとおりです。

  1. virtctl クライアント ツールを kubectl プラグインとしてインストールします。

    export VERSION=v0.59.0-anthos1.28-gke.8
    gcloud storage cp gs://anthos-baremetal-release/virtctl/${VERSION}/linux-amd64/virtctl/usr/local/bin/virtctl
    cd /usr/local/bin
    sudo ln -s virtctl kubectl-virt
    sudo chmod a+x virtctl
    cd -
  2. virt プラグインがインストールされていることを確認します。

    kubectl plugin list

    プラグインが正常にインストールされると、コマンドの出力に kubectl-virt がプラグインの 1 つとして表示されます。

仮想マシン イメージ用の Cloud Storage バケットを作成する

このセクションの手順に沿って、仮想マシン イメージ用の Cloud Storage バケットを作成します。イメージ リポジトリがすでに確立されている場合は、このセクションをスキップしてください。

  1. バケットを作成するの手順に沿ってバケットを作成します。

  2. 次のコマンドを使用して、バケットにアクセスするためのサービス アカウントとキーを構成します。

    export PROJECT_ID=$(gcloud config get-value project)
    gcloud iam service-accounts create image-access
    gcloud projects add-iam-policy-binding $PROJECT_ID \
      --member="serviceAccount:image-access@${PROJECT_ID}.iam.gserviceaccount.com" \
      --role="roles/storage.objectViewer" \
    gcloud iam service-accounts keys create ./image-access-gcr.json \
      --iam-account="image-access@${PROJECT_ID}.iam.gserviceaccount.com"
  3. バケットにアクセスするための Secret をクラスタに作成します。バケットが一般公開されている場合は、この手順をスキップします。このシークレットは、仮想マシン ディスクと同じ Namespace に存在する必要があります。影響を受ける Namespace ごとに Secret を作成する必要があります。

    kubectl create secret generic gcs-image-sa --from-file=creds-gcp.json=./image-access-gcr.json -n NAMESPACE

    CLUSTER_ID は、ターゲット Namespace の名前に置き換えます。

  4. 画像をバケットに保存します。

仮想マシン イメージから仮想マシン ディスクを作成する

このセクションの手順に沿って、仮想マシン イメージから仮想マシン ディスクを作成します。

Cloud Storage に保存されているイメージからディスクを作成する

次の構成をクラスタに適用して、Cloud Storage バケットに保存されている仮想マシンから仮想マシン ディスクを作成します。

 apiVersion: vm.cluster.gke.io/v1
 kind: VirtualMachineDisk
 metadata:
   name: DISK_NAME
   namespace: NAMESPACE
 spec:
   source:
     gcs:
       url: gs://{PROJECT_ID}-vm-images/IMAGE_FILE
       secretRef: gcs-image-sa
   size: DISK_SIZE
   storageClassName: robin-block-immediate

次のように置き換えます。

  • DISK_NAME: この仮想マシン ディスクの名前。
  • NAMESPACE: ターゲット Namespace。
  • IMAGE_FILE: 仮想マシン イメージ ファイルの名前。
  • DISK_SIZE: 目的のディスクサイズ。この値は、仮想マシン イメージ ファイルの virtual-size 値より大きくする必要があります。この値は、qemu-img info DISK_SIZE コマンドで確認できます。

storageClassName の値を指定しない場合は、VMRuntime リソースで指定されたデフォルト値が使用されます。

既存のディスク イメージからディスクを作成する

クラスタ上の既存の仮想マシン ディスクまたはイメージ ファイルから仮想マシン ディスクを作成します。

  1. 次の構成をクラスタに適用して、ターゲット ディスクを作成します。

    apiVersion: vm.cluster.gke.io/v1
    kind: VirtualMachineDisk
    metadata:
      name: IMAGE_DISK_NAME
      namespace: NAMESPACE
    spec:
      source:
        virtualMachineDisk:
          name: EXISTING_DISK_NAME
      size: DISK_SIZE
      storageClassName: robin-block-immediate

    次のように置き換えます。

    • IMAGE_DISK_NAME: この仮想マシン ディスクの名前。
    • NAMESPACE: ターゲット Namespace。
    • EXISTING_DISK_NAME: 既存の仮想マシン ディスクの名前。
    • DISK_SIZE: 目的のディスクサイズ。これは、既存のディスクまたはイメージ ファイルのサイズ以上である必要があります。

    既存のディスクまたはイメージ ファイルのサイズは、次のように qemu-img ツールを使用して取得できます。

    qemu-img info EXISTING_DISK_NAME

    storageClassName の値を指定しない場合は、VMRuntime リソースで指定されたデフォルト値が使用されます。

  2. 次の構成をクラスタに適用して、既存のイメージ ファイルから新しいディスクを作成します。

    apiVersion: vm.cluster.gke.io/v1
    kind: VirtualMachineDisk
    metadata:
      name: DISK_NAME
      namespace: NAMESPACE
    spec:
      source:
        virtualMachineDisk:
          name: IMAGE_DISK_NAME
      size: DISK_SIZE
      storageClassName: robin-block-immediate

    次のように置き換えます。

    • IMAGE_DISK_NAME: 前の手順で作成した仮想マシン ディスクの名前。
    • NAMESPACE: ターゲット Namespace。
    • DISK_SIZE: 目的のディスクサイズ。前の手順で作成した仮想マシン ディスクのサイズと同じにする必要があります。
  3. 次のコマンドを使用して、ターゲット ディスクを目的のサイズに変更します。

    kubectl edit gdisk DISK_NAME -n NAMESPACE

    次のように置き換えます。

    • DISK_NAME: 前の手順で作成した仮想マシン ディスクの名前。
    • NAMESPACE: ターゲット Namespace。
  4. ディスクの構成で spec.size 値を変更し、クラスタに適用します。

空のディスクを作成する

次の構成をクラスタに適用して、空の仮想マシン ディスクを作成します。

 apiVersion: vm.cluster.gke.io/v1
 kind: VirtualMachineDisk
 metadata:
   name: DISK_NAME
   namespace: NAMESPACE
 spec:
   size: DISK_SIZE
   storageClassName: robin-block-immediate

次のように置き換えます。

  • DISK_NAME: この仮想マシン ディスクの名前。
  • NAMESPACE: ターゲット Namespace。
  • DISK_SIZE: 目的のディスクサイズ(ギビバイト単位)。この値は、仮想マシン イメージ ファイルの virtual-size 値より大きくする必要があります。この値は、qemu-img info DISK_SIZE コマンドで確認できます。

storageClassName の値を指定しない場合は、VMRuntime リソースで指定されたデフォルト値が使用されます。

仮想ネットワーキングを構成する

ネットワーキングの手順に沿って、仮想マシンの仮想ネットワーキングを構成します。

仮想マシンを作成する

このセクションの手順に沿って、Distributed Cloud 接続サーバーのデプロイに仮想マシンを作成します。このセクションの手順は、さまざまなシナリオの構成を示すための例です。仮想マシンの構成の詳細については、GDC 上の VM ランタイムを使用して、特定の CPU とメモリリソースを持つ VM を作成するをご覧ください。

ブート可能なディスク イメージから仮想マシンを作成する

ブート可能なディスク イメージから仮想マシンを作成するには、クラスタに次の構成を適用します。

 kind: VirtualMachine
 metadata:
   name: my-virtual-machine
   namespace: my-vm-namespace
 spec:
   osType: Linux/Windows
   guestEnvironment: {} // comment out this line to enable guest environment for access management
   autoRestartOnConfigurationChange: true 
   compute:
     cpu:
       vcpus: 6
     memory:
       capacity: 8Gi
   interfaces:
      - name: eth0
        networkName: network-410
        ipAddresses:
        - 10.223.237.10/25
   disks:
     - virtualMachineDiskName: my-boot-disk
       boot: true
     - virtualMachineDiskName: my-data-disk

次のように置き換えます。

  • DISK_NAME: この仮想マシン ディスクの名前。
  • NAMESPACE: ターゲット Namespace。

ISO 光ディスク イメージから仮想マシンを作成する

ISO 光ディスク イメージから仮想マシンを作成するには、Google Distributed Cloud で ISO イメージから Windows VM を作成するの手順を完了します。

GPU をサポートする仮想マシンを作成する

このページで説明する手順を完了して、ビジネス要件を満たすように構成された仮想マシンを作成し、GPU リソースを使用するように仮想マシンを構成するの手順を完了します。

仮想マシンにアクセスする

このセクションの手順を完了して、Distributed Cloud 接続サーバーのデプロイで実行されている仮想マシンにアクセスします。

アクセス認証情報を取得する

このセクションの手順を完了して、Linux ゲスト環境機能を使用して仮想マシンにアクセスするために必要な認証情報を取得します。

  1. 次の構成をクラスタに適用して、ターゲット仮想マシンの Linux ゲスト環境を有効にします。

    kind: VirtualMachine
    metadata:
     name: my-virtual-machine
     namespace: my-vm-namespace
    spec:
     osType: Linux
     guestEnvironment: {}
     autoRestartOnConfigurationChange: true 
  2. 次のコマンドを使用して、SSH 鍵ペアを含む id_rsa.pub ファイルを生成します。

    ssh-keygen -t rsa
  3. 次の構成をクラスタに適用して、VirtualMachineAccessRequest リソースを作成します。

    apiVersion: vm.cluster.gke.io/v1alpha1
    kind: VirtualMachineAccessRequest
    metadata:
     name: RESOURCE_NAME
     namespace: NAMESPACE
    spec:
      vm: VM_NAME
      user: USER_NAME
      ssh:
        key: RSA_KEY
        ttl: 2h

次のように置き換えます。

  • RESOURCE_NAME: この仮想マシン アクセス リクエスト リソースのわかりやすい名前。
  • NAMESPACE: ターゲット Namespace。
  • VM_NAME: ターゲット仮想マシンの名前。
  • USER_NAME: アクセス権が付与されるユーザーの名前。
  • RSA_KEY: 前の手順で生成した id_rsa.pub ファイルの内容。
  1. 次のコマンドを使用して、アクセス リクエストのステータスを確認します。

    kubectl get vmar
    

    コマンドが Configured ステータスを返したら、次の手順に進みます。

  2. SSH またはリモート デスクトップを使用して仮想マシンにアクセスします。

    • 仮想マシンがローカル ネットワークに接続されている場合は、直接アクセスできます。
    • 仮想マシンが Pod ネットワークに接続されている場合は、必要なポートにアクセスするためにロードバランサ サービスを作成する必要があります。

仮想マシンを起動、再起動、停止する

次のコマンドを使用して、仮想マシンの起動、再起動、停止を行います。

  • 仮想マシンを起動する: kubectl virt start vmVM_NAME-nNAMESPACE
  • 仮想マシンを再起動する: kubectl virt restart vmVM_NAME-nNAMESPACE
  • 仮想マシンを停止する: kubectl virt stop vmVM_NAME-nNAMESPACE

次のように置き換えます。

  • VM_NAME: ターゲット仮想マシンの名前。
  • NAMESPACE: ターゲット Namespace。

次のステップ