データをインポートする前に、次のことを行う必要があります。
データをインポートする データベース クラスタを作成します。
ダンプファイルをストレージ バケットにアップロードします。手順については、ストレージ バケットにオブジェクトをアップロードするをご覧ください。
Database Service のインポート サービス アカウントには、ダンプファイルへのアクセス権が必要です。サービス アカウントの名前は、インポートするデータベースのタイプに応じて
postgresql-import-DATABASE_CLUSTER_NAMEまたはoracle-import-DATABASE_CLUSTER_NAMEになります。DATABASE_CLUSTER_NAMEは、データをインポートするデータベース クラスタの名前に置き換えます。
ダンプファイルをデータベース クラスタにインポートするには、GDC コンソールまたは Distributed Cloud CLI を使用します。
コンソール
GDC コンソールで [データベース クラスタの概要] ページを開き、インポートするデータベースを含むクラスタを確認します。
[インポート] をクリックすると、[アカウントにデータをインポート] パネルが開きます。
[アカウントにデータをインポート] パネルの [ソース] セクションで、以前にアップロードした SQL データ ダンプファイルの場所を指定します。
[宛先] フィールドで、インポート用の既存の宛先データベースを指定します。
[インポート] をクリックすると、GDC コンソールのバナーに、インポートのステータスが表示されます。
gdcloud CLI
Distributed Cloud CLI を使用する前に、インストールして初期化します。次に、組織で認証します。
次のコマンドを実行して、ダンプファイルをデータベースにインポートします。
gdcloud database import sql DATABASE_CLUSTER s3://BUCKET_NAME/sample.dmp \ --project=PROJECT_NAME次のように置き換えます。
- DATABASE_CLUSTER は、データのインポート先のデータベース クラスタの名前に置き換えます。
- BUCKET_NAME/SAMPLE.dmp は、ダンプファイルの場所に置き換えます。
- PROJECT_NAME は、データベース クラスタが存在するプロジェクトの名前に置き換えます。
API
apiVersion: DBENGINE_NAME.dbadmin.gdc.goog/v1
kind: Import
metadata:
name: IMPORT_NAME
namespace: USER_PROJECT
spec:
dbclusterRef: DBCLUSTER_NAME
dumpStorage:
s3Options:
bucket: BUCKET_NAME
key: DUMP_FILE_PATH
type: S3
次の変数を置き換えます。
DBENGINE_NAME: データベース エンジンの名前。alloydbomni、postgresql、oracleのいずれかです。IMPORT_NAME: インポート オペレーションの名前。USER_PROJECT: インポートするデータベース クラスタが作成されるユーザー プロジェクトの名前。DBCLUSTER_NAME: データベース クラスタの名前。BUCKET_NAME: インポート ファイルを保存するオブジェクト ストレージ バケットの名前。DUMP_FILE_PATH: 保存されたファイルへのオブジェクト ストレージ パスの名前。