Oracle 데이터베이스에서 BigQuery로 데이터 복제

이 튜토리얼에서는 Cloud Data Fusion 복제를 사용하여 Oracle 데이터베이스에서 변경된 데이터를 BigQuery 데이터 세트로 지속적으로 복제하는 작업을 배포하는 방법을 보여줍니다. 이 기능은 Datastream을 기반으로 합니다.

선택사항: Compute Engine에 Oracle 설치

이 섹션에서는 예시 데이터베이스를 설정하는 방법을 보여줍니다. Oracle 데이터베이스가 이미 설치되어 있다면 이 섹션을 건너뛰어도 됩니다.

  1. Oracle Server Docker 이미지를 다운로드합니다.

    이 Oracle Express Edition 11g 이미지의 제한사항은 Oracle 데이터베이스 버전을 참고하세요.

  2. Docker 이미지를 새 VM 인스턴스에 배포합니다.

  3. Compute Engine 디스크 페이지에서 디스크 크기를 500 GB로 변경한 후 VM을 다시 시작합니다.

    디스크로 이동

  4. HR 샘플 스키마를 설치합니다.

Oracle 서버의 VPC 네트워크 피어링 또는 방화벽 규칙 만들기

Oracle 데이터베이스가 공개 IP 주소로부터의 인그레스 트래픽을 허용하지 않는 경우 Datastream VPC와 Oracle 데이터베이스에 액세스할 수 있는 VPC 간에 VPC 네트워크 피어링을 설정합니다. 자세한 내용은 비공개 연결 구성 만들기를 참고하세요.

Oracle 데이터베이스가 공개 IP 주소의 인그레스 트래픽을 허용하는 경우 Datastream 공개 IP의 인그레스 트래픽을 허용하도록 VM 인스턴스의 방화벽 규칙을 만듭니다.

Oracle 서버가 추가 로깅을 사용 설정하도록 구성

소스 Oracle 데이터베이스를 구성하는 단계를 따릅니다.

Cloud Data Fusion 복제 작업을 만들고 실행하기

작업 만들기

  1. Cloud Data Fusion 웹 인터페이스에서 복제를 클릭합니다.

  2. 복제 작업 만들기를 클릭합니다.

  3. 새 복제 작업 만들기 페이지에서 복제 작업 이름을 지정하고 다음을 클릭합니다.

  4. 소스를 구성합니다.

    1. Oracle(Datastream별)을 소스로 선택합니다.

    2. 연결 메서드에서 Oracle 서버가 Datastream 공개 IP의 인그레스 트래픽을 허용하면 IP 허용 목록을 선택합니다. 그 이외의 경우 비공개 연결 이름으로 비공개 연결(VPC 피어링)을 선택하고 Oracle 서버의 VPC 네트워크 피어링 또는 방화벽 규칙 만들기 섹션에서 만든 VPC 피어링 이름을 입력합니다.

    3. 호스트에 읽을 Oracle 서버의 호스트 이름을 입력합니다.

    4. 포트에서 Oracle 서버: 1521에 연결하는 데 사용할 포트를 입력합니다.

    5. 시스템 IDxe(Oracle 서버의 샘플 데이터베이스 이름)를 입력합니다.

    6. 사용자 인증 정보 섹션에서 Oracle 서버 액세스를 위한 사용자 이름과 비밀번호를 입력합니다.

    7. 다른 속성은 모두 그대로 둡니다.

  5. 다음을 클릭합니다.

  6. 대상을 구성하려면 다음 안내를 따르세요.

    1. BigQuery 대상을 선택합니다.

    2. 프로젝트 ID서비스 계정 키는 자동으로 감지됩니다. 기본값은 그대로 둡니다.

    3. 선택사항: 고급 섹션에서 다음을 구성할 수 있습니다.

      • 스테이징 버킷의 이름과 위치
      • 로드 간격
      • 스테이징 테이블 접두사
      • 테이블 또는 데이터베이스가 삭제될 때의 동작
  7. 다음을 클릭합니다.

  8. 연결에 성공하면 테이블 목록이 표시됩니다. 이 튜토리얼에서는 몇 가지 테이블을 선택합니다.

  9. 다음을 클릭합니다.

  10. 평가 검토 페이지에서 테이블 옆에 있는 매핑 보기를 클릭하여 복제 중에 발생할 수 있는 스키마 문제, 기능 누락, 연결 문제에 대한 평가를 확인합니다.

    문제가 발생한 경우 계속 진행하기 전에 해결해야 합니다. 이 튜토리얼의 경우 테이블에 문제가 있으면 다음 단계를 따르세요.

    1. 테이블을 선택한 단계로 돌아갑니다.
    2. 문제가 없는 테이블 또는 이벤트(삽입, 업데이트, 삭제)를 선택하세요.

    소스 데이터베이스에서 BigQuery 대상으로의 데이터 유형 변환에 대한 자세한 내용은 복제 데이터 유형을 참조하세요.

  11. 뒤로를 클릭합니다.

  12. 다음을 클릭합니다.

  13. 복제 작업 세부정보 요약을 검토한 후 복제 작업 배포를 클릭합니다.

작업 시작

  1. Cloud Data Fusion 웹 인터페이스에서 복제 작업 세부정보 페이지로 이동합니다.

  2. Start(시작)를 클릭합니다.

복제 작업이 프로비저닝, 시작, 실행 중 상태로 차례로 전환됩니다. 실행 중 상태일 때 복제 작업에서 선택한 테이블 데이터의 초기 스냅샷을 BigQuery에 로드합니다. 이 상태에서는 테이블의 상태가 스냅샷 생성으로 표시됩니다. BigQuery에 초기 스냅샷이 로드되면 테이블의 변경사항이 BigQuery에 복제되고 테이블 상태가 복제 중으로 표시됩니다.

작업 모니터링

복제 작업을 시작 및 중지하고 구성과 로그를 검토하며 복제 작업을 모니터링할 수 있습니다.

복제 작업 세부정보 페이지에서 복제 작업 활동을 모니터링할 수 있습니다.

  1. 복제 페이지에서 선택한 복제 작업 이름을 클릭합니다.

  2. 모니터링을 클릭합니다.

BigQuery에서 결과 확인하기

복제 작업은 BigQuery에 복제된 데이터 세트 및 테이블을 만들고, 해당 Oracle 데이터베이스 및 테이블 이름으로부터 상속된 이름을 지정합니다.

  1. Google Cloud 콘솔에서 BigQuery 페이지로 이동합니다.

  2. 왼쪽 패널에서 프로젝트 이름을 클릭하여 데이터 세트 목록을 펼칩니다.

  3. xe 데이터 세트를 선택한 다음 보려는 테이블을 선택합니다.

자세한 내용은 BigQuery 문서를 참조하세요.