주문-수금 프로세스를 위한 SAP 가속기는 Cloud Data Fusion에서 SAP 테이블 소스 기능을 샘플 구현한 것입니다. 가속기를 사용하면 엔드 투 엔드 OTC 프로세스 및 분석을 시작할 때 도움이 됩니다. 여기에는 다음 작업을 수행하도록 구성할 수 있는 샘플 Cloud Data Fusion 파이프라인이 포함됩니다.
- SAP 데이터 소스 연결
- Cloud Data Fusion에서 데이터에 대한 변환 수행
- BigQuery에 데이터 저장
- Looker에서 분석 설정. 여기에는 OTC(order to cash) 프로세스의 핵심성과지표(KPI)를 정의할 수 있는 대시보드 및 ML 모델이 포함됩니다.
이 가이드에서는 샘플 구현을 설명하고 구성을 시작하는 방법을 보여줍니다.
가속기는 버전 6.3.0 이상에서 실행되는 Cloud Data Fusion 환경에서 제공됩니다.
시작하기 전에
-
Sign in to your Google Account.
If you don't already have one, sign up for a new account.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
Roles required to select or create a project
- Select a project: Selecting a project doesn't require a specific IAM role—you can select any project that you've been granted a role on.
-
Create a project: To create a project, you need the Project Creator
(
roles/resourcemanager.projectCreator), which contains theresourcemanager.projects.createpermission. Learn how to grant roles.
-
Verify that billing is enabled for your Google Cloud project.
-
Enable the Cloud Data Fusion and BigQuery APIs.
Roles required to enable APIs
To enable APIs, you need the Service Usage Admin IAM role (
roles/serviceusage.serviceUsageAdmin), which contains theserviceusage.services.enablepermission. Learn how to grant roles. -
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
Roles required to select or create a project
- Select a project: Selecting a project doesn't require a specific IAM role—you can select any project that you've been granted a role on.
-
Create a project: To create a project, you need the Project Creator
(
roles/resourcemanager.projectCreator), which contains theresourcemanager.projects.createpermission. Learn how to grant roles.
-
Verify that billing is enabled for your Google Cloud project.
-
Enable the Cloud Data Fusion and BigQuery APIs.
Roles required to enable APIs
To enable APIs, you need the Service Usage Admin IAM role (
roles/serviceusage.serviceUsageAdmin), which contains theserviceusage.services.enablepermission. Learn how to grant roles. - SAP Table Batch Source를 다운로드합니다.
- Looker 인스턴스에 액세스할 수 있어야 하고 Looker Block을 설치하도록 Marketplace 실험실 기능을 설정해야 합니다. 무료 체험판을 요청하여 인스턴스에 액세스할 수 있습니다.
- SAP 온프레미스 ERP 시스템 및 구성에 대한 전문 기술
- Cloud Data Fusion 관련 기본 지식
- BigQuery 관련 기본 지식
- Looker 관련 기본 지식
- Identity and Access Management(IAM) 서비스 계정 및 액세스 제어 관련 기본 지식
- SQL 쿼리 작성을 포함한 데이터 분석 관련 기본 지식
- Kimball의 측정기준 데이터 모델에 대한 기본 지식
- BigQuery 관리자
(
roles/bigquery.admin) - BigQuery 데이터 소유자
(
roles/bigquery.dataOwner) - 스토리지 객체 뷰어
(
roles/storage.objectViewer) - Cloud Data Fusion 실행자(
roles/datafusion.runner) 역할을 Dataproc 서비스 계정에 부여해야 합니다. - SAP ERP 시스템을 구성하고 제공된 SAP 전송을 설치합니다.
- SAP Table Batch Source 플러그인을 사용하도록 Cloud Data Fusion 환경을 설정합니다.
- BigQuery에서 데이터 세트를 만듭니다. 가속기는 스테이징, 차원, 팩트 테이블에 대한 샘플 데이터 세트를 제공합니다.
- SAP 데이터를 통합하도록 가속기에서 샘플 Cloud Data Fusion 파이프라인을 구성합니다.
- Cloud Data Fusion 허브에서 OTC(order to cash) 분석 프로세스와 관련된 파이프라인을 배포합니다. BigQuery 데이터 세트를 만들려면 이러한 파이프라인을 올바르게 구성해야 합니다.
- Looker를 BigQuery 프로젝트에 연결합니다.
- Looker Block을 설치 및 배포합니다.
- 인스턴스로 이동합니다.
Google Cloud 콘솔에서 Cloud Data Fusion 페이지로 이동합니다.
Cloud Data Fusion Studio에서 인스턴스를 열려면 인스턴스를 클릭한 다음 인스턴스 보기를 클릭합니다.
- 허브를 클릭합니다.
- SAP 탭을 선택합니다.
- 파이프라인을 선택합니다. 샘플 파이프라인 페이지가 열립니다.
- 원하는 파이프라인을 선택하여 다운로드합니다.
- 스테이징 레이어 파이프라인: 이 유형의 파이프라인의 스테이징 데이터 세트는 SAP의 원본 소스 테이블에 직접 매핑됩니다. 샘플 스테이징 레이어 파이프라인의 이름은 SAP 소스 테이블과 BigQuery 대상 테이블을 참조합니다. 예를 들어 KNA1_Customer_Master라는 파이프라인은 SAP 소스 테이블(
KNA1)과 BigQuery 대상 테이블(CustomerMaster)을 참조합니다. - 측정기준 레이어 파이프라인: 이 유형의 파이프라인의 측정기준 레이어 데이터 세트는 분석에 필요한 측정기준 및 팩트를 만드는 스테이징 데이터 세트의 선별되고 세분화된 버전입니다. 샘플 파이프라인의 이름은 대상 BigQuery 데이터 세트의 대상 항목을 참조합니다. 예를 들어 customer_dimension이라는 파이프라인은 BigQuery 데이터 세트
sap_cdf_fact의 고객 측정기준 항목을 참조합니다. - 팩트 레이어 파이프라인: 팩트 레이어 데이터 세트는 분석에 필요한 팩트를 생성하는 스테이징 데이터 세트의 선별되고 세분화된 버전입니다. 이 샘플 파이프라인의 이름은 대상 BigQuery 데이터 세트의 대상 항목을 참조합니다.
예를 들어 sales_order_fact라는 파이프라인은 선별된 데이터를 해당 BigQuery 데이터 세트
sap_cdf_fact의 Sales Order Fact(판매 주문 팩트) 항목에 전달합니다. - 소스 SAP 시스템을 구성합니다.
- 대상 BigQuery 데이터 세트와 테이블을 구성합니다.
- KNA1_CustomerMaster
- KNVV_CustomerSales
- KNVP_CustomerPartnerFunction
- MARA_MaterialMaster
- MARD_MaterialStorageLocation
- VBAK_SalesDocumentHeader
- VBAP_SalesDocumentItem
- VBEP_SalesDocumentSchedule
- LIKP_DeliveryHeader
- LIPS_DeliveryItem
- ACDOCA_UniversalJournalItem
- VBRK_BillingHeader
- VBRP_BillingLineItem
- BSEG_AccountDocumentItem
- BSID_AccDocCustOpenItem
- BSAD_AccDocCustCloseItem
- T001_CompanyCodes
- T006A_UnitOfMeasure
- T024D_MRPControllers
- T042ZT_PaymentMethodText
- T189T_PriceListCategory
- TCURC_CurrencyCodes
- TCURT_CurrencyCodesText
- TCURW_ExchangeRateType
- TINCT_CustomerIncotermsText
- TVAKT_SalesDocumentType
- TVAPT_SalesDocumentItemCategory
- TVFST_BillingBlockReasonText
- TVLST_DeliveryBlockText
- TVTWT_DistributionChannelText
- MAKT_MaterialDescription
- T005T_CountryNames
- T005U_RegionText
- TVAST_SalesDocBlockReasonText
- T077X_AccountGroupName
- T134T_MaterialTypeDescription
- T023T_MaterialGroupDescription
- TSPAT_SalesDivisionText
- TVKOV_DistributionChannel
- TVTA_SalesArea
- TVKOT_SalesOrgText
- TVAUT_SalesDocumentOrderText
- TVSBT_ShippingConditionText
- TVAG_SalesDocRejectionReasons
- TVAGT_SalesDocRejectionReasonDescription
customer_dimensionmaterial_dimensionsales_order_factrevenue_fact- Cloud Data Fusion 자세히 알아보기
- Google Cloud기반 SAP에 대해 자세히 알아보세요.
- BigQuery 자세히 알아보기
- Looker 블록 자세히 알아보기
필요한 기술
SAP 주문-수금 가속기를 설정하려면 다음 기술이 필요합니다.
필요한 사용자
이 페이지에서 설명하는 구성을 위해서는 SAP 시스템 및 Google Cloud을 변경해야 합니다. 구성을 수행하려면 해당 시스템의 다음 사용자와 작업해야 합니다.
| 사용자 유형 | 설명 |
|---|---|
| SAP 관리자 | 소프트웨어 다운로드를 위해 SAP 서비스 사이트에 액세스할 수 있는 SAP 시스템 관리자입니다. |
| SAP 사용자 | SAP 시스템에 연결할 권한이 있는 SAP 사용자. |
| GCP 관리자 | 조직의 IAM 액세스를 제어하는 관리자로서 서비스 계정을 만들어 배포하고 Cloud Data Fusion, BigQuery, Looker에 대한 권한을 부여합니다. |
| Cloud Data Fusion 사용자 | Cloud Data Fusion에서 데이터 파이프라인을 설계하고 실행하도록 허용된 사용자입니다. |
| BigQuery 데이터 소유자 | BigQuery 데이터 세트를 만들고 보고 수정할 권한이 있는 사용자입니다. |
| Looker 개발자 | 이러한 사용자는 Marketplace를 통해 Looker Block을 설치할 수 있습니다.
develop, manage_model, deploy 권한이 있어야 합니다. |
필요한 IAM 역할
가속기의 샘플 구현에서는 다음 IAM 역할이 필요합니다. 프로젝트에 다른 Google Cloud 서비스가 사용되는 경우 추가 역할이 필요할 수 있습니다.
프로세스 개요
다음 안내에 따라 프로젝트에서 가속기를 구현할 수 있습니다.
자세한 내용은 SAP Table Batch Source 플러그인 사용을 참조하세요.
BigQuery의 샘플 데이터 세트
이 가속기의 샘플 구현에서 다음 데이터 세트는 BigQuery에 생성됩니다.
| 데이터 세트 이름 | 설명 |
|---|---|
sap_cdf_staging |
해당 비즈니스 프로세스에 대해 식별된 SAP Source 시스템의 모든 테이블을 포함합니다. |
sap_cdf_dimension |
고객 측정기준 및 소재 측정기준과 같은 주요 측정기준 항목이 포함됩니다. |
sap_cdf_fact |
파이프라인에서 생성된 팩트 테이블을 포함합니다. |
Cloud Data Fusion의 샘플 파이프라인
이 가속기의 샘플 파이프라인은 Cloud Data Fusion 허브에서 사용할 수 있습니다.
허브에서 샘플 파이프라인을 가져오려면 다음 안내를 따르세요.
각 파이프라인에는 해당 환경에서 실행하도록 구성할 수 있는 매크로가 포함되어 있습니다.
샘플 파이프라인은 세 가지 유형이 있습니다.
다음 섹션에서는 사용자 환경에서 파이프라인이 작동하도록 하는 방법을 요약해서 설명합니다.
스테이징 레이어 파이프라인 구성
스테이징 파이프라인에는 두 가지 구성 단계가 있습니다.
SAP Table Batch Source 플러그인의 매개변수
SAP Table Batch Source 플러그인은 SAP 테이블 또는 뷰의 콘텐츠를 읽습니다. 가속기는 중앙에서 SAP 연결을 제어하도록 수정할 수 있는 다음 매크로를 제공합니다.
| 매크로 이름 | 설명 | 예시 |
|---|---|---|
${SAP Client} |
사용할 SAP 클라이언트 | 100 |
${SAP Language} |
SAP 로그온 언어 | EN |
${SAP Application Server Host} |
SAP 서버 이름 또는 IP 주소 | 10.132.0.47 |
${SAP System Number} |
SAP 시스템 번호 | 00 |
${secure(saplogonusername)} |
SAP 사용자 이름 | 자세한 내용은 보안 키 사용을 참조하세요. |
${secure(saplogonpassword)} |
SAP 사용자 비밀번호 | 자세한 내용은 보안 키 사용을 참조하세요. |
${Number of Rows to Fetch} |
추출된 레코드 수를 제한하는 데 사용 | 100000 |
자세한 내용은 플러그인 구성을 참조하세요.
BigQuery 대상의 매개변수
가속기는 BigQuery 대상에 다음 매크로를 제공합니다.
BigQuery 대상 커넥터 구성
| 매크로 이름 | 설명 | 예시 |
|---|---|---|
${ProjectID} |
BigQuery 데이터 세트가 생성된 프로젝트 ID | sap_adaptor |
${Dataset} |
대상 데이터 세트 | sap_cdf_staging |
OTC(order to cash) KPI에 사용되는 샘플 파이프라인
OTC(order to cash) 프로세스의 다음 주요 비즈니스 항목은 가속기의 샘플 파이프라인과 상응합니다. 이들 파이프라인은 이러한 항목에 대한 분석을 지원하는 데이터를 제공합니다.
| 주요 비즈니스 항목 | 상응하는 샘플 파이프라인 이름 |
|---|---|
Customer는 조직이 비즈니스를 수행하는 사람 또는 법인일 수 있습니다. 이러한 세 가지 SAP 소스 테이블은 비즈니스와 관련된 고객 세부정보를 캡처합니다. 이러한 테이블의 정보는 sap_cdf_dimension 데이터 세트의 customer_dimension에 영향을 줍니다.
|
KNA1_CustomerMaster KNVV_CustomerSales KNVP_CustomerPartnerFunction |
Material은 기업과 고객 사이에서 거래되는 상품입니다. 이러한 SAP 소스 테이블의 정보는 sap_cdf_dimension 데이터 세트의 material_dimension에 영향을 줍니다.
|
MARA_MaterialMaster MARD_MaterialStorageLocation |
| OTC(order to cash) 프로세스의 주문 관리 하위 프로세스입니다(시스템이 고객으로부터 주문을 받은 경우). |
VBAK_SalesDocumentHeader VBAP_SalesDocumentItem VBEP_SalesDocumentSchedule |
| 주문 처리 및 배송 하위 프로세스입니다. |
LIKP_DeliveryHeader LIPS_DeliveryItem |
| 송장 작성 및 고객 결제 하위 프로세스입니다(고객이 송장을 받는 경우). |
VBRK_BillingHeader VBRP_BillingLineItem |
| 미수금 및 보고 하위 프로세스입니다(결제가 시스템에 기록되는 경우) | ACDOCA_UniversalJournalItem |
모든 Cloud Data Fusion 스테이징 파이프라인
가속기에서 다음 Cloud Data Fusion 스테이징 파이프라인 샘플을 사용할 수 있습니다.
측정기준 레이어 파이프라인 구성
소스 SAP 테이블에서 KPI를 추출할 수 있습니다. 분석용으로 데이터를 준비하려면 BigQuery 테이블의 스키마 구조와 일치하도록 소스 테이블에서 데이터를 구성합니다.
가속기가 다음 4개의 샘플 테이블을 만듭니다.
| 테이블 이름 | 테이블 설명 |
|---|---|
| customer_dimension | 고객 분류, 고객 계층 구조, 고객 판매 관련 정보 등 고객 및 관련 팩트에 관한 선별된 목록*입니다. |
| material_dimension | SKU 번호, 제품 계층 구조, 분류 등 소재 및 관련 팩트에 관한 선별된 목록입니다. |
| sales_order_fact | 주문 유형, 주문 상태 공개 상태, 주문된 수량, 주문값 등 판매 정보에 관한 선별된 목록입니다. 이러한 필드는 일반적으로 집계되어 미확정 주문, 확인된 주문, 거부된 주문, 결제된 주문 등의 주문 관리 KPI를 생성합니다. |
| revenue_fact | 고객에게 소재 판매에 의해 생성된 자세한 회계 정보입니다. 회계 테이블에서 파생된 이 팩트 테이블에는 총 매출, 할인 전 순매출, 할인 후 순매출, 트렌드 등의 수익 KPI를 통해 유용한 정보를 제공하는 정보가 포함됩니다. |
*이 컨텍스트에서 선별된 목록은 선택한 열 목록에 적용되는 비즈니스 로직에서 비롯됩니다.
가속기는 SQL 스크립트를 사용하여 BigQuery 데이터 세트의 측정기준 레이어를 빌드하고 이를 통해 프로젝트를 수정할 수 있습니다. 예를 들어 이러한 스크립트를 조정하여 대상 BigQuery 데이터 세트 항목에 열을 추가할 수 있습니다.
별표 스키마로 변환: BigQuery 실행자 파이프라인 이름
Cloud Data Fusion의 다음 BigQuery 실행자 파이프라인은 차원 및 팩트 테이블로 데이터를 로드합니다.
모든 측정기준 변환 파이프라인:
BigQuery 실행자 구성
| 매크로 이름 | 예시 |
|---|---|
${ProjectID} |
sap_adaptor |
${StagingDatasetName} |
sap_cdf_staging |
${TargetDatasetName} |
sap_cdf_dimension |
Looker를 BigQuery 프로젝트 연결
Looker를 BigQuery에 연결하려면 BigQuery 연결에 대한 Looker 문서를 참조하세요.
블록 설치
GitHub에서 SAP Looker 블록에 액세스할 수 있습니다.
Looker 블록은 두 개의 Explore 환경과 두 개의 대시보드로 사전 구성된 LookML 모델을 설치합니다.