명령어
bq export
BigQuery에서 테이블을 내보냅니다.
개요
bq export [options]
플래그 및 인수
이 명령어를 실행하려면 SQL 쿼리 (--sql 및 query_dsn 플래그 참고)와 카피북 (cobDsn 플래그 참고)을 제공해야 합니다. 로컬, 원격, 독립형 모드에서 이 명령어를 실행할 수 있습니다. 원격 모드의 경우 --bucket, --remoteHost, --remotePort, --remoteUrl 플래그를 참고하세요.
bq export 명령어는 다음 플래그와 인수를 사용합니다.
--project_id=ID- 이 명령어를 실행하는 데 사용할 프로젝트를 지정합니다.
--allow_large_results- (선택사항) legacy SQL 쿼리에 큰 대상 테이블 크기를 사용합니다.
--batch- (선택사항) 배치 모드에서 쿼리를 실행합니다.
--bucket=BUCKET- (선택사항) 명령의 출력을 기록할 Cloud Storage 내 위치를 지정합니다.
run_mode가gcsoutput이면 이 매개변수를gs://example-bucket/example-prefix/example-filename.orc형식의 Cloud Storage URI로 설정해야 합니다. 그렇지 않으면 출력 파일이 대상 경로gs://BUCKET/EXPORT/에 기록됩니다. 이 인수는 원격 모드에 필요합니다. --cobDsn=DSN- (선택사항) 사용할 카피북 DSN을 지정합니다. 값을 제공하지 않으면 Mainframe Connector가 DD COPYBOOK에서 읽습니다.
--dataset_id=ID- (선택사항) 명령어에 사용할 기본 데이터 세트를 지정합니다. 값을 [PROJECT_ID]:[DATASET] 또는 [DATASET]로 설정할 수 있습니다. [PROJECT_ID]가 누락되면 기본 프로젝트가 사용됩니다.
--destination_table=TABLE- (선택사항) 쿼리 결과를 쓸 대상 테이블을 지정합니다.
--dry_run- (선택사항) 쿼리를 실행하지 않고 검사합니다.
--encoding=ENCODING- (선택사항) 문자 필드를 인코딩 및 디코딩하는 데 사용할 문자 집합을 지정합니다. 이 값을 제공하면
ENCODING환경 변수로 설정된 기본값이 재정의됩니다. --exporter_thread_count=COUNT- (선택사항) 내보내기 도구 스레드 수를 설정합니다. 기본값은 4입니다.
--help또는-h- 이 도움말 텍스트를 표시합니다.
--keepAliveTimeInSeconds=SECONDS- (선택사항) HTTP 채널의 연결 유지 제한 시간을 초 단위로 지정합니다. 기본값은 480초입니다.
--location=LOCATION- (선택사항) 명령어를 실행할 리전 또는 멀티 리전 위치를 지정합니다. 기본값은 US입니다.
--max_read_queue=NUMBER- (선택사항) Avro 레코드 대기열의 최대 크기를 설정합니다. 기본값은 스레드 수의 두 배입니다.
--max_read_streams=NUMBER- (선택사항) 읽기 스트림 스레드의 최대 수를 설정합니다. 기본값은 4입니다.
--maximum_bytes_billed=BYTES- (선택사항) 쿼리에 청구되는 바이트를 제한합니다.
--order_response- (선택사항) BigQuery에서 반환된 순서대로 응답을 유지합니다.
--outDD=OUTPUT- (선택사항) z/OS의 지정된 데이터 세트에 출력 레코드를 작성합니다. 기본값은 DD OUTFILE입니다.
--parser_type=TYPE- (선택사항) 구성 파서를
legacy,copybook또는auto로 설정합니다. 기본값은auto입니다. --query_dsn=DSN- (선택사항) z/OS의 지정된 데이터 세트에서 쿼리를 읽습니다. HLQ.MEMBER 또는 HLQ.PDS(MEMBER) 형식을 사용하세요. 값을 제공하지 않으면 Mainframe Connector가 DD QUERY에서 읽습니다.
--remoteHost=HOST- (선택사항) 원격 호스트의 IP 주소를 지정합니다. 원격 모드에서 Mainframe Connector를 실행하려면
--bucket플래그를 설정하세요. --remotePort=PORT- (선택사항) 원격 포트를 지정합니다. 기본값은 51770입니다. 원격 모드에서 Mainframe Connector를 실행하려면
--bucket플래그를 설정하세요. --remoteUrl=URL- (선택사항) 원격 URL을 지정합니다. 원격 모드에서 Mainframe Connector를 실행하려면
--bucket플래그를 설정하세요. --run_mode=MODE- (선택사항) 내보내기 구현을 선택합니다. 다음 옵션 중 하나를 사용할 수 있습니다.
directstorage: 바이너리 파일이 로컬에 저장됩니다 (기본값).gcsoutput: 바이너리 파일이 Cloud Storage에 저장됩니다.
--sql=SQL- (선택사항) 실행할 BigQuery SQL 쿼리를 지정합니다.
--stats_table=TABLE- (선택사항) 통계를 삽입할 테이블을 지정합니다.
--timeOutMinutes=MINUTES- (선택사항) 원격 grpc 호출의 제한 시간을 분 단위로 설정합니다. 기본값은 90분입니다.
--transcoding_buffer=BUFFER- (선택사항) 스레드당 트랜스코딩 버퍼의 크기(MB)를 설정합니다. 기본값은 20입니다.
--use_cache={true|false}- (선택사항) 쿼리 결과를 캐시하려면 true로 설정합니다.
--use_legacy_sql- (선택사항) 표준 SQL 대신 legacy SQL을 사용합니다.
bq load
BigQuery 테이블에 데이터를 로드합니다.
개요
bq load [options] tablespec path
플래그 및 인수
bq load 명령어는 다음 플래그와 인수를 사용합니다.
- path
- 소스 파일 URI의 쉼표로 구분된 목록을 지정합니다. 지원되는 형식은
gs://bucket/path입니다. 예를 들면gs://my-bucket/data.orc,gs://my-bucket/more-data.orc입니다. - tablespec
- 데이터의 대상 테이블을 지정합니다. 지원되는 형식은 [PROJECT]:[DATASET].[TABLE] 입니다.
--project_id=ID- 이 명령어를 실행하는 데 사용할 프로젝트를 지정합니다.
--allow_jagged_rows- (선택사항) CSV 데이터에서 후행 선택 열이 누락된 것을 허용합니다.
--allow_quoted_newlines- (선택사항) CSV 데이터 내에 따옴표가 있는 줄바꿈을 허용합니다.
--append_table- (선택사항) 로드된 데이터를 대상 테이블의 기존 데이터에 추가합니다.
--autodetect- (선택사항) CSV 및 JSON 데이터에 스키마 자동 감지를 사용 설정합니다.
--clustering_fields=FIELDS- (선택사항) 이 플래그를 지정하면 쿼리의 대상 테이블이 쉼표로 구분된 열 목록을 통해 클러스터링됩니다. 수집 시간으로 파티션을 나눈 테이블이나
DATE열 또는TIMESTAMP열로 파티션을 나눈 테이블을 만들 때는 이 플래그와 함께 시간으로 파티션 나누기 플래그를 사용해야 합니다. 이 플래그를 지정하면 테이블은 파티션으로 나눠진 후 열을 통해 클러스터링됩니다. --dataset_id=ID- (선택사항) 명령어에 사용할 기본 데이터 세트를 지정합니다. 값을 [PROJECT_ID]:[DATASET] 또는 [DATASET]로 설정할 수 있습니다. [PROJECT_ID]가 누락되면 기본 프로젝트가 사용됩니다.
--debug_mode={true|false}- (선택사항) 로깅 수준을 디버그로 설정합니다.
--destination_kms_key=KEY- (선택사항) 대상 테이블 데이터의 암호화에 사용할 Cloud KMS 키입니다.
--encoding또는-E=ENCODING- (선택사항) 문자 필드를 인코딩 및 디코딩하는 데 사용할 문자 집합을 지정합니다. 지정된 경우 이 값은
ENCODING환경 변수로 설정된 기본값을 재정의합니다. --field_delimiter또는-F=FIELD- (선택사항) CSV 데이터의 열 구분 기호를 지정합니다. 탭 구분 기호에는
\t또는tab를 사용합니다. --help또는-h- 이 도움말 텍스트를 표시합니다.
--ignore_unknown_values=VALUES- (선택사항) CSV 또는 JSON 데이터에서 인식할 수 없는 추가 값을 무시합니다.
--location=LOCATION- (선택사항) 명령어를 실행할 리전 또는 멀티 리전 위치를 지정합니다. 기본값은 US입니다.
--max_bad_records=RECORDS- (선택사항) 작업이 실패하기 전에 허용되는 잘못된 레코드의 최대 수를 설정합니다.
--max_bad_records값과 관계없이 모든 유형에 오류가 최대 5개까지 반환됩니다. 이 플래그는 CSV, JSON, Google Sheets 데이터 로드에만 적용됩니다. 기본값은 0입니다. --max_polling_interval_ms=MILLISECONDS- (선택사항) BigQuery 작업의 최대 대기 시간입니다.
--null_marker=MARKER- (선택사항) CSV 데이터에서
NULL값을 나타내는 맞춤 문자열을 지정합니다. --projection_fields=FIELDS- (선택사항)
--source_format을DATASTORE_BACKUP으로 설정하면 이 플래그는 Datastore 내보내기에서 로드할 항목 속성을 나타냅니다. 쉼표로 구분된 목록에 속성 이름을 지정합니다. 속성 이름은 대소문자를 구분하며 최상위 속성을 참조해야 합니다. 이 플래그는 Firestore 내보내기에도 사용할 수 있습니다. --quote=QUOTE- (선택사항) CSV 데이터의 필드를 묶을 따옴표 문자를 지정합니다. 1바이트 문자를 인수로 지정할 수 있습니다. 기본값은 큰따옴표 (")입니다. 따옴표가 없도록 지정하려면 빈 문자열을 사용합니다.
--replace- (선택사항) 대상 테이블의 기존 데이터를 로드된 데이터로 바꿉니다.
--require_partition_filter={true|false}- (선택사항) 제공된 테이블에 대한 쿼리에 파티션 필터를 사용하려면 true로 설정합니다. 이 인수는 파티션을 나눈 테이블에만 적용되며
--time_partitioning_field플래그가 true로 설정된 경우에만 적용됩니다. 기본값은 false입니다. --schema=SCHEMA- (선택사항) 대상 테이블의 스키마를 정의합니다. [FIELD]:[DATA_TYPE] 형식의 쉼표로 구분된 열 정의 목록으로 값을 지정합니다. 예:
name:STRING,age:INTEGER,city:STRING --schema_update_option=OPTION- (선택사항) 로드 작업 또는 쿼리 작업에서 테이블에 데이터를 추가할 때 또는 테이블 파티션을 덮어쓸 때 대상 테이블의 스키마를 업데이트하는 방법을 지정합니다. 다음 중 한 가지 값을 사용합니다.
ALLOW_FIELD_ADDITION: 새 필드를 추가하도록 허용ALLOW_FIELD_RELAXATION:REQUIRED필드를NULLABLE로 완화하도록 허용
--skip_leading_rows=NUMBER- (선택사항) 소스 파일의 시작 부분에서 건너뛸 행 수를 지정합니다. 기본값은 0입니다.
--source_format=FORMAT- (선택사항) 소스 데이터의 형식을 지정합니다.
CSV,NEWLINE_DELIMITED_JSON,AVRO,DATASTORE_BACKUP(Filestore의 경우 이 값을 사용),PARQUET,ORC중 하나를 사용할 수 있습니다. 기본값은ORC입니다. --stats_table=TABLE- (선택사항) 통계를 삽입할 테이블을 지정합니다.
--time_partitioning_expiration=SECONDS- (선택사항) 시간 기반 파티션을 삭제할 시간을 초 단위로 지정합니다. 만료 시간은 파티션의 UTC 날짜에 지정된 값을 더한 값입니다. 음수를 제공하면 시간 기반 파티션이 만료되지 않습니다.
--time_partitioning_field=FIELD- (선택사항) 시간 기준 파티션을 만드는 방법을 결정하는 데 사용되는 필드를 지정합니다. 이 값을 사용하지 않고 시간 기준 파티션 나누기를 사용 설정하면 로드 시간을 기준으로 테이블 파티션이 나눠집니다.
--time_partitioning_type=TYPE- (선택사항) 테이블에 시간 기준 파티션 나누기를 사용 설정하고
DAY값을 사용하여 파티션 유형을 설정합니다. --use_avro_logical_types={true|false}- (선택사항)
--source_format이AVRO로 설정된 경우 이 플래그를 true로 설정하여INTEGER와 같은 원시 유형만 사용하지 않고 논리 유형을TIMESTAMP와 같은 해당 유형으로 변환합니다. 기본값은 false입니다.
bq mk
파티셔닝 및 클러스터링을 설정해야 하는 기본 제공 테이블 또는 외부 테이블과 같은 BigQuery 리소스를 만듭니다. bq mk 명령어를 사용하여 --schema_from_copybook 플래그를 사용하여 COBOL 카피북을 파싱하여 BigQuery 테이블을 직접 생성할 수도 있습니다.
개요
bq mk [options]
플래그 및 인수
bq mk 명령어는 다음 플래그와 인수를 사용합니다.
--project_id=ID- 이 명령어를 실행하는 데 사용할 프로젝트를 지정합니다.
--tablespec=TABLE- 데이터의 대상 테이블을 지정합니다. 지원되는 형식은 [PROJECT]:[DATASET].[TABLE]입니다.
--clustering_fields=FIELDS- (선택사항) 테이블 클러스터링에 사용할 필드를 지정하는 최대 4개의 열 이름이 포함된 쉼표로 구분된 목록을 지정합니다.
--dataset_id=ID- (선택사항) 명령어에 사용할 기본 데이터 세트를 지정합니다. 값을 [PROJECT_ID]:[DATASET] 또는 [DATASET]로 설정할 수 있습니다. [PROJECT_ID]가 누락되면 기본 프로젝트가 사용됩니다.
--description=DESCRIPTION- (선택사항) 데이터 세트 또는 테이블에 대한 설명을 제공합니다.
--dry_run- (선택사항) 테이블의 데이터 정의 언어 (DDL) 문을 출력합니다.
--encoding=ENCODING- (선택사항) 문자 필드를 인코딩 및 디코딩하는 데 사용할 문자 집합을 지정합니다. 지정된 경우 이 값은
ENCODING환경 변수로 설정된 기본값을 재정의합니다. --expiration=EXPIRATION- (선택사항) 테이블 수명을 지정합니다. 값을 지정하지 않으면 BigQuery에서 데이터 세트의 기본 테이블 수명으로 테이블을 만들거나 테이블이 만료되지 않습니다.
--external_table_definition또는-e=TABLE- (선택사항) 외부 테이블을 만들 이름과 스키마 정의를 지정합니다. 예:
ORC=gs://bucket/table_part1.orc/,gs://bucket/table_part2.orc/. --help또는-h- 이 도움말 텍스트를 표시합니다.
--location=LOCATION- (선택사항) 명령어를 실행할 리전 또는 멀티 리전 위치를 지정합니다. 기본값은 US입니다.
--parser_type=TYPE- (선택사항) 구성 파서를
legacy,copybook또는auto로 설정합니다. 기본값은auto입니다. --require_partition_filter={true|false}- (선택사항) 제공된 테이블에 대한 쿼리에 파티션 필터를 사용하려면 true로 설정합니다. 이 인수는 파티션을 나눈 테이블에만 적용되며
--time_partitioning_field플래그가 true로 설정된 경우에만 적용됩니다. 기본값은 true입니다. --schema=SCHEMA- (선택사항) 로컬 JSON 스키마 파일의 경로 또는 FIELD:DATA_TYPE, FIELD:DATA_TYPE 등의 형식으로 된 쉼표로 구분된 열 정의 목록을 지정합니다.
--schema_from_copybook=SCHEMA- (선택사항) 카피북에서 스키마를 생성합니다.
--table또는-t=TABLE- (선택사항) 테이블을 만듭니다.
--time_partitioning_expiration=SECONDS- (선택사항) 시간 기반 파티션을 삭제할 시간을 초 단위로 지정합니다. 만료 시간은 파티션의 UTC 날짜에 지정된 값을 더한 값입니다. 음수를 제공하면 시간 기반 파티션이 만료되지 않습니다.
--time_partitioning_field=FIELD- (선택사항) 시간 기준 파티션을 만드는 방법을 결정하는 데 사용되는 필드를 지정합니다. 이 값을 사용하지 않고 시간 기준 파티션 나누기를 사용 설정하면 로드 시간을 기준으로 테이블 파티션이 나눠집니다.
--view- (선택사항) 뷰를 만듭니다.
bq query
BigQuery 쿼리를 실행합니다.
개요
bq query [options]
플래그 및 인수
이 명령어는 로컬 모드와 원격 모드에서 실행할 수 있습니다. 원격 모드의 경우 --remoteHost, --remotePort, --remoteUrl 플래그와 BQ_QUERY_REMOTE_EXECUTION 환경 변수를 참고하세요.
bq query 명령어는 다음 플래그와 인수를 사용합니다.
--project_id=ID- 이 명령어를 실행하는 데 사용할 프로젝트를 지정합니다.
--allow_large_results- (선택사항) legacy SQL 쿼리에 큰 대상 테이블 크기를 사용합니다.
--append_table- (선택사항) 로드된 데이터를 대상 테이블의 기존 데이터에 추가합니다.
--batch- (선택사항) 배치 모드에서 쿼리를 실행합니다.
--clustering_fields=FIELDS- (선택사항) 테이블 클러스터링에 사용할 필드를 지정하는 최대 4개의 열 이름이 포함된 쉼표로 구분된 목록을 지정합니다. 파티션 나누기를 지정하여 이 값을 지정하면 테이블이 먼저 파티션으로 나누어진 후 각 파티션이 제공된 열을 사용하여 클러스터링됩니다.
--create_if_needed- (선택사항) 대상 테이블이 없으면 만듭니다.
--dataset_id=ID- (선택사항) 명령어에 사용할 기본 데이터 세트를 지정합니다. 값을 [PROJECT_ID]:[DATASET] 또는 [DATASET]로 설정할 수 있습니다. [PROJECT_ID]가 누락되면 기본 프로젝트가 사용됩니다.
--destination_table=TABLE- (선택사항) 쿼리 결과를 쓸 대상 테이블을 지정합니다.
--dry_run- (선택사항) 쿼리를 실행하지 않고 검사합니다.
--follow={true|false}- (선택사항) 개별 쿼리 단계 또는 스크립트 전체를 추적하려면 true로 설정합니다. 기본값은 false입니다.
--help또는-h- 이 도움말 텍스트를 표시합니다.
--location=LOCATION- (선택사항) 명령어를 실행할 리전 또는 멀티 리전 위치를 지정합니다. 기본값은 US입니다.
--maximum_bytes_billed=BYTES- (선택사항) 쿼리에 청구되는 바이트의 한도를 지정합니다.
--parameters=PARAMETERS- (선택사항) [NAME]:[TYPE]:[VALUE] 형식으로 쉼표로 구분된 쿼리 매개변수를 지정합니다. 이름이 비어 있으면 위치 매개변수가 생성됩니다. name::value 또는 ::value 형식의
STRING값을 사용하려면 [TYPE]을 생략해도 됩니다.NULL은 null 값을 생성합니다. --query_dsn=DSN- (선택사항) HLQ.MEMBER 또는 HLQ.PDS(MEMBER) 형식으로 쿼리를 읽어올 DSN을 지정합니다.
query_dsn가 제공되지 않으면 QUERY DD가 사용됩니다. --remoteHost=HOST- (선택사항) 원격 호스트의 IP 주소를 지정합니다. 원격 모드에서 쿼리를 실행하려면
BQ_QUERY_REMOTE_EXECUTION환경 변수를 설정합니다. --remotePort=PORT- (선택사항) 원격 포트를 지정합니다. 기본값은 51770입니다. 원격 모드에서 쿼리를 실행하려면
BQ_QUERY_REMOTE_EXECUTION환경 변수를 설정합니다. --remoteUrl=URL- (선택사항) 원격 URL을 지정합니다. 원격 모드에서 쿼리를 실행하려면
BQ_QUERY_REMOTE_EXECUTION환경 변수를 설정합니다. --replace- (선택사항) 대상 테이블을 쿼리 결과로 덮어씁니다.
--report_row_limit=LIMIT- (선택사항) 감사 보고서에 인쇄할 최대 행 수를 지정합니다. 기본값은 30입니다.
--require_partition_filter={true|false}- (선택사항) 제공된 테이블에 대한 쿼리에 파티션 필터를 사용하려면 true로 설정합니다. 기본값은 true입니다.
--schema_update_option=OPTION- (선택사항) 데이터를 추가할 때 대상 테이블의 스키마를 업데이트합니다. 다음 값을 사용합니다.
ALLOW_FIELD_ADDITION: 새 필드를 추가하도록 허용ALLOW_FIELD_RELAXATION:REQUIRED필드를NULLABLE로 완화하도록 허용
--split_sql={true|false}- (선택사항) 입력 SQL 스크립트를 개별 쿼리로 분할하려면 true로 설정합니다. 기본값은 true입니다.
--stats_table=TABLE- (선택사항) 통계를 삽입할 테이블을 지정합니다.
--sync={true|false}- (선택사항) 동기 모드로 명령어를 실행합니다.
--synchronous_mode={true|false}- (선택사항)
--sync의 대체 매개변수입니다. --timeOutMinutes=MINUTES- (선택사항) BigQuery 작업 응답의 제한 시간을 분 단위로 지정합니다. 기본값은 240분입니다.
--time_partitioning_expiration=SECONDS- (선택사항) 시간 기반 파티션을 삭제할 시간을 초 단위로 지정합니다. 만료 시간은 파티션의 UTC 날짜에 지정된 값을 더한 값입니다. 음수를 제공하면 시간 기반 파티션이 만료되지 않습니다.
--time_partitioning_field=FIELD- (선택사항) 시간 기준 파티션을 만드는 방법을 결정하는 데 사용되는 필드를 지정합니다. 이 값을 사용하지 않고 시간 기준 파티션 나누기를 사용 설정하면 로드 시간을 기준으로 테이블 파티션이 나눠집니다.
--time_partitioning_type=TYPE- (선택사항) 테이블에서 시간 기반 파티션 나누기를 사용 설정하고 다음 값 중 하나를 사용하여 파티션 유형을 설정합니다.
DAY,HOUR,MONTH,YEAR --use_cache={true|false}- (선택사항) 쿼리 결과를 캐시하려면 true로 설정합니다. 기본값은 true입니다.
--use_legacy_sql- (선택사항) 표준 SQL 대신 legacy SQL을 사용합니다.
cloud run job cancel
특정 작업 실행을 취소합니다.
개요
cloud run job cancel [-h] --project=PROJECT
--region=REGION EXECUTION
플래그 및 인수
cloud run job cancel 명령어는 다음 플래그와 인수를 사용합니다.
- EXECUTION
- Cloud Run 작업 실행 ID의 이름을 지정합니다.
--help또는-h- (선택사항) 이 도움말 메시지를 표시합니다.
--project=PROJECT- 프로젝트 ID를 지정합니다.
--region=REGION- 리소스를 찾을 수 있는 리전을 지정합니다.
cloud run job execute
특정 작업을 실행합니다.
개요
cloud run job execute [-h] [--async] [--tail-logs] [--wait]
[--dump-execution-id=EXECUTION-ID]
[--polling-interval=POLLINGINTERVAL]
--project=PROJECT
--region=REGION
[--task-timeout=TIMEOUT]
[--args=ARGS]...
[--update-env-vars=ENVVARS]...
JOB
플래그 및 인수
cloud run job execute 명령어는 다음 플래그와 인수를 사용합니다.
- JOB
- 실행할 Cloud Run 작업의 이름을 지정합니다.
--args=ARGS- (선택사항) 컨테이너 이미지에서 실행하는 명령어에 전달되는 쉼표로 구분된 인수입니다. 제공된 경우 입력 값으로 실행이 생성됩니다.
--async- (선택사항) 진행 중인 작업이 완료될 때까지 기다리지 않고 즉시 반환하려면 이 플래그를 지정합니다.
--dump-execution-id=EXECUTION-ID : DataPath- (선택사항) 실행 ID를 작성할 파일을 지정합니다.
--help또는-h- (선택사항) 이 도움말 메시지를 표시합니다.
--polling-interval=POLLINGINTERVAL- (선택사항)
--tail_logs가 사용 설정된 경우 로그를 표시하기 위한 폴링 간격을 설정합니다. 기본값은 60초입니다. --project=PROJECT- 프로젝트 ID를 지정합니다.
--region=REGION- 리소스를 찾을 수 있는 리전을 지정합니다.
--tail-logs- (선택사항)
--tail_logs플래그를 지정하여 동기 모드로 명령어를 실행하면 Mainframe Connector가 화면에 진행률 로그를 표시합니다.--tail_logs및--async플래그를 모두 지정하면 오류 메시지가 표시됩니다. Cloud Logging은 실시간 로깅을 지원하지 않으므로 명령어는 로그에 이미 기록된 로그만 표시합니다. 따라서--tail_logs플래그를 사용하면 일부 로그가 누락될 수 있습니다. 전체 작업 로그를 보려면 작업이 완료된 후cloud run job log명령어를 사용하세요. --task-timeout=TIMEOUT- (선택사항) 작업 태스크 시도가 실행될 수 있는 기존 최대 시간 (기한)을 표시합니다. 지정하지 않으면 작업 기본값이 사용됩니다.
--update-env-vars=ENVVARS- (선택사항) 작업 실행의 환경 변수 재정의로 설정할 키-값 쌍 목록입니다.
--wait- (선택사항) 실행이 완료될 때까지 명령어가 대기하도록 하려면 이 플래그를 지정합니다.
cloud run job log
Cloud Run 로그 표시
개요
cloud run job log [-h] [--tail] [--log-filter=FILTER]
[--polling-interval=POLLINGINTERVAL]
--project=PROJECT
--region=REGION
[--timeout=TIMEOUT] EXECUTION-ID
플래그 및 인수
cloud run job log 명령어는 다음 플래그와 인수를 사용합니다.
- EXECUTION-ID
- Cloud Run 작업 실행 ID의 이름입니다.
--help또는-h- (선택사항) 이 도움말 메시지를 표시합니다.
--log-filter=FILTER- (선택사항) 반환할 로그 항목을 지정하는 필터 표현식입니다.
--polling-interval=POLLINGINTERVAL- (선택사항)
--tail_logs가 사용 설정된 경우 로그를 표시하기 위한 폴링 간격을 설정합니다. 기본값은 60초입니다. --project=PROJECT- 프로젝트 ID를 지정합니다.
--region=REGION- 리소스를 찾을 수 있는 리전을 지정합니다.
--tail- (선택사항) 설정된 경우 지금부터 시작되는 새 로그만 표시합니다. 설정하지 않으면 모든 작업 로그가 표시됩니다.
--timeout=TIMEOUT- (선택사항) 명령어가 종료될 때까지의 제한 시간입니다. 설정하지 않으면 실행이 종료될 때 명령어가 시간 초과됩니다.
copy binary
소스 경로에서 대상 경로로 바이너리 데이터 세트를 복사합니다.
개요
copy binary [-h] [--compress] [--buffer-size=BUFFERSIZE]
INPUT OUTPUT
플래그 및 인수
copy binary 명령어는 다음 플래그와 인수를 사용합니다.
- INPUT : DataPath
- 복사할 입력 파일의 데이터 경로를 지정합니다.
- OUTPUT : DataPath
- 복사할 출력 파일의 데이터 경로를 지정합니다.
--buffer-size=BUFFERSIZE : DataSize- (선택사항) 각 데이터 청크의 메모리 읽기 크기를 나타냅니다. 기본값은 64MiB입니다.
--compress- (선택사항) true인 경우 출력 파일이 GZIP을 사용하여 압축됩니다.
--help또는-h- (선택사항) 이 도움말 메시지를 표시합니다.
copy text
텍스트 데이터 세트를 복사합니다.
개요
copy text [-h] [--buffer-size=BUFFERSIZE] INPUT
OUTPUT
플래그 및 인수
copy text 명령어는 다음 플래그와 인수를 사용합니다.
- INPUT : DataPath
- 복사할 입력 파일의 데이터 경로를 지정합니다.
- OUTPUT : DataPath
- 복사하고 인코딩할 출력 파일의 데이터 경로를 지정합니다.
--buffer-size=BUFFERSIZE : DataSize- (선택사항) 각 데이터 청크의 메모리 읽기 크기를 나타냅니다. 기본값은 64MiB입니다.
--help또는-h- (선택사항) 이 도움말 메시지를 표시합니다.
gsutil cp
메인프레임의 데이터를 Cloud Storage 버킷으로 트랜스코딩합니다.
개요
gsutil cp [options] gcsUri [dest]
플래그 및 인수
이 명령어는 다음과 같은 다양한 목적으로 사용할 수 있습니다.
- 메인프레임 또는 Linux 환경에서 Cloud Storage로 파일을 복사하고 트랜스코딩합니다.
- 출처:
--inDSN제공되지 않은 경우 DD INFILE로 지정됩니다. - 대상:
gcsUri - Cloud Storage 내에서 파일 복사 및 트랜스코딩
- 소스:
gcsUri - 대상:
--destPath - Cloud Storage에서 메인프레임으로 파일을 복사합니다.
- 소스:
gcsUri - 대상:
--destDSN - 관련 플래그:
--lrecl,--blksize,--recfm,--noseek - Cloud Storage에서 Linux 환경으로 파일을 복사합니다.
- 소스:
gcsUri - 대상:
--destPath
--remote, --remoteHost, --remotePort, --remoteUrl 플래그를 참고하세요.
gsutil cp 명령어는 다음 플래그와 인수를 사용합니다.
- dest
- (선택사항) 로컬 경로 또는 데이터 소스 이름 (DSN)입니다. 예시 형식:
/path/to/file, DATASET.MEMBER - gcsUri
gs://bucket/path형식의 Cloud Storage URI입니다. 사용에 따라 소스 및 대상 위치를 모두 나타낼 수 있습니다.--batchSize=SIZE- (선택사항) 배치당 사용할 블록을 지정합니다. 기본값은 1000입니다.
--blksize=SIZE- (선택사항) 메인프레임에 복사할 파일의 블록 크기를 지정합니다.
blksize=0이고recfm이 U가 아닌 경우 메인프레임 시스템은 파일의 최적 블록 크기를 결정합니다. --cobDsn=DSN- (선택사항) 사용할 카피북 DSN을 지정합니다. 값을 제공하지 않으면 Mainframe Connector가 DD COPYBOOK에서 읽습니다.
--connections=NUMBER- (선택사항) 원격 수신기에 연결할 수 있는 연결 수를 지정합니다. 기본값은 10입니다.
--dataset_id=ID- (선택사항) 명령어에 사용할 기본 데이터 세트를 지정합니다. 값을 [PROJECT_ID]:[DATASET] 또는 [DATASET]로 설정할 수 있습니다. [PROJECT_ID]가 누락되면 기본 프로젝트가 사용됩니다.
--destDSN=OUTPUT- (선택사항) 대상 DSN을 지정합니다.
--destPath=OUTPUT- (선택사항) 대상 경로를 지정합니다.
--dry_run- (선택사항) 카피북 파싱 및 QSAM 파일 디코딩을 테스트합니다.
--encoding=ENCODING- (선택사항) 문자 필드를 인코딩 및 디코딩하는 데 사용할 문자 집합을 지정합니다. 지정된 경우 이 값은
ENCODING환경 변수로 설정된 기본값을 재정의합니다. --help또는-h- 이 도움말 텍스트를 표시합니다.
--inDsn=DSN- (선택사항) 사용할 infile DSN을 지정합니다. 값을 제공하지 않으면 Mainframe Connector가 DD INFILE에서 읽습니다.
--keepAliveTimeInSeconds=SECONDS- (선택사항) HTTP 채널의 연결 유지 제한 시간을 초 단위로 지정합니다. 기본값은 480초입니다.
--location=LOCATION- (선택사항) 명령어를 실행할 리전 또는 멀티 리전 위치를 지정합니다. 기본값은 US입니다.
--lowerCaseColumnNames- (선택사항) 카피북 필드의 소문자 열 이름을 만듭니다.
--lrecl=LRECL- (선택사항) 메인프레임에 복사할 파일의 논리 레코드 길이 (lrecl)를 지정합니다.
--maxChunkSize=SIZE- (선택사항) 배치당 최대 청크 크기를 지정합니다. 크기를 설명할 때는 K, KiB, KB, M, MiB, MB, G, GiB, GB, T, TiB 또는 TB를 사용해야 합니다. 기본값은 128MiB입니다.
--max_error_pct=PCT- (선택사항) 행 디코딩 오류의 작업 실패 기준을 지정합니다. 유효한 값은 [0.0, 1.0] 범위 내에 있습니다. 기본값은 0입니다.
--noseek- (선택사항) Cloud Storage에서 메인프레임으로의 다운로드 성능을 개선합니다.
--parallel또는-m- (선택사항) 동시 작성자 수를 4로 설정합니다.
--parallelism또는-p=NUMBER- (선택사항) 동시 작성자 수를 지정합니다. 기본값은 4입니다.
--parser_type=TYPE- (선택사항) 구성 파서를
legacy,copybook또는auto로 설정합니다. 기본값은auto입니다. --preload_chunk_count=NUMBER- (선택사항) 모든 작업자가 사용 중인 동안 디스크에서 미리 로드할 청크 수를 지정합니다. 기본값은 2입니다.
--project_id=ID- (선택사항) 이 명령어를 실행하는 데 사용할 프로젝트를 지정합니다.
--recfm=REFCM- (선택사항) 메인프레임에 복사할 파일의 recfm을 지정합니다. F, FB, V, VB, U 중 하나를 사용할 수 있습니다. 기본값은 FB입니다.
--remote- (선택사항) 원격 디코더를 사용합니다.
--remoteHost=HOST- (선택사항) 원격 호스트의 IP 주소를 지정합니다. 원격 모드에서 Mainframe Connector를 실행하려면
--remote플래그를 설정하세요. --remotePort=PORT- (선택사항) 사용할 원격 포트를 지정합니다. 기본값은 51770입니다. 원격 모드에서 Mainframe Connector를 실행하려면
--remote플래그를 설정하세요. --remoteUrl=URL- (선택사항) 원격 URL을 지정합니다. 원격 모드에서 Mainframe Connector를 실행하려면
--remote플래그를 설정하세요. --replace- (선택사항) 업로드하기 전에 대상 디렉터리를 재귀적으로 삭제합니다.
--stats_table=TABLE- (선택사항) 통계를 삽입할 테이블을 지정합니다.
--tfDSN=DSN- (선택사항) DSN, DATASET.MEMBER 또는 PDS(MBR)의 변환을 지정합니다.
--tfGCS=GCS- (선택사항) Cloud Storage에서 변환 파일을 지정합니다.
--timeOutMinutes=MINUTES- (선택사항) 원격 grpc 호출의 제한 시간을 분 단위로 지정합니다. 기본값은 Cloud Storage의 경우 90분, 메인프레임의 경우 50분입니다.
gsutil rm
Cloud Storage 객체를 삭제합니다.
개요
gsutil rm [-hR] URL...
플래그 및 인수
gsutil rm 명령어는 다음 플래그와 인수를 사용합니다.
- URL
- Cloud Storage 위치를
gs://bucket/prefix형식으로 지정합니다. --help또는-h- (선택사항) 이 도움말 메시지를 표시합니다.
-R또는-r- (선택사항) 경로 표현식과 일치하는 디렉터리 또는 객체의 콘텐츠를 재귀적으로 삭제합니다. 디렉터리 또는 객체가 존재하지 않으면 오류가 발생하지 않습니다.
pubsub topics publish
메시지를 Pub/Sub 주제에 게시합니다.
이 명령어를 사용하면 --data 플래그를 사용하여 직접 또는 --data-path 플래그를 사용하여 파일을 통해 메시지 데이터를 전송할 수 있습니다. 속성, 순서 지정 키를 포함하고 메시지 속성을 적용할 수도 있습니다. 또한 메시지 콘텐츠에 동적 문자열 대체를 적용할 수 있습니다.
개요
pubsub topics publish [-h] [--data=DATA]
[--data-path=DATAPATH]
[--ordering-key=ORDERING-KEY]
[--attributes=NAME=VALUE[,
NAME=VALUE...]]...
[--message-property=KEY=VALUE]...
[--substitution=KEY=VALUE]...
TOPIC
플래그 및 인수
pubsub topics publish 명령어는 다음 플래그와 인수를 사용합니다.
- TOPIC
projects/{project}/topics/{topic}형식으로 주제 이름을 지정합니다.--attributes=NAME=VALUE- (선택사항) 쉼표로 구분된 속성 목록을 지정합니다. 각 ATTRIBUTE의 형식은
name=value입니다. 최대 100개의 속성을 지정할 수 있습니다. 전체 속성 가이드라인 목록은 속성을 사용하여 메시지 게시를 참고하세요. --data-path=DATAPATH : DataPath- (선택사항) 메시지의 데이터를 포함하는 파일의 경로를 지정합니다.
--data또는--data-path중 하나의 플래그를 설정해야 하며, 둘 다 설정할 수는 없습니다. 메시지 형식 및 크기 제한에 대한 자세한 내용은 주제에 메시지 게시를 참고하세요. --data=DATA- (선택사항) 지정된 주제 이름에 게시할 메시지의 본문을 지정합니다.
--data또는--data-path중 하나의 플래그를 설정해야 하며, 둘 다 설정할 수는 없습니다. 메시지 형식 및 크기 제한에 대한 자세한 내용은 주제에 메시지 게시를 참고하세요. --help또는-h- (선택사항) 이 도움말 메시지를 표시합니다.
--message-property=KEY=VALUE- (선택사항) 메시지에 적용할 속성을 지정합니다. 유효한 속성 키는
encoding입니다. 이 속성 키는 메시지 문자열에 사용할 문자 인코딩을 지정합니다. 메시지 문자열은 Pub/Sub 주제로 전송되기 전에 이 인코딩을 사용하여 바이트로 변환됩니다. 지원되는 인코딩 값 목록은 지원되는 인코딩을 참고하세요. 기본값은UTF-8입니다. --ordering-key=ORDERING-KEY- (선택사항) 구독자에게 메시지가 순서대로 전송되도록 하는 키를 지정합니다. 순서 키가 동일한 모든 메시지는 Pub/Sub가 수신하는 순서대로 구독자에게 전송됩니다.
--substitution=KEY=VALUE(선택사항)
--data또는--data-path를 사용하여 Pub/Sub 메시지 데이터에 적용할 동적 대체에 사용할 키-값 쌍을 지정합니다. Mainframe Connector는 메시지 데이터에서 자리표시자를 검색하고 해당 값으로 바꿉니다. ${KEY} 구문을 사용하여 데이터의 자리표시자를 정의합니다(예: ${NAME}). 각 대체 항목을KEY=VALUE형식을 사용하여 키-값 쌍으로 지정합니다.--substitution key1=value1 --substitution key2=value2옵션을 반복하여 여러 대체 항목을 지정할 수 있습니다.예를 들어 입력 데이터가
Hello, ${username}!이고--substitution username=World를 사용하는 경우 Pub/Sub로 전송되는 메시지는Hello, World!입니다.
qsam decode
QSAM 데이터를 디코딩합니다.
이 명령어는 --output-format 인수를 사용하여 지정한 형식으로 QSAM 파일의 레코드를 디코딩합니다. 원본 QSAM 파일은 --max-chunk-size 인수로 지정한 값을 기반으로 청크로 분할됩니다. 트랜스코딩된 출력은 사전순으로 정렬된 파일로 타겟 경로에 저장됩니다.
개요
qsam decode [-h] [--replace] [--chunk-size=CHUNK-SIZE]
--copybook=COPYBOOK
[--max-error-percent=MAX_ERROR_PERCENT]
[--output-format=FORMAT]
[--parallelism=COUNT]
[--preload-chunk-count=PRELOAD_CHUNK_COUNT]
[--transcode-configuration=CONFIG]
[--input-parameter=KEY=VALUE]... INPUT
OUTPUT
플래그 및 인수
qsam decode 명령어는 다음 플래그와 인수를 사용합니다.
- INPUT : DataPath
- 디코딩할 QSAM 파일의 데이터 경로를 지정합니다.
- OUTPUT : DataPath
- 출력 접두사의 데이터 경로를 지정합니다. 모든 출력은 이 접두사 아래에 저장됩니다.
--chunk-size=CHUNK-SIZE : DataSize- (선택사항) 각 출력 파일에 포함할 입력 데이터의 양을 지정합니다. 출력 파일이 더 크거나 작을 수 있습니다. 청크 크기는 논리 레코드 길이의 가장 가까운 배수로 내림됩니다. 기본값은 128MiB입니다.
--copybook=COPYBOOK : DataPath- 카피북이 포함된 파일의 데이터 경로를 지정합니다.
--help또는-h- (선택사항) 이 도움말 메시지를 표시합니다.
--input-parameter=KEY=VALUE(선택사항) 입력을 구성하는 매개변수를 지정합니다. 각 매개변수는
KEY=VALUE로 정의됩니다. 지원되는 입력 매개변수 키는 다음과 같습니다.csv-dialect: CSV 파싱을 구성합니다. 값은 CSV 구성 파일을 가리키는DataPath입니다.json-dialect: JSON 파싱을 구성합니다. 값은 JSON 구성 파일을 가리키는DataPath입니다.pubsub-publish-configuration: Pub/Sub에 전송되는 메시지를 구성합니다. 값은 Pub/Sub 구성 파일을 가리키는DataPath입니다.output-prefix: 출력 파일에 접두사를 추가합니다.
--max-error-percent=MAX_ERROR_PERCENT(선택사항) 트랜스코딩 프로세스가 실패하기 전에 오류가 허용되는 처리된 레코드의 비율을 지정합니다. 값은 0.0 (트랜스코딩 오류가 있는 경우 실패)에서 1.0 (트랜스코딩 오류가 있는 경우 실패하지 않음) 사이입니다. 기본값은 0입니다.
--output-format=FORMAT : TranscodeFormat(선택사항) 출력 파일의 형식을 지정합니다. Pub/Sub 주제의
DataPath을OUTPUT의 값으로 제공하면 기본 출력 형식은JSONL입니다. 다른 모든DataPaths의 경우 기본 출력 형식은ORC입니다.--parallelism=COUNT(선택사항) 처리 스레드 수를 지정합니다. 값은 사용 가능한 코어 수보다 작거나 같아야 합니다. 기본값은 1입니다.
--preload-chunk-count=PRELOAD_CHUNK_COUNT(선택사항) 모든 스레드가 처리 중일 때 미리 로드할 데이터 청크 수를 지정합니다. 기본값은 1입니다.
--replace(선택사항) 지정된 경우 디코딩 결과를 쓰기 전에 출력 경로를 재귀적으로 삭제합니다.
--transcode-configuration=CONFIG : DataPath(선택사항) 트랜스코딩 구성이 포함된 파일을 지정합니다. 트랜스코더 구성 형식에 관한 자세한 내용은 트랜스코더 구성을 참고하세요.
qsam encode
QSAM 데이터를 인코딩합니다.
이 명령어는 외부 소스의 데이터를 가져와 QSAM 파일로 변환합니다. 입력은 --input-format 인수를 사용하여 지정한 값으로 정의됩니다.
개요
qsam encode [-h] --copybook=COPYBOOK
--input-format=FORMAT
[--input-stream-count=COUNT]
[--max-error-percent=MAX_ERROR_PERCENT]
[--parallelism=COUNT]
[--spillover=SPILLOVER]
[--transcode-configuration=CONFIG]
[--input-parameter=KEY=VALUE]... INPUT
OUTPUT
플래그 및 인수
qsam encode 명령어는 다음 플래그와 인수를 사용합니다.
- INPUT : DataPath
- QSAM 파일로 인코딩할 입력 파일의 데이터 경로를 지정합니다.
- OUTPUT : DataPath
- 인코딩할 QSAM 파일의 데이터 경로를 지정합니다.
--copybook=COPYBOOK : DataPath- 카피북이 포함된 파일의 데이터 경로를 지정합니다.
--help또는-h- (선택사항) 이 도움말 메시지를 표시합니다.
--input-format=FORMAT : TranscodeInputFormat- 입력의 형식을 지정합니다.
--input-parameter=KEY=VALUE(선택사항) 입력을 구성하는 매개변수를 지정합니다. 각 매개변수는
KEY=VALUE로 정의됩니다. 지원되는 입력 매개변수 키는 다음과 같습니다.csv-dialect: CSV 파싱을 구성합니다. 값은 CSV 구성 파일을 가리키는DataPath입니다.json-dialect: JSON 파싱을 구성합니다. 값은 JSON 구성 파일을 가리키는DataPath입니다.project-id: ORC의 경우 Cloud Storage 프로젝트 ID입니다.
--input-stream-count=COUNT(선택사항) 입력 스트림 수를 지정합니다. 이는 최대값이며 실제로는 더 적은 스트림이 사용될 수 있습니다. 기본값은 1입니다.
--max-error-percent=MAX_ERROR_PERCENT(선택사항) 트랜스코딩 프로세스가 실패하기 전에 오류가 허용되는 처리된 레코드의 비율을 지정합니다. 값은 0.0 (트랜스코딩 오류가 있는 경우 실패)에서 1.0 (트랜스코딩 오류가 있는 경우 실패하지 않음) 사이입니다. 기본값은 0입니다.
--parallelism=COUNT(선택사항) 처리 스레드 수를 지정합니다. 값은 사용 가능한 코어 수 이하여야 합니다. 기본값은 1입니다.
--spillover=SPILLOVER : DataPath(선택사항) 스필오버 데이터 세트의 데이터 경로를 지정합니다. 이 정보를 지정하지 않으면 오류 세부정보가 삭제됩니다.
--transcode-configuration=CONFIG : DataPath(선택사항) 트랜스코딩 구성이 포함된 파일을 지정합니다. 트랜스코더 구성 형식에 관한 자세한 내용은 트랜스코더 구성을 참고하세요.
scp
Cloud Storage에 파일을 복사합니다.
개요
scp [options] [input] [output]
플래그 및 인수
이 명령어를 사용하려면 다음 사항을 확인해야 합니다.
input,--inDD또는--inDsn를 통해 고유한 입력 값을 하나 설정합니다.- 출력 또는
--gcsOutUri를 통해 고유한 출력 값을 하나 설정합니다.
scp 명령어는 다음 플래그와 인수를 사용합니다.
- input
- (선택사항) 복사할 DD 또는 DSN을 지정합니다. 대신
--inDD또는--inDsn를 사용할 수 있습니다. - output
- (선택사항) gs://[BUCKET]/[PREFIX] 형식을 사용하여 출력의 URI를 지정합니다. 대신
--gcsOutUri을 사용할 수 있습니다. --compress- (선택사항) gzip으로 출력을 압축합니다.
--count또는-n=RECORDS- (선택사항) 복사할 레코드 수를 지정합니다. 기본값은 무제한입니다.
--encoding=ENCODING- (선택사항) 입력 문자 인코딩을 지정합니다. 기본값은 CP037입니다.
--gcsOutUri=URI- (선택사항) 파일 복사본의 대상 Cloud Storage URI를 지정합니다.
--help또는-h- 이 도움말 텍스트를 표시합니다.
--inDD=INPUT- (선택사항) 복사할 DD 파일을 지정합니다. 기본값은 DD INFILE입니다.
--inDsn=INPUT- (선택사항) 복사할 DSN을 지정합니다.
--noConvert- (선택사항) 문자 입력을 ASCII로 변환하지 않습니다. 문자 변환은 기본적으로 사용 설정되어 있습니다.
systemreport
시스템 보고서를 제공합니다.
개요
systemreport [-h] [--available-security-providers] [--supported-ciphers]
플래그 및 인수
systemreport 명령어는 다음 플래그와 인수를 사용합니다.
--available-security-providers- (선택사항) 지원되는 보안 제공업체를 출력합니다.
--help또는-h- (선택사항) 이 도움말 메시지를 표시합니다.
--supported-ciphers- (선택사항) 지원되는 암호를 출력합니다.
vsam decode
VSAM 데이터를 디코딩합니다.
이 명령어는 --output-format 인수를 사용하여 VSAM 파일의 레코드를 지정된 형식으로 디코딩합니다. 원래 VSAM 파일은 --max-chunk-size 인수로 지정한 값을 기반으로 청크로 분할됩니다. 트랜스코딩된 출력은 사전순으로 정렬된 파일로 타겟 경로에 저장됩니다.
개요
vsam decode [-h] [--replace] [--chunk-size=CHUNK-SIZE]
--copybook=COPYBOOK
[--max-error-percent=MAX_ERROR_PERCENT]
[--output-format=FORMAT]
[--parallelism=COUNT]
[--preload-chunk-count=PRELOAD_CHUNK_COUNT]
[--transcode-configuration=CONFIG]
[--input-parameter=KEY=VALUE]... INPUT
OUTPUT
플래그 및 인수
vsam decode 명령어는 다음 플래그와 인수를 사용합니다.
- INPUT : DataPath
- 디코딩할 VSAM 파일의 데이터 경로를 지정합니다.
- OUTPUT : DataPath
- 출력 접두사의 데이터 경로를 지정합니다. 모든 출력은 이 접두사 아래에 저장됩니다.
--chunk-size=CHUNK-SIZE : DataSize- (선택사항) 각 출력 파일에 포함할 입력 데이터의 양을 지정합니다. 출력 파일이 더 크거나 작을 수 있습니다. 청크 크기는 논리 레코드 길이의 가장 가까운 배수로 내림됩니다. 기본값은 128MiB입니다.
--copybook=COPYBOOK : DataPath- 카피북이 포함된 파일의 데이터 경로를 지정합니다.
--help또는-h- (선택사항) 이 도움말 메시지를 표시합니다.
--input-parameter=KEY=VALUE(선택사항) 입력을 구성하는 매개변수를 지정합니다. 각 매개변수는
KEY=VALUE로 정의됩니다. 지원되는 입력 매개변수 키는 다음과 같습니다.csv-dialect: CSV 파싱을 구성합니다. 값은 CSV 구성 파일을 가리키는DataPath입니다.json-dialect: JSON 파싱을 구성합니다. 값은 JSON 구성 파일을 가리키는DataPath입니다.pubsub-publish-configuration: Pub/Sub에 전송되는 메시지를 구성합니다. 값은 Pub/Sub 구성 파일을 가리키는DataPath입니다.output-prefix: 출력 파일에 접두사를 추가합니다.
--max-error-percent=MAX_ERROR_PERCENT(선택사항) 트랜스코딩 프로세스가 실패하기 전에 오류가 허용되는 처리된 레코드의 비율을 지정합니다. 값은 0.0 (트랜스코딩 오류가 있는 경우 실패)에서 1.0 (트랜스코딩 오류가 있는 경우 실패하지 않음) 사이입니다. 기본값은 0입니다.
--output-format=FORMAT : TranscodeFormat(선택사항) 출력 파일의 형식을 지정합니다. Pub/Sub 주제의
DataPath을OUTPUT의 값으로 제공하면 기본 출력 형식은JSONL입니다. 다른 모든DataPaths의 경우 기본 출력 형식은ORC입니다.--parallelism=COUNT(선택사항) 처리 스레드 수를 지정합니다. 값은 사용 가능한 코어 수보다 작거나 같아야 합니다. 기본값은 1입니다.
--preload-chunk-count=PRELOAD_CHUNK_COUNT(선택사항) 모든 스레드가 처리 중일 때 미리 로드할 데이터 청크 수를 지정합니다. 기본값은 1입니다.
--replace(선택사항) 지정된 경우 디코딩 결과를 쓰기 전에 출력 경로를 재귀적으로 삭제합니다.
--transcode-configuration=CONFIG : DataPath(선택사항) 트랜스코딩 구성이 포함된 파일을 지정합니다. 트랜스코더 구성 형식에 관한 자세한 내용은 트랜스코더 구성을 참고하세요.
매개변수 유형
Mainframe Connector 명령어에 사용되는 일반적인 유형입니다.
DataPath
DataPath은 입력 또는 출력을 나타내는 문자열입니다. 각 DataPath 유형에는 다음과 같은 자체 접두사와 인수가 있습니다.
DD:- 이 접두사가 있는 데이터 경로는 작업 제어 언어 (JCL) 작업에서 실행될 때 데이터 정의 문 (DD)을 가리킵니다. DD에encoding=를 추가하여 DD 인코딩을 변경할 수 있습니다. 예를 들면DD:DDNAME또는DD:DDNAME?encoding=UTF-8입니다. 기본 DD 인코딩은 기본 OS 인코딩입니다.DSN:- 이 접두사가 있는 데이터 경로는 메인프레임에서 실행할 때 데이터 소스 이름 (DSN)을 가리킵니다. DSN에encoding=을 추가하여 DSN 인코딩을 변경할 수 있습니다. 예를 들면DSN:HQ.FOO.BAR또는DSN:HQ.FOO.BAR?encoding=cp037입니다.file:- 이 접두사가 있는 데이터 경로는 Unix 파일을 가리킵니다. Unix 파일에서 다음을 지정할 수 있습니다.:앞에#lrecl을 추가하여 논리 레코드 길이 (LRECL)를 설정합니다.:앞에&recfm를 추가하여 레코드 형식 (RECFM)을 지정합니다. 기본 RECFM은F입니다.:앞에&encoding를 추가하여 인코딩합니다. 기본 인코딩은UTF-8입니다.
예를 들면
file:/path/to/file,file?80:/path/to/file,file?80&recfm=FB:/path/to/file,file?80&recfm=FB&encoding=cp037:/path/to/file입니다.gs://- 이 접두사가 있는 데이터 경로는 Cloud Storage의 파일을 가리킵니다. 파일에서 다음을 지정할 수 있습니다.- 버킷 접두사 뒤에
?lrecl=lrecl를 추가하여 LRECL을 가져옵니다. - 버킷 접두사 뒤에
?recfm=recfm를 추가하여 RECFM을 지정합니다. 기본 RECFM은F입니다. - 버킷 접두사 뒤에
?encoding=를 추가하여 인코딩합니다. 기본 인코딩은UTF-8입니다.
예를 들면
gs://my_bucket/my/file.txt,gs://my_bucket/my/file.txt?encoding=cp037,gs://my_bucket/my/file.txt?recfm=fb&encoding=cp037,gs://my_bucket/my/file.txt?lrecl=80&recfm=fb&encoding=cp037입니다.- 버킷 접두사 뒤에
pubsub:- 이 접두사가 있는 데이터 경로는 Pub/Sub 리소스를 가리킵니다. 예를 들면pubsub:projects/projectId/topics/topicId입니다.
Cloud Storage 또는 Unix 파일의 경우 RECFM이 V로 설정되면 Mainframe Connector는 다음과 같이 LLzz 형식으로 파일을 읽고 씁니다.
- 처음 2바이트는 데이터 크기 + 4바이트를 나타냅니다.
- 후속 2바이트는 항상 0x0000입니다.
- 나머지 바이트는 실제 레코드 데이터를 구성합니다.
Cloud Storage 또는 Unix 파일의 경우 RECFM이 VC로 설정되면 Mainframe Connector는 다음과 같이 zzLL 형식으로 파일을 읽고 씁니다.
- 처음 두 바이트는 항상 0x0000입니다.
- 다음 두 바이트는 데이터 크기를 나타냅니다.
- 나머지 바이트는 실제 레코드 데이터를 구성합니다.
DataSize
DataSize는 크기를 금액과 측정 단위(예: 5MiB)의 형태로 나타냅니다. 금액과 크기 사이에 공백을 사용할 수 있습니다. 데이터 크기 파싱은 대소문자를 구분하지 않으므로 측정 단위를 대소문자 모두로 지정할 수 있습니다.
다음 형식으로 값을 지정할 수 있습니다.
- Java 형식: b/k/m/g/t(각각 바이트, 키비바이트, 메비바이트, 기비바이트, 테비바이트)
- 국제 형식: KiB/MiB/GiB/TiB(각각 키비바이트, 메비바이트, 기비바이트, 테비바이트)
- 미터법 형식: b/kb/mb/gb/tb(각각 바이트, 킬로바이트, 메가바이트, 기가바이트, 테라바이트)
TranscodeFormat
TranscodeFormat는 트랜스코딩 프로세스 중에 사용할 형식을 나타냅니다.
유효한 값은 다음과 같습니다.
ORC-ORC는 자체 설명이 가능한 유형 인식 열 형식입니다.CSV-CSV는 각 줄이 행을 나타내는 표 형식 데이터를 저장하는 일반 텍스트 형식입니다.csv-dialect입력 매개변수를 사용하여 CSV 매개변수를 지정할 수 있습니다. DataPath가 이러한 매개변수의 위치를 가리키는--input-parameter csv-dialect=DataPath로 정의할 수 있습니다.JSONL-JSONL는 각 줄이 행을 나타내는 표 형식 데이터를 저장하는 일반 텍스트 형식입니다.json-dialect입력 매개변수를 사용하여 JSON 매개변수를 지정할 수 있습니다. DataPath가 이러한 매개변수의 위치를 가리키는--input-parameter json-dialect=DataPath로 정의할 수 있습니다.
TranscodeInputFormat
트랜스코딩 중에 사용할 형식입니다.
유효한 값은 다음과 같습니다.
BIGQUERY- BigQuery에서 데이터를 직접 가져옵니다.INPUT는 쿼리 파일의 경로여야 합니다.사용 가능한 입력 매개변수는 다음과 같습니다.
keep-order- 레코드의 정확한 순서가 중요한 경우 사용합니다. 이렇게 하면 입력 스트림이 제한됩니다.project-id- 작업을 실행할 때 사용할 프로젝트 ID입니다.location- 작업을 실행할 때 사용할 위치입니다.
CSV-CSV는 각 줄이 행을 나타내는 표 형식 데이터를 저장하는 일반 텍스트 형식입니다.csv-dialect입력 매개변수를 사용하여 CSV 매개변수를 지정할 수 있습니다. DataPath가 이러한 매개변수의 위치를 가리키는--input-parameter csv-dialect=DataPath로 정의할 수 있습니다.JSONL-JSONL는 각 줄이 행을 나타내는 표 형식 데이터를 저장하는 일반 텍스트 형식입니다.json-dialect입력 매개변수를 사용하여 JSON 매개변수를 지정할 수 있습니다. DataPath가 이러한 매개변수의 위치를 가리키는--input-parameter json-dialect=DataPath로 정의할 수 있습니다.ORC-ORC는 자체 설명이 가능한 유형 인식 열 형식입니다. Cloud Storage에서ORC파일을 트랜스코딩하려면project-id값을 Cloud Storage가 있는 프로젝트 ID로 설정합니다.