Export-to-Workbench パイプライン

Document AI ウェアハウスから Document AI ワークベンチにドキュメントを転送するには、export-to-Workbench パイプラインを使用します。このパイプラインは、ドキュメントを Cloud Storage フォルダにエクスポートし、Document AI データセットにインポートします。Cloud Storage フォルダと Document AI データセットを指定します。

前提条件

始める前に、次のものが必要になります。

  • 同じ Google Cloud プロジェクトで、プロセッサを作成する手順に沿って操作します。
  • エクスポートされたドキュメントを保存するための空の Cloud Storage フォルダを用意します。

  • カスタム プロセッサのページで、[データセットを構成]、[続行] の順にクリックして、データセットを初期化します。

パイプラインの実行

REST

curl --location --request POST 'https://contentwarehouse.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION:runPipeline' \
--header 'Content-Type: application/json' \
--header "Authorization: Bearer ${AUTH_TOKEN}" \
--data '{
    "name": "projects/PROJECT_NUMBER/locations/LOCATION",
    "export_cdw_pipeline": {
        "documents": [
            "projects/PROJECT_NUMBER/locations/LOCATION/documents/DOCUMENT",
        ],
        "export_folder_path": "gs://CLOUD STORAGE FOLDER",
        "doc_ai_dataset": "projects/PROJECT_NUMBER/locations/LOCATION/processors/PROCESSOR/dataset",
        "training_split_ratio": RATIO,
    },
    "request_metadata": {
        "user_info": {
            "id": "user:USER EMAIL ADDRESS",
        }
    }
}'

トレーニングとテストの分割比率は、training_split_ratio フィールドで浮動小数点数として指定できます。たとえば、10 個のドキュメントのセットで、比率が 0.8 と指定されている場合、8 個のドキュメントがトレーニング セットに追加され、残りの 2 個のドキュメントがテストセットに追加されます。

このコマンドは、長時間実行オペレーションのリソース名を返します。次のステップで、これを使用してパイプラインの進行状況を追跡します。

長時間実行オペレーションの結果を取得する

REST

curl --location --request GET 'https://contentwarehouse.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION/operations/OPERATION' \
--header "Authorization: Bearer ${AUTH_TOKEN}"

次のステップ

  • Document AI に移動して、エクスポートされたドキュメントを確認します。