Datenspeicher für die Suche nach Gesundheitsdaten erstellen

Wenn Sie klinische Daten in Vertex AI Search durchsuchen möchten, können Sie einen der folgenden Workflows verwenden:

  • Erstellen Sie einen Datenspeicher für Gesundheitsdaten, importieren Sie FHIR R4-Daten in den Datenspeicher, verbinden Sie ihn mit einer Anwendung zur Suche nach Gesundheitsdaten und fragen Sie die klinischen Daten ab.
  • Erstellen Sie eine App zur Suche nach Gesundheitsdaten, erstellen Sie einen Datenspeicher für Gesundheitsdaten und importieren Sie FHIR R4-Daten in den Datenspeicher während der App-Erstellung und fragen Sie die klinischen Daten ab. Weitere Informationen finden Sie unter Such-App für das Gesundheitswesen erstellen.

Auf dieser Seite wird die erste Methode beschrieben.

Häufigkeit des Datenimports

Sie können FHIR R4-Daten auf folgende Weise in einen Datenspeicher importieren:

  • Batchimport: ein einmaliger Import. Daten werden in Batches in einen Datenspeicher importiert. Weitere Informationen zu inkrementellen Importen finden Sie unter Gesundheitsdaten aktualisieren.

  • Streamingimport: ein Streamingdatenimport nahezu in Echtzeit. Alle inkrementellen Änderungen im FHIR-Quellspeicher werden mit dem Vertex AI Search-Datenspeicher synchronisiert. Für das Streaming ist ein Daten-Connector erforderlich, der eine Art Datenspeicher ist. Wenn Sie einen Datenconnector erstellen möchten, müssen Sie eine Sammlung einrichten. Ein Daten-Connector enthält eine Entität, die auch eine Datenspeicherinstanz ist.

    Sie können das Streaming auch pausieren und fortsetzen und bei Bedarf eine manuelle Synchronisierung durchführen. Weitere Informationen finden Sie unter Datenspeicher für Suchdaten im Gesundheitswesen verwalten.

    Die Datenstreamingrate für ein bestimmtes Google Cloud Projekt hängt von den folgenden Kontingenten ab. Wenn Sie das Kontingent überschreiten, kann es zu Streamingverzögerungen kommen.

Sie können die Häufigkeit des Datenimports beim Erstellen des Datenspeichers auswählen. Diese Konfiguration kann später nicht mehr geändert werden.

Hinweise

Bevor Sie den Gesundheitsdatenspeicher erstellen und Daten darin importieren, sollten Sie Folgendes wissen:

  • Die Beziehung zwischen Apps und Datenspeichern für die Suche nach Gesundheitsdaten. Weitere Informationen finden Sie unter Apps und Datenspeicher.

  • Vorbereitung Ihrer FHIR-Daten für die Aufnahme

  • Vertex AI Search for Healthcare bietet Suchdienste nur in der US-Multiregion (us) an. Ihre Healthcare-Suchanwendung und Ihre Datenspeicher müssen sich daher in der Multiregion us befinden.

  • Wenn Sie Gesundheitsdaten aus einem Cloud Healthcare API-FHIR-Speicher in einem Google Cloud Projekt in einen Vertex AI Search-Datenspeicher in einem anderen Google Cloud Projekt importieren und VPC Service Controls verwenden, müssen sich die beiden Projekte im selben Perimeter befinden.

Datenspeicher erstellen und Daten importieren

Sie können einen Datenspeicher erstellen und Ihre FHIR R4-Daten entweder in derGoogle Cloud Console oder über die API mit den folgenden Methoden importieren:

Statischen Datenspeicher erstellen und einmaligen Batch-Import durchführen

In diesem Abschnitt wird beschrieben, wie Sie einen Vertex AI Search-Datenspeicher erstellen, in den Sie nur Batchimporte ausführen können. Sie können Batchdaten importieren, wenn Sie den Datenspeicher zum ersten Mal erstellen, und bei Bedarf inkrementelle Batchimporte durchführen.

Console

  1. Rufen Sie in der Google Cloud Console die Seite KI-Anwendungen auf.

    KI-Anwendungen

  2. Klicken Sie im Navigationsmenü auf Datenspeicher.

  3. Klicken Sie auf Datenspeicher erstellen.

  4. Wählen Sie im Bereich Datenquelle auswählen die Option Healthcare API (FHIR) als Datenquelle aus.
  5. Führen Sie einen der folgenden Schritte aus, um Daten aus Ihrem FHIR-Speicher zu importieren:
    • Wählen Sie den FHIR-Speicher aus der Liste der verfügbaren FHIR-Speicher aus:
      1. Maximieren Sie das Feld FHIR-Speicher.
      2. Wählen Sie in dieser Liste ein Dataset aus, das sich an einem zulässigen Standort befindet, und dann einen FHIR-Speicher, der die FHIR-Version R4 verwendet.
    • Geben Sie den FHIR-Speicher manuell ein:
      1. Maximieren Sie das Feld FHIR-Speicher.
      2. Klicken Sie auf FHIR-Speicher manuell eingeben.
      3. Geben Sie im Dialogfeld FHIR-Speichername den vollständigen Namen des FHIR-Speichers im folgenden Format ein:

        project/PROJECT_ID/locations/LOCATION/datasets/DATASET_ID/fhirStores/FHIR_STORE_ID

      4. Klicken Sie auf Speichern.
  6. Wählen Sie im Bereich Synchronisierung eine der folgenden Optionen aus. Diese Auswahl kann nach dem Erstellen des Datenspeichers nicht mehr geändert werden.
    • Einmalig: für einen einmaligen Batchdatenimport. Weitere inkrementelle Importe finden Sie unter Gesundheitsdaten aktualisieren.
    • Streaming: zum Importieren von Streamingdaten nahezu in Echtzeit. Wenn Sie Daten streamen möchten, müssen Sie einen Datenconnector erstellen. Das ist eine Art Datenspeicher. Wenn Sie einen Streaming-Datenspeicher mit der REST API einrichten möchten, wenden Sie sich an Ihren Customer Engineer.
  7. Wählen Sie im Abschnitt Welches Schema haben diese Daten? eine der folgenden Optionen aus:
    • Von Google vordefiniertes Schema: Damit werden die von Google definierten Schemakonfigurationen wie Indexierbarkeit, Suchbarkeit und Abrufbarkeit für die unterstützten FHIR-Ressourcen und -Elemente beibehalten. Nachdem Sie diese Option ausgewählt haben, können Sie das Schema nach dem Erstellen des Datenspeichers nicht mehr aktualisieren. Wenn Sie das Schema nach dem Erstellen des Datenspeichers ändern möchten, wählen Sie die Option Benutzerdefiniertes Schema aus.
      1. Klicken Sie auf Weiter.
      2. Geben Sie im Feld Name des Datenspeichers einen Namen für den Datenspeicher ein.
      3. Klicken Sie auf Erstellen.
      4. Der von Ihnen erstellte Datenspeicher wird auf der Seite Datenspeicher aufgeführt.

    • Benutzerdefiniertes Schema: Sie können eigene Schemakonfigurationen wie Indexierbarkeit, Durchsuchbarkeit und Abrufbarkeit für die unterstützten FHIR-Ressourcen und -Elemente definieren. Wenn Sie ein konfigurierbares Schema einrichten möchten, wenden Sie sich an Ihren Customer Engineer.
      1. Klicken Sie auf Weiter.
      2. Sehen Sie sich das Schema an, maximieren Sie jedes Feld und bearbeiten Sie die Feldeinstellungen.
      3. Klicken Sie auf Neue Felder hinzufügen, um den unterstützten FHIR-Ressourcen neue Felder hinzuzufügen. Die im von Google definierten Schema enthaltenen Felder können nicht entfernt werden.
      4. Klicken Sie auf Weiter.
      5. Geben Sie im Feld Name des Daten-Connectors einen Namen für den Daten-Connector ein.
      6. Klicken Sie auf Erstellen.
      7. Der von Ihnen erstellte Daten-Connector wird auf der Seite Datenspeicher aufgeführt. Der FHIR-Quellspeicher wird als Entität im Daten-Connector hinzugefügt.

  8. Klicken Sie auf Weiter.

REST

  1. Erstellen Sie einen Datenspeicher.

    curl -X POST\
     -H "Authorization: Bearer $(gcloud auth print-access-token)" \
     -H "Content-Type: application/json"\
     -H "X-Goog-User-Project: PROJECT_ID" \
    "https://us-discoveryengine.googleapis.com/v1/projects/PROJECT_ID/locations/us/collections/default_collection/dataStores?dataStoreId=DATA_STORE_ID" \
     -d '{
        "displayName": "DATA_STORE_DISPLAY_NAME",
        "industryVertical": "HEALTHCARE_FHIR",
        "solutionTypes": ["SOLUTION_TYPE_SEARCH"],
        "searchTier": "STANDARD",
        "searchAddOns": ["LLM"],
        "healthcareFhirConfig":
          {
            "enableConfigurableSchema": CONFIGURABLE_SCHEMA_TRUE|FALSE
          }
    }'
    

    Ersetzen Sie Folgendes:

    • PROJECT_ID: Die ID Ihres Projekts in Google Cloud .
    • DATA_STORE_ID: Die ID des Vertex AI Search-Datenspeichers, den Sie erstellen möchten. Diese ID darf nur Kleinbuchstaben, Ziffern, Unterstriche und Bindestriche enthalten.
    • DATA_STORE_DISPLAY_NAME: Der Anzeigename des Vertex AI Search-Datenspeichers, den Sie erstellen möchten.
    • CONFIGURABLE_SCHEMA_TRUE|FALSE: Ein boolescher Wert. Wenn er auf true gesetzt ist, können Sie das Datenspeicherschema mit der Methode schema.update konfigurieren.
  2. Wenn sich der FHIR-Quellspeicher und der Vertex AI Search-Zieldatenspeicher im selben Google Cloud Projekt befinden, rufen Sie die folgende Methode auf, um einen einmaligen Batchimport durchzuführen. Wenn sie sich nicht im selben Projekt befinden, fahren Sie mit dem nächsten Schritt fort.

    curl -X POST \
    -H "Authorization: Bearer $(gcloud auth print-access-token)" \
    -H "Content-Type: application/json; charset=utf-8" \
    -H "X-Goog-User-Project: PROJECT_ID" \
    "https://us-discoveryengine.googleapis.com/v1/projects/PROJECT_ID/locations/us/dataStores/DATA_STORE_ID/branches/0/documents:import" \
    -d '{
       "reconciliation_mode": "FULL",
       "fhir_store_source": {"fhir_store": "projects/PROJECT_ID/locations/CLOUD_HEALTHCARE_DATASET_LOCATION/datasets/CLOUD_HEALTHCARE_DATASET_ID/fhirStores/FHIR_STORE_ID"}
    }'
    

    Ersetzen Sie Folgendes:

    • PROJECT_ID: Die ID Ihres Projekts in Google Cloud .
    • DATA_STORE_ID: die ID des Vertex AI Search-Datenspeichers.
    • CLOUD_HEALTHCARE_DATASET_ID: die ID des Cloud Healthcare API-Datasets, das den Quell-FHIR-Speicher enthält.
    • CLOUD_HEALTHCARE_DATASET_LOCATION: Der Speicherort des Cloud Healthcare API-Datasets, das den FHIR-Quellspeicher enthält.
    • FHIR_STORE_ID: die ID des FHIR R4-Speichers der Cloud Healthcare API.
  3. Wenn sich der FHIR-Quellspeicher und der Vertex AI Search-Zieldatenspeicher in verschiedenen Google Cloud Projekten befinden, rufen Sie die folgende Methode auf, um einen einmaligen Batchimport durchzuführen. Wenn sie sich im selben Projekt befinden, kehren Sie zum vorherigen Schritt zurück.

    curl -X POST \
    -H "Authorization: Bearer $(gcloud auth print-access-token)" \
    -H "Content-Type: application/json; charset=utf-8" \
    -H "X-Goog-User-Project: PROJECT_ID" \
    "https://us-discoveryengine.googleapis.com/v1/projects/PROJECT_ID/locations/us/dataStores/DATA_STORE_ID/branches/0/documents:import" \
    -d '{
       "reconciliation_mode": "FULL",
       "fhir_store_source": {"fhir_store": "projects/SOURCE_PROJECT_ID/locations/CLOUD_HEALTHCARE_DATASET_LOCATION/datasets/CLOUD_HEALTHCARE_DATASET_ID/fhirStores/FHIR_STORE_ID"}
    }'
    

    Ersetzen Sie Folgendes:

    • PROJECT_ID: Die ID des Google CloudProjekts, das den Vertex AI Search-Datenspeicher enthält.
    • DATA_STORE_ID: die ID des Vertex AI Search-Datenspeichers.
    • SOURCE_PROJECT_ID: die ID des Google Cloud-Projekts, das das Cloud Healthcare API-Dataset und den FHIR-Speicher enthält.
    • CLOUD_HEALTHCARE_DATASET_ID: die ID des Cloud Healthcare API-Datasets, das den Quell-FHIR-Speicher enthält.
    • CLOUD_HEALTHCARE_DATASET_LOCATION: Der Speicherort des Cloud Healthcare API-Datasets, das den FHIR-Quellspeicher enthält.
    • FHIR_STORE_ID: die ID des FHIR R4-Speichers der Cloud Healthcare API.

Python

Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Search Python API.

Richten Sie zur Authentifizierung bei Vertex AI Search Standardanmeldedaten für Anwendungen ein. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.

Datenspeicher erstellen


from google.api_core.client_options import ClientOptions
from google.cloud import discoveryengine

# TODO(developer): Uncomment these variables before running the sample.
# project_id = "YOUR_PROJECT_ID"
# location = "YOUR_LOCATION" # Values: "global"
# data_store_id = "YOUR_DATA_STORE_ID"


def create_data_store_sample(
    project_id: str,
    location: str,
    data_store_id: str,
) -> str:
    #  For more information, refer to:
    # https://cloud.google.com/generative-ai-app-builder/docs/locations#specify_a_multi-region_for_your_data_store
    client_options = (
        ClientOptions(api_endpoint=f"{location}-discoveryengine.googleapis.com")
        if location != "global"
        else None
    )

    # Create a client
    client = discoveryengine.DataStoreServiceClient(client_options=client_options)

    # The full resource name of the collection
    # e.g. projects/{project}/locations/{location}/collections/default_collection
    parent = client.collection_path(
        project=project_id,
        location=location,
        collection="default_collection",
    )

    data_store = discoveryengine.DataStore(
        display_name="My Data Store",
        # Options: GENERIC, MEDIA, HEALTHCARE_FHIR
        industry_vertical=discoveryengine.IndustryVertical.GENERIC,
        # Options: SOLUTION_TYPE_RECOMMENDATION, SOLUTION_TYPE_SEARCH, SOLUTION_TYPE_CHAT, SOLUTION_TYPE_GENERATIVE_CHAT
        solution_types=[discoveryengine.SolutionType.SOLUTION_TYPE_SEARCH],
        # TODO(developer): Update content_config based on data store type.
        # Options: NO_CONTENT, CONTENT_REQUIRED, PUBLIC_WEBSITE
        content_config=discoveryengine.DataStore.ContentConfig.CONTENT_REQUIRED,
    )

    request = discoveryengine.CreateDataStoreRequest(
        parent=parent,
        data_store_id=data_store_id,
        data_store=data_store,
        # Optional: For Advanced Site Search Only
        # create_advanced_site_search=True,
    )

    # Make the request
    operation = client.create_data_store(request=request)

    print(f"Waiting for operation to complete: {operation.operation.name}")
    response = operation.result()

    # After the operation is complete,
    # get information from operation metadata
    metadata = discoveryengine.CreateDataStoreMetadata(operation.metadata)

    # Handle the response
    print(response)
    print(metadata)

    return operation.operation.name

Dokumente importieren

from google.api_core.client_options import ClientOptions
from google.cloud import discoveryengine

# TODO(developer): Uncomment these variables before running the sample.
# project_id = "YOUR_PROJECT_ID"
# location = "YOUR_LOCATION" # Values: "us"
# data_store_id = "YOUR_DATA_STORE_ID"
# healthcare_project_id = "YOUR_HEALTHCARE_PROJECT_ID"
# healthcare_location = "YOUR_HEALTHCARE_LOCATION"
# healthcare_dataset_id = "YOUR_HEALTHCARE_DATASET_ID"
# healthcare_fihr_store_id = "YOUR_HEALTHCARE_FHIR_STORE_ID"

#  For more information, refer to:
# https://cloud.google.com/generative-ai-app-builder/docs/locations#specify_a_multi-region_for_your_data_store
client_options = (
    ClientOptions(api_endpoint=f"{location}-discoveryengine.googleapis.com")
    if location != "global"
    else None
)

# Create a client
client = discoveryengine.DocumentServiceClient(client_options=client_options)

# The full resource name of the search engine branch.
# e.g. projects/{project}/locations/{location}/dataStores/{data_store_id}/branches/{branch}
parent = client.branch_path(
    project=project_id,
    location=location,
    data_store=data_store_id,
    branch="default_branch",
)

request = discoveryengine.ImportDocumentsRequest(
    parent=parent,
    fhir_store_source=discoveryengine.FhirStoreSource(
        fhir_store=client.fhir_store_path(
            healthcare_project_id,
            healthcare_location,
            healthcare_dataset_id,
            healthcare_fihr_store_id,
        ),
    ),
    # Options: `FULL`, `INCREMENTAL`
    reconciliation_mode=discoveryengine.ImportDocumentsRequest.ReconciliationMode.INCREMENTAL,
)

# Make the request
operation = client.import_documents(request=request)

print(f"Waiting for operation to complete: {operation.operation.name}")
response = operation.result()

# After the operation is complete,
# get information from operation metadata
metadata = discoveryengine.ImportDocumentsMetadata(operation.metadata)

# Handle the response
print(response)
print(metadata)

Nächste Schritte

Streaming-Datenspeicher erstellen und Streaming-Import einrichten

In diesem Abschnitt wird beschrieben, wie Sie einen Streaming-Datenspeicher für Vertex AI Search erstellen, der kontinuierlich Änderungen aus Ihrem Cloud Healthcare API FHIR-Speicher streamt.

Console

  1. Rufen Sie in der Google Cloud Console die Seite KI-Anwendungen auf.

    KI-Anwendungen

  2. Klicken Sie im Navigationsmenü auf Datenspeicher.

  3. Klicken Sie auf Datenspeicher erstellen.

  4. Wählen Sie im Bereich Datenquelle auswählen die Option Healthcare API (FHIR) als Datenquelle aus.
  5. Führen Sie einen der folgenden Schritte aus, um Daten aus Ihrem FHIR-Speicher zu importieren:
    • Wählen Sie den FHIR-Speicher aus der Liste der verfügbaren FHIR-Speicher aus:
      1. Maximieren Sie das Feld FHIR-Speicher.
      2. Wählen Sie in dieser Liste ein Dataset aus, das sich an einem zulässigen Standort befindet, und dann einen FHIR-Speicher, der die FHIR-Version R4 verwendet.
    • Geben Sie den FHIR-Speicher manuell ein:
      1. Maximieren Sie das Feld FHIR-Speicher.
      2. Klicken Sie auf FHIR-Speicher manuell eingeben.
      3. Geben Sie im Dialogfeld FHIR-Speichername den vollständigen Namen des FHIR-Speichers im folgenden Format ein:

        project/PROJECT_ID/locations/LOCATION/datasets/DATASET_ID/fhirStores/FHIR_STORE_ID

      4. Klicken Sie auf Speichern.
  6. Wählen Sie im Bereich Synchronisierung eine der folgenden Optionen aus. Diese Auswahl kann nach dem Erstellen des Datenspeichers nicht mehr geändert werden.
    • Einmalig: für einen einmaligen Batchdatenimport. Weitere inkrementelle Importe finden Sie unter Gesundheitsdaten aktualisieren.
    • Streaming: zum Importieren von Streamingdaten nahezu in Echtzeit. Wenn Sie Daten streamen möchten, müssen Sie einen Datenconnector erstellen. Das ist eine Art Datenspeicher. Wenn Sie einen Streaming-Datenspeicher mit der REST API einrichten möchten, wenden Sie sich an Ihren Customer Engineer.
  7. Wählen Sie im Abschnitt Welches Schema haben diese Daten? eine der folgenden Optionen aus:
    • Von Google vordefiniertes Schema: Damit werden die von Google definierten Schemakonfigurationen wie Indexierbarkeit, Suchbarkeit und Abrufbarkeit für die unterstützten FHIR-Ressourcen und -Elemente beibehalten. Nachdem Sie diese Option ausgewählt haben, können Sie das Schema nach dem Erstellen des Datenspeichers nicht mehr aktualisieren. Wenn Sie das Schema nach dem Erstellen des Datenspeichers ändern möchten, wählen Sie die Option Benutzerdefiniertes Schema aus.
      1. Klicken Sie auf Weiter.
      2. Geben Sie im Feld Name des Datenspeichers einen Namen für den Datenspeicher ein.
      3. Klicken Sie auf Erstellen.
      4. Der von Ihnen erstellte Datenspeicher wird auf der Seite Datenspeicher aufgeführt.

    • Benutzerdefiniertes Schema: Sie können eigene Schemakonfigurationen wie Indexierbarkeit, Durchsuchbarkeit und Abrufbarkeit für die unterstützten FHIR-Ressourcen und -Elemente definieren. Wenn Sie ein konfigurierbares Schema einrichten möchten, wenden Sie sich an Ihren Customer Engineer.
      1. Klicken Sie auf Weiter.
      2. Sehen Sie sich das Schema an, maximieren Sie jedes Feld und bearbeiten Sie die Feldeinstellungen.
      3. Klicken Sie auf Neue Felder hinzufügen, um den unterstützten FHIR-Ressourcen neue Felder hinzuzufügen. Die im von Google definierten Schema enthaltenen Felder können nicht entfernt werden.
      4. Klicken Sie auf Weiter.
      5. Geben Sie im Feld Name des Daten-Connectors einen Namen für den Daten-Connector ein.
      6. Klicken Sie auf Erstellen.
      7. Der von Ihnen erstellte Daten-Connector wird auf der Seite Datenspeicher aufgeführt. Der FHIR-Quellspeicher wird als Entität im Daten-Connector hinzugefügt.

  8. Klicken Sie auf Weiter.

REST

  1. Erstellen Sie einen Datenconnector, um das Streaming einzurichten.

    curl -X POST \
    -H "Authorization: Bearer $(gcloud auth print-access-token)" \
    -H "Content-Type: application/json" \
    -H "X-Goog-User-Project: PROJECT_ID" \
    "https://us-discoveryengine.googleapis.com/v1alpha/projects/PROJECT_ID/locations/us:setUpDataConnector" \
    -d ' {
      "collectionId": "COLLECTION_ID",
      "collectionDisplayName": "COLLECTION_NAME",
      "dataConnector": {
      "dataSource": "gcp_fhir",
      "params": {
          "instance_uri": "projects/SOURCE_PROJECT_ID/locations/CLOUD_HEALTHCARE_DATASET_LOCATION/datasets/CLOUD_HEALTHCARE_DATASET_ID"
        },
        "entities": [
          {
            "entityName": "FHIR_STORE_NAME"
            "healthcareFhirConfig": {
              "enableConfigurableSchema": CONFIGURABLE_SCHEMA_TRUE|FALSE,
              "enableStaticIndexingForBatchIngestion": STATIC_INDEXING_TRUE|FALSE
            }
          }
        ],
        "syncMode": "STREAMING"
      }
    }'
    

    Ersetzen Sie Folgendes:

    • PROJECT_ID: Die ID Ihres Projekts in Google Cloud .
    • COLLECTION_ID: die ID der Sammlung, in die Sie die FHIR R4-Daten streamen möchten.
    • COLLECTION_NAME: Name der Sammlung, in die Sie die FHIR R4-Daten streamen möchten.
    • SOURCE_PROJECT_ID: die ID des Google Cloud-Projekts, das das Cloud Healthcare API-Dataset und den FHIR-Speicher enthält.
    • CLOUD_HEALTHCARE_DATASET_ID: die ID des Cloud Healthcare API-Datasets, das den Quell-FHIR-Speicher enthält.
    • CLOUD_HEALTHCARE_DATASET_LOCATION: Der Speicherort des Cloud Healthcare API-Datasets, das den FHIR-Quellspeicher enthält.
    • FHIR_STORE_ID: die ID des FHIR R4-Speichers der Cloud Healthcare API.
    • CONFIGURABLE_SCHEMA_TRUE|FALSE: Ein boolescher Wert. Wenn er auf true festgelegt ist, können Sie das Datenspeicherschema mit der Methode schema.update konfigurieren.
    • STATIC_INDEXING_TRUE|FALSE: Ein boolescher Wert. Wenn er auf true festgelegt ist, können Sie Verlaufsdaten mit einem höheren Indexierungskontingent importieren. Das ist nützlich, wenn Sie davon ausgehen, dass Ihre Suchanwendung auf ein höheres Datenvolumen stoßen wird. Das Indexieren einzelner Datensätze dauert jedoch länger. Google empfiehlt dringend, dieses Feld auf true festzulegen.
    • Wenn die Sammlung erfolgreich erstellt wurde, wird der Liste der Datenspeicher auf der Seite Datenspeicher in der Google Cloud -Konsole ein Datenconnector hinzugefügt.
    • Der erstellte Daten-Connector enthält eine Entität mit demselben Namen wie der FHIR R4-Speicher, aus dem Sie die Daten streamen.

Nächste Schritte

Erstellung des Datenspeichers und FHIR-Datenimport prüfen

In dieser Aufgabe erfahren Sie, wie Sie prüfen, ob ein Datenspeicher erfolgreich erstellt und FHIR-Daten erfolgreich in den Datenspeicher importiert wurden.

  • Wählen Sie in der Google Cloud Console den Datenspeicher aus und prüfen Sie die Details.
  • Über die REST API:
    1. Verwenden Sie die Methode dataStores.get, um Details zum medizinischen Datenspeicher abzurufen.
    2. Verwenden Sie die Methode operations.get, um die Details des Importvorgangs abzurufen.

Führen Sie die folgenden Schritte aus, um die Erstellung des Datenspeichers und den Datenimport zu überprüfen.

Console

  1. Rufen Sie in der Google Cloud Console die Seite KI-Anwendungen auf.

    KI-Anwendungen

  2. Klicken Sie im Navigationsmenü auf Datenspeicher.

    Auf der Seite Datenspeicher wird eine Liste der Datenspeicher in Ihrem Google Cloud-Projekt mit ihren Details angezeigt.

  3. Prüfen Sie, ob der von Ihnen erstellte Datenspeicher oder Datenconnector in der Liste der Datenspeicher enthalten ist. In der Liste der Datenspeicher enthält ein Datenconnector, der Daten streamt, einen Datenspeicher mit demselben Namen wie der FHIR-Speicher der Cloud Healthcare API.

  4. Wählen Sie den Datenspeicher oder den Daten-Connector aus und prüfen Sie die zugehörigen Details.

    • Für einen Datenspeicher:
      • In der Zusammenfassungstabelle sind die folgenden Details aufgeführt:
        • Die Datenspeicher-ID, der Datenspeichertyp und die Region.
        • Die Anzahl der Dokumente gibt die Anzahl der importierten FHIR-Ressourcen an.
        • Der Zeitstempel, zu dem das letzte Dokument importiert wurde.
        • Optional: Klicken Sie auf Details ansehen, um die Details zum Dokumentimport aufzurufen, z. B. Informationen zu einem erfolgreichen, teilweisen oder fehlgeschlagenen Import.
      • Auf dem Tab Dokumente werden die Ressourcen-IDs der importierten FHIR-Ressourcen und ihre Ressourcentypen in einer paginierten Tabelle aufgeführt. Sie können diese Tabelle filtern, um zu prüfen, ob eine bestimmte Ressource importiert wurde.
      • Auf dem Tab Aktivität finden Sie Details zum Dokumentimport, z. B. zu einem erfolgreichen, teilweisen oder fehlgeschlagenen Import.
    • Für einen Datenconnector:
      • In der Zusammenfassungstabelle sind die folgenden Details aufgeführt:
        • Die Sammlungs-ID, der Typ und die Region.
        • Der Name der verbundenen App.
        • Der Status des Connectors, der entweder „Aktiv“ oder „Pausiert“ ist.
      • In der Tabelle Entitäten wird die Entität im Datenconnector angezeigt. Der Name der Entität ist der Name des FHIR-Quellspeichers. Die ID der Entität ist die ID des Daten-Connectors, an die der Name des FHIR-Quellspeichers angehängt wird.
        • Klicken Sie auf den Namen der Einheit, um die zugehörigen Details aufzurufen. Da eine Entität eine Datenspeicherinstanz in einem Datenconnector ist, sind die Entitätsdetails mit den Datenspeicherdetails identisch.
  5. Auf dem Tab Schema können Sie die Attribute für die unterstützten FHIR-Ressourcen und ‑Elemente ansehen. Klicken Sie auf Bearbeiten, um das Schema zu konfigurieren.

REST

  1. Prüfen Sie, ob der Datenspeicher erstellt wurde.

    curl -X GET -H "Authorization: Bearer $(gcloud auth print-access-token)" \
     -H "Content-Type: application/json"\
     -H "X-Goog-User-Project: PROJECT_ID" \
     "https://us-discoveryengine.googleapis.com/v1/projects/PROJECT_ID/locations/us/collections/default_collection/dataStores/DATA_STORE_ID"
    

    Ersetzen Sie Folgendes:

    • PROJECT_ID: Die ID Ihres Projekts in Google Cloud .
    • DATA_STORE_ID: die ID des Vertex AI Search-Datenspeichers.
  2. Prüfen Sie, ob der FHIR-Datenimportvorgang abgeschlossen ist.

    curl -X GET \
    -H "Authorization: Bearer $(gcloud auth print-access-token)" \
    "https://us-discoveryengine.googleapis.com/v1/projects/PROJECT_ID/locations/us/collections/default_collection/dataStores/DATA_STORE_ID/branches/0/operations/IMPORT_OPERATION_ID"
    

    Ersetzen Sie Folgendes:

    • PROJECT_ID: Die ID Ihres Projekts in Google Cloud .
    • DATA_STORE_ID: die ID des Vertex AI Search-Datenspeichers.
    • IMPORT_OPERATION_ID: die Vorgangs-ID des Vorgangs mit langer Ausführungszeit, die zurückgegeben wird, wenn Sie die Methode import aufrufen

Nächste Schritte