Filter für den Wissensassistenten

Mit Filtern können Sie eine Suche eingrenzen und dafür sorgen, dass der Generator für Wissensunterstützung nützliche Vorschläge liefert. Sie können Dokumente in einem Datastore filtern, um eine Kategorie von Dokumenten für Referenzen sowohl in der generativen Wissensunterstützung (Generative Knowledge Assist, GKA) als auch in der proaktiven generativen Wissensunterstützung (Proactive Generative Knowledge Assist, PGKA) anzugeben. Passen Sie die Sicherheitsfilter für generierte Inhalte an, damit die Vorschläge für PGKA für Ihre geschäftlichen Anforderungen maximal hilfreich und minimal schädlich sind.

Dokumentfilter

Wissensassistenzdokumente für GKA und PGKA mit SearchConfig filtern.

Schritt 1: Datastore mit Metadaten einrichten

Mit Metadaten importieren, um einen Datastore für GKA und PGKA zu erstellen. Sie müssen Metadaten als eine oder mehrere JSONL-Dateien bereitstellen, die sich im übergeordneten Ordner des für den Import verwendeten Inhalts befinden.

  1. Folgen Sie der Anleitung auf der Seite „Datastore-Tools“, um einem Agent einen Datastore hinzuzufügen.
  2. Klicken Sie auf der Seite AI Applications (KI-Anwendungen) auf Datenspeicher > + Datenspeicher erstellen.
  3. Rufen Sie Cloud Storage auf und klicken Sie auf Auswählen.
  4. Klicken Sie auf Datei und geben Sie den Pfad zu Ihrer Datei in Cloud Storage ein oder klicken Sie auf Durchsuchen, um die Datei auszuwählen.
  5. Rufen Sie Welche Art von Daten importieren Sie? auf und wählen Sie Verknüpfte unstrukturierte Dokumente (JSONL mit Metadaten) aus.
  6. Rufen Sie die Optionen für den Datenimport auf und wählen Sie Vollständig aus.
  7. Klicken Sie auf Importieren.
  8. Nachdem Sie Datastore erstellt haben, rufen Sie die Tabelle „Dokumente“ auf. In der Tabelle werden alle Ihre Dokumente mit den folgenden Details aufgeführt.
    • ID
    • URI-Link
    • Indexierungsstatus
    • Aktionen
  9. Klicken Sie auf Dokument ansehen, um die Eigenschaften eines Dokuments zu prüfen.

Hier sehen Sie eine JSONL-Beispieldatei. Sie können auch Metadaten im Feld structData angeben.

{ "id": "d001", "content": {"mimeType": "text/html", "uri": "gs://example-import/unstructured/first_doc.html"}, "structData": {"property0": "value0", "property1": "value1", "property2": "value2"} }
{ "id": "d002", "content": {"mimeType": "application/pdf", "uri": "gs://example-import/unstructured/second_doc.pdf"}, "structData": {"property0": "value0", "property1": "value3", "property2": "value4"} }

Schritt 2: Filter konfigurieren

Wenn Sie Filterwerte direkt auf eine GKA-Suche anwenden möchten, rufen Sie die SearchKnowledge API auf. Sie können auch das Feld SearchConfig in der Anfrage verwenden, wie unten gezeigt. Weitere Beispiele für Filterausdrücke finden Sie in der Dokumentation zu Vertex AI Search.

{
  "query": {
     "text": "test query"
  },
  "conversationProfile": "projects/PROJECT_ID/locations/LOCATION_ID/conversationProfiles/CONVERSATION_PROFILE_ID",
  "sessionId": "SESSION_ID",
  "conversation": "projects/PROJECT_ID/locations/LOCATION_ID/conversations/CONVERSATION_ID",
  "querySource": "AGENT_QUERY",
  "searchConfig": 
    "filterSpecs": [{
      "dataStores": ["projects/PROJECT_NUMBER/locations/LOCATION_ID/collections/default_collection/dataStores/DATASTORE_ID"],
      "filter": "property1 : ANY(\"value1\")" 
      }]
    }
  }
}

Wenn Sie Filterwerte auf alle Wissenssuchanfragen und Vorschläge innerhalb einer einzelnen Unterhaltung anwenden möchten, verwenden Sie IngestContextReferences und hängen Sie die Unterhaltungs-ID an den SearchKnowledge-Aufruf an.

PGKA-Dokumentfilter

Wenden Sie ein SearchConfig auf PGKA-Aufrufe an. Verwenden Sie dazu entweder die IngestContextReferences API oder den Simulator in der Agent Assist Console.

API

Rufen Sie die IngestContextReferences API auf, um einen SearchConfig auf PGKA-Aufrufe anzuwenden.

  1. Rufen Sie CreateConversation > IngestContextReferences auf.
  2. Die Konfiguration wird automatisch auf alle nachfolgenden PGKA-Anfragen und Antwortvorschläge in derselben Unterhaltung angewendet.

Das folgende Beispiel zeigt, wie die IngestContextReferences API verwendet wird.

{
  "conversation": "projects/PROJECT_ID/locations/global/conversations/CONVERSATION_ID",
  "contextReferences": {
   "gka_search_config": {
      "contextContents": [{
"content": "{ \"filterSpecs\": [{ \"dataStores\": [\"projects/PROJECT_NUMBER/locations/LOCATION_ID/collections/default_collection/dataStores/DATASTORE_ID\"], \"filter\": \"property1: ANY    (\\\"value1\\\")\" }] }",
        "contentFormat": "JSON"
      }],
      "updateMode": "OVERWRITE",
      "languageCode": "en-US"
    }
  }
}

Console

  1. Rufen Sie die Agent Assist Console auf, melden Sie sich an und wählen Sie Ihr Projekt aus.

    Zur Konsole

  2. Klicken Sie auf Simulator und wählen Sie Ihr Unterhaltungsprofil aus.

  3. Klicken Sie auf Start > Kontext einfügen.

  4. Geben Sie den Schlüssel und den Inhalt ein und wählen Sie eines der folgenden Formate aus.

    • Nur Text
    • JSON
  5. Klicken Sie auf Speichern.

Hier ist ein Beispiel für den Kontext für den Simulator.

  • Key: gka_search_config
  • Format: JSON
  • Inhalt:
{ "filterSpecs": [{"dataStores" : ["projects/PROJECT_NUMBER/locations/LOCATION_ID/collections/default_collection/dataStores/DATASTORE_ID"], "filter" : "property1 : ANY(\"value1\")" }] }

Sicherheitsfilter

Generative Funktionen in Agent Assist haben integrierte RAI-Sicherheitsfilter (Verantwortungsbewusste Anwendung von KI). Diese Filter sind unerlässlich, um die Generierung potenziell schädlicher oder unangemessener Inhalte zu verhindern. Die Standardeinstellungen für die Sicherheitsstufe können jedoch für bestimmte Branchen zu restriktiv sein. Ein Gesundheitsdienstleister muss beispielsweise auf berechtigte Anfragen zu sensiblen Gesundheitsthemen antworten, die von Standardfiltern blockiert werden. Sie können die Sensitivität der Sicherheitsfilter für die Funktion „Produktgruppen-Kampagnen-Assistent“ anpassen, um das Verhalten des Generators an Ihre geschäftlichen Anforderungen und Anwendungsfälle anzupassen.

Grundlagen

Sicherheitsfilter haben zwei Hauptkomponenten:

  • Die Kategorie der Inhalte, nach denen gefiltert werden soll
  • Die Empfindlichkeitsstufe des Filters

RAI-Kategorien

Sie können eine Vertraulichkeitsstufe für die folgenden Inhaltskategorien festlegen:

  • Gefährliche Inhalte: Inhalte, die sich auf Selbstverletzung oder illegale, regulierte oder gefährliche Dinge beziehen.
  • Sexuell explizit: Inhalte, die sexuell explizit sind oder pornografisches Material enthalten.
  • Belästigung: Inhalte, die beleidigend, einschüchternd oder missbräuchlich sind.
  • Hassrede: Inhalte, die Gewalt fördern oder zu Hass gegen Einzelpersonen oder Gruppen aufgrund bestimmter Merkmale aufrufen.

Vertraulichkeitsstufen

Für jede Kategorie für verantwortungsvolle KI können Sie einen der folgenden Sensibilitätsgrenzwerte auswählen:

  • BLOCK_MOST: Blockiert eine Vielzahl von Inhalten, die potenziell in die Kategorie fallen könnten.
  • BLOCK_SOME: Inhalte, die eindeutig der Kategorie zugeordnet werden, werden blockiert.
  • BLOCK_FEW: Es werden nur die schwerwiegendsten Fälle von Inhalten für die Kategorie blockiert.
  • BLOCK_NONE: Deaktiviert alle Filter für die angegebene Kategorie.

Standardeinstellungen

Wenn Sie keine benutzerdefinierte Konfiguration für eine Kategorie angeben, verwendet die proaktive Unterstützung durch generative KI die folgenden Standardempfindlichkeitsstufen:

  • Gefährliche Inhalte:BLOCK_FEW
  • Sexuell explizit:BLOCK_SOME
  • Belästigung:BLOCK_SOME
  • Hassrede:BLOCK_SOME

Sicherheitsfilter konfigurieren

Konfigurieren Sie Sicherheitsfilter in Ihrem Unterhaltungsprofil. Sie können eine Empfindlichkeitsstufe für eine oder mehrere RAI-Kategorien angeben, indem Sie der Feature-Konfiguration für KNOWLEDGE_ASSIST ein rai_settings-Objekt hinzufügen. Die Einstellungen für Sicherheitsfilter finden Sie im feature_configs-Array für die Funktion „KNOWLEDGE_ASSIST-Vorschläge“.

{
  "name": "projects/PROJECT_ID/locations/LOCATION/conversationProfiles/PROFILE_ID",
  "human_agent_assistant_config": {
    "human_agent_suggestion_config": {
      "feature_configs": [
        {
          "suggestion_feature": {
            "type": "KNOWLEDGE_ASSIST"
          },
          "rai_settings": {
            "rai_category_configs": [
              {
                "category": "DANGEROUS_CONTENT",
                "sensitivity_level": "BLOCK_FEW"
              },
              {
                "category": "HARASSMENT",
                "sensitivity_level": "BLOCK_MOST"
              }
            ]
          }
        }
      ]
    }
  }
}

Konfigurationsbeispiele

Die folgenden Beispiele veranschaulichen, wie Sie die Sensitivität für eine einzelne Kategorie entsprechend Ihren geschäftlichen Anforderungen erhöhen oder verringern.

Beispiel 1: Zulassen von sensiblen Anfragen zum Gesundheitswesen

Als Gesundheitsdienstleister möchten Sie sicherstellen, dass Anfragen zu sensiblen Themen im Bereich psychische Gesundheit nicht blockiert werden. So können Sie die Sensitivität für die Kategorie „Gefährliche Inhalte“ verringern:

"rai_settings": {
  "rai_category_configs": [
    {
      "category": "DANGEROUS_CONTENT",
      "sensitivity_level": "BLOCK_NONE"
    }
  ]
}

Mit dieser Einstellung ist es wahrscheinlicher, dass proaktive generative Wissensunterstützung eine Anfrage wie What are the warning signs of suicide? (Was sind die Warnzeichen für Selbstmord?) verarbeitet und eine hilfreiche Antwort liefert.

Beispiel 2: Strengen Modus aktivieren

Wenn Sie besonders vorsichtig sein möchten, können Sie die Sensibilität für diese Kategorie erhöhen, während Sie die anderen auf den Standardeinstellungen belassen.

"rai_settings": {
  "rai_category_configs": [
    {
      "category": "HARASSMENT",
      "sensitivity_level": "BLOCK_MOST"
    }
  ]
}