I filtri ti aiutano a restringere una ricerca e a garantire che il generatore di assistenza della conoscenza produca suggerimenti utili. Filtra i documenti in un Datastore per specificare una categoria di documenti da utilizzare come riferimento sia nell'assistenza basata sull'AI generativa (GKA) sia nell'assistenza proattiva basata sull'AI generativa (PGKA). Personalizza i filtri di sicurezza sui contenuti generati per assicurarti che i suggerimenti PGKA siano il più utili e il meno dannosi possibile per le esigenze della tua attività.
Filtri per i documenti
Filtra i documenti di assistenza per la conoscenza sia per GKA che per PGKA con SearchConfig
.
Passaggio 1: configura Datastore con i metadati
Importa con metadati per creare un Datastore per GKA e PGKA. Devi fornire i metadati come uno o più file JSONL, che si trovano nella cartella di livello superiore dei contenuti utilizzati per l'importazione.
- Segui i passaggi riportati nella pagina degli strumenti Datastore per aggiungere un Datastore a un agente.
- Nella pagina Applicazioni AI, fai clic su Datastore > + Crea datastore.
- Vai a Cloud Storage e fai clic su Seleziona.
- Fai clic su File, poi inserisci il percorso del file in Cloud Storage o fai clic su Sfoglia per selezionarlo.
- Vai a Che tipo di dati stai importando? e seleziona Documenti non strutturati collegati (JSONL con metadati).
- Vai a Opzioni di importazione dei dati e seleziona Completa.
- Fai clic su Importa.
- Dopo aver creato correttamente il datastore, visualizza la tabella Documenti. La tabella elenca ciascuno dei tuoi documenti con i seguenti dettagli.
- ID
- Link URI
- Stato dell'indicizzazione
- Azioni
- Fai clic su Visualizza documento per esaminare le proprietà di un documento.
Di seguito è riportato un file JSONL di esempio. Puoi anche specificare i metadati nel campo structData
.
{ "id": "d001", "content": {"mimeType": "text/html", "uri": "gs://example-import/unstructured/first_doc.html"}, "structData": {"property0": "value0", "property1": "value1", "property2": "value2"} }
{ "id": "d002", "content": {"mimeType": "application/pdf", "uri": "gs://example-import/unstructured/second_doc.pdf"}, "structData": {"property0": "value0", "property1": "value3", "property2": "value4"} }
Passaggio 2: configura i filtri
Per applicare direttamente i valori dei filtri a una ricerca GKA, chiama l'API SearchKnowledge
. Puoi anche applicare un campo SearchConfig
nella richiesta, come segue. Consulta la documentazione di Vertex AI Search per altri esempi di espressioni di filtro.
{
"query": {
"text": "test query"
},
"conversationProfile": "projects/PROJECT_ID/locations/LOCATION_ID/conversationProfiles/CONVERSATION_PROFILE_ID",
"sessionId": "SESSION_ID",
"conversation": "projects/PROJECT_ID/locations/LOCATION_ID/conversations/CONVERSATION_ID",
"querySource": "AGENT_QUERY",
"searchConfig":
"filterSpecs": [{
"dataStores": ["projects/PROJECT_NUMBER/locations/LOCATION_ID/collections/default_collection/dataStores/DATASTORE_ID"],
"filter": "property1 : ANY(\"value1\")"
}]
}
}
}
Per applicare i valori dei filtri a tutte le query e i suggerimenti di ricerca nella knowledge base all'interno di una singola conversazione, utilizza IngestContextReferences
e associa l'ID conversazione alla chiamata SearchKnowledge
.
Filtri per i documenti PGKA
Applica un SearchConfig
alle chiamate PGKA utilizzando l'API IngestContextReferences
o il simulatore nella console Agent Assist.
API
Chiama l'API IngestContextReferences
per applicare un SearchConfig
alle chiamate PGKA.
- Chiama il numero
CreateConversation
>IngestContextReferences
. - La configurazione viene applicata automaticamente a tutte le query e ai suggerimenti di risposta PGKA successivi nella stessa conversazione.
Il seguente esempio mostra come utilizzare l'API IngestContextReferences
.
{
"conversation": "projects/PROJECT_ID/locations/global/conversations/CONVERSATION_ID",
"contextReferences": {
"gka_search_config": {
"contextContents": [{
"content": "{ \"filterSpecs\": [{ \"dataStores\": [\"projects/PROJECT_NUMBER/locations/LOCATION_ID/collections/default_collection/dataStores/DATASTORE_ID\"], \"filter\": \"property1: ANY (\\\"value1\\\")\" }] }",
"contentFormat": "JSON"
}],
"updateMode": "OVERWRITE",
"languageCode": "en-US"
}
}
}
Console
Vai alla console di Assistente agente, accedi e seleziona il tuo progetto.
Fai clic su Simulatore e seleziona il tuo profilo di conversazione.
Fai clic su Start (Avvia) > Inject context (Inserisci contesto).
Inserisci Chiave e Contenuto, quindi seleziona uno dei seguenti Formati.
- Testo normale
- JSON
Fai clic su Salva.
Di seguito è riportato un esempio di contesto per il simulatore.
- Chiave:
gka_search_config
- Format (Formato):
JSON
- Contenuti:
{ "filterSpecs": [{"dataStores" : ["projects/PROJECT_NUMBER/locations/LOCATION_ID/collections/default_collection/dataStores/DATASTORE_ID"], "filter" : "property1 : ANY(\"value1\")" }] }
filtri di sicurezza
Le funzionalità generative di Agent Assist dispongono di filtri di sicurezza AI responsabile (RAI) integrati. Questi filtri sono essenziali per impedire la generazione di contenuti potenzialmente dannosi o inappropriati. Tuttavia, i livelli di sicurezza predefiniti possono essere troppo restrittivi per alcuni settori. Ad esempio, un fornitore di servizi sanitari potrebbe dover rispondere a query legittime su argomenti sanitari sensibili che i filtri predefiniti bloccano. Per allineare il comportamento del generatore alle esigenze e ai casi d'uso della tua attività, puoi personalizzare la sensibilità dei filtri di sicurezza per la funzionalità PGKA.
Nozioni di base
I filtri per la sicurezza sono costituiti da due componenti chiave:
- La categoria di contenuti da filtrare
- Il livello di sensibilità del filtro
Categorie AI responsabile
Puoi impostare un livello di sensibilità per le seguenti categorie di contenuti:
- Contenuti pericolosi: contenuti che fanno riferimento all'autolesionismo o a qualsiasi attività illegale, regolamentata o pericolosa.
- Sessualmente esplicito: contenuti sessualmente espliciti o che includono materiale pornografico.
- Molestie: contenuti offensivi, intimidatori o illeciti.
- Incitamento all'odio: contenuti che promuovono la violenza o incitano all'odio nei confronti di individui o gruppi sulla base di determinate caratteristiche.
Livelli di sensibilità
Per ogni categoria di IA generativa, puoi scegliere una delle seguenti soglie di sensibilità:
BLOCK_MOST
: blocca un'ampia gamma di contenuti che potrebbero potenzialmente rientrare nella categoria.BLOCK_SOME
: blocca i contenuti chiaramente identificati come appartenenti alla categoria.BLOCK_FEW
: blocca solo le istanze più gravi di contenuti per la categoria.BLOCK_NONE
: disattiva tutti i filtri per la categoria specificata.
Impostazioni predefinite
Se non fornisci una configurazione personalizzata per una categoria, l'assistenza proattiva basata sull'IA generativa utilizza i seguenti livelli di sensibilità predefiniti:
- Contenuti pericolosi:
BLOCK_FEW
- Contenuti sessualmente espliciti:
BLOCK_SOME
- Molestie:
BLOCK_SOME
- Incitamento all'odio:
BLOCK_SOME
Configurare i filtri di sicurezza
Configura i filtri di sicurezza nel tuo profilo conversazione. Puoi specificare un livello di sensibilità per una o più categorie di IA responsabile aggiungendo un oggetto rai_settings
alla configurazione della funzionalità per KNOWLEDGE_ASSIST
. Puoi trovare le impostazioni del filtro di sicurezza all'interno dell'array feature_configs
per la funzionalità di suggerimento KNOWLEDGE_ASSIST
.
{
"name": "projects/PROJECT_ID/locations/LOCATION/conversationProfiles/PROFILE_ID",
"human_agent_assistant_config": {
"human_agent_suggestion_config": {
"feature_configs": [
{
"suggestion_feature": {
"type": "KNOWLEDGE_ASSIST"
},
"rai_settings": {
"rai_category_configs": [
{
"category": "DANGEROUS_CONTENT",
"sensitivity_level": "BLOCK_FEW"
},
{
"category": "HARASSMENT",
"sensitivity_level": "BLOCK_MOST"
}
]
}
}
]
}
}
}
Esempi di configurazione
I seguenti esempi illustrano come aumentare o diminuire il livello di sensibilità per una singola categoria in base alle esigenze della tua attività.
Esempio 1: consenti query sanitarie sensibili
In qualità di operatore sanitario, vuoi assicurarti che le query su argomenti sensibili relativi alla salute mentale non vengano bloccate. Puoi ridurre la sensibilità per la categoria di contenuti pericolosi nel seguente modo.
"rai_settings": {
"rai_category_configs": [
{
"category": "DANGEROUS_CONTENT",
"sensitivity_level": "BLOCK_NONE"
}
]
}
Con questa impostazione, l'assistenza proattiva basata sull'IA generativa ha maggiori probabilità di elaborare e fornire una risposta utile a una query come Quali sono i segnali di avvertimento del suicidio?.
Esempio 2: aumenta severità
Se la tua attività vuole prestare particolare attenzione alle molestie, puoi aumentare la sensibilità per questa categoria lasciando le altre ai livelli predefiniti, come segue.
"rai_settings": {
"rai_category_configs": [
{
"category": "HARASSMENT",
"sensitivity_level": "BLOCK_MOST"
}
]
}