Los filtros te ayudan a acotar una búsqueda y garantizar que el generador de asistencia basada en conocimiento produzca sugerencias útiles. Filtrar documentos en Datastore para especificar una categoría de documentos como referencia tanto en la asistencia de conocimiento generativo (GKA) como en la asistencia de conocimiento generativo proactiva (PGKA) Personaliza los filtros de seguridad en el contenido generado para garantizar que las sugerencias de PGKA sean lo más útiles y lo menos dañinas posible para las necesidades de tu empresa.
Filtros de documentos
Filtrar documentos de asistencia basados en conocimiento para GKA y PGKA con SearchConfig
Paso 1: Configura Datastore con metadatos
Import with metadata para crear un Datastore para GKA y PGKA. Debes proporcionar metadatos como uno o más archivos JSONL, ubicados en la carpeta de nivel superior del contenido que se usa para la importación.
- Sigue los pasos de la página Herramientas de Datastore para agregar un Datastore a un agente.
- En la página Aplicaciones de IA, haz clic en Almacenes de datos > + Crear almacén de datos.
- Navega a Cloud Storage y haz clic en Seleccionar.
- Haz clic en Archivo y, luego, ingresa la ruta de acceso a tu archivo en Cloud Storage o haz clic en Explorar para seleccionarlo.
- Navega a ¿Qué tipo de datos estás importando? y selecciona Documentos no estructurados vinculados (JSONL con metadatos).
- Navega a Opciones de importación de datos y selecciona Completa.
- Haz clic en Importar.
- Después de crear correctamente tu Datastore, consulta la tabla Documents. En la tabla, se enumeran todos tus documentos con los siguientes detalles.
- ID
- Vínculo de URI
- Estado del índice
- Acciones
- Haz clic en Ver documento para examinar las propiedades de un documento.
El siguiente es un ejemplo de archivo JSONL. También puedes especificar metadatos en el campo structData
.
{ "id": "d001", "content": {"mimeType": "text/html", "uri": "gs://example-import/unstructured/first_doc.html"}, "structData": {"property0": "value0", "property1": "value1", "property2": "value2"} }
{ "id": "d002", "content": {"mimeType": "application/pdf", "uri": "gs://example-import/unstructured/second_doc.pdf"}, "structData": {"property0": "value0", "property1": "value3", "property2": "value4"} }
Paso 2: Configura los filtros
Para aplicar directamente valores de filtro a una búsqueda de GKA, llama a la API de SearchKnowledge
. También puedes aplicar un campo SearchConfig
en la solicitud, de la siguiente manera. Consulta la documentación de Vertex AI Search para obtener más ejemplos de expresiones de filtro.
{
"query": {
"text": "test query"
},
"conversationProfile": "projects/PROJECT_ID/locations/LOCATION_ID/conversationProfiles/CONVERSATION_PROFILE_ID",
"sessionId": "SESSION_ID",
"conversation": "projects/PROJECT_ID/locations/LOCATION_ID/conversations/CONVERSATION_ID",
"querySource": "AGENT_QUERY",
"searchConfig":
"filterSpecs": [{
"dataStores": ["projects/PROJECT_NUMBER/locations/LOCATION_ID/collections/default_collection/dataStores/DATASTORE_ID"],
"filter": "property1 : ANY(\"value1\")"
}]
}
}
}
Para aplicar valores de filtro en todas las sugerencias y búsquedas de conocimiento dentro de una sola conversación, usa IngestContextReferences
y adjunta el ID de conversación a la llamada SearchKnowledge
.
Filtros de documentos de PGKA
Aplica un SearchConfig
a las llamadas de PGKA con la API de IngestContextReferences
o el simulador en la consola de Agent Assist.
API
Llama a la API de IngestContextReferences
para aplicar un SearchConfig
a las llamadas de PGKA.
- Llama a
CreateConversation
>IngestContextReferences
. - La configuración se aplica automáticamente a todas las búsquedas posteriores en PGKA y a las sugerencias de respuestas en la misma conversación.
En el siguiente ejemplo, se muestra cómo usar la API deIngestContextReferences
.
{
"conversation": "projects/PROJECT_ID/locations/global/conversations/CONVERSATION_ID",
"contextReferences": {
"gka_search_config": {
"contextContents": [{
"content": "{ \"filterSpecs\": [{ \"dataStores\": [\"projects/PROJECT_NUMBER/locations/LOCATION_ID/collections/default_collection/dataStores/DATASTORE_ID\"], \"filter\": \"property1: ANY (\\\"value1\\\")\" }] }",
"contentFormat": "JSON"
}],
"updateMode": "OVERWRITE",
"languageCode": "en-US"
}
}
}
Console
Navega a la consola de Agent Assist, accede y selecciona tu proyecto.
Haz clic en Simulator y selecciona tu perfil de conversación.
Haz clic en Start > Inject context.
Ingresa tu clave, tu contenido y selecciona uno de los siguientes formatos.
- Texto sin formato
- JSON
Haz clic en Guardar.
A continuación, se muestra un ejemplo de contexto para el simulador.
- Key:
gka_search_config
- Format:
JSON
- Contenido:
{ "filterSpecs": [{"dataStores" : ["projects/PROJECT_NUMBER/locations/LOCATION_ID/collections/default_collection/dataStores/DATASTORE_ID"], "filter" : "property1 : ANY(\"value1\")" }] }
Filtros de seguridad
Las funciones potenciadas por IA generativa de Agent Assist tienen filtros de seguridad de IA responsable (RAI) integrados. Estos filtros son fundamentales para evitar la generación de contenido potencialmente dañino o inapropiado. Sin embargo, los niveles de seguridad predeterminados pueden ser demasiado restrictivos para ciertos sectores. Por ejemplo, es posible que un proveedor de atención médica deba responder a consultas legítimas sobre temas de salud sensibles que bloquean los filtros predeterminados. Para alinear el comportamiento del generador con las necesidades y los casos de uso de tu empresa, puedes personalizar la sensibilidad de los filtros de seguridad para la función de PGKA.
Conceptos básicos
Los filtros de seguridad tienen dos componentes clave:
- Categoría de contenido para el filtrado
- Nivel de sensibilidad del filtro
Categorías de la RAI
Puedes establecer un nivel de sensibilidad para las siguientes categorías de contenido:
- Contenido peligroso: Contenido que hace referencia a autolesiones o a cualquier actividad ilegal, regulada o peligrosa
- Sexual explícito: Contenido sexual explícito o que incluye material pornográfico
- Hostigamiento: Contenido insultante, intimidatorio o abusivo
- Incitación al odio o a la violencia: Contenido que promueve la violencia o incita al odio contra personas o grupos en función de ciertos atributos
Niveles de sensibilidad
Para cada categoría de RAI, puedes elegir uno de los siguientes umbrales de sensibilidad:
BLOCK_MOST
: Bloquea una amplia variedad de contenido que podría pertenecer a la categoría.BLOCK_SOME
: Bloquea el contenido que se identifica claramente como perteneciente a la categoría.BLOCK_FEW
: Bloquea solo las instancias más graves de contenido para la categoría.BLOCK_NONE
: Inhabilita todos los filtros para la categoría especificada.
Configuración predeterminada
Si no proporcionas una configuración personalizada para una categoría, Knowledge Assist proactivo y generativo usa los siguientes niveles de sensibilidad predeterminados:
- Contenido peligroso:
BLOCK_FEW
- Contenido sexual explícito:
BLOCK_SOME
- Hostigamiento:
BLOCK_SOME
- Incitación al odio o a la violencia:
BLOCK_SOME
Configura filtros de seguridad
Configura filtros de seguridad en tu perfil de conversación. Puedes especificar un nivel de sensibilidad para una o más categorías de la RAI agregando un objeto rai_settings
a la configuración de la función para KNOWLEDGE_ASSIST
. Puedes encontrar la configuración del filtro de seguridad dentro del array feature_configs
para la función de sugerencias KNOWLEDGE_ASSIST
.
{
"name": "projects/PROJECT_ID/locations/LOCATION/conversationProfiles/PROFILE_ID",
"human_agent_assistant_config": {
"human_agent_suggestion_config": {
"feature_configs": [
{
"suggestion_feature": {
"type": "KNOWLEDGE_ASSIST"
},
"rai_settings": {
"rai_category_configs": [
{
"category": "DANGEROUS_CONTENT",
"sensitivity_level": "BLOCK_FEW"
},
{
"category": "HARASSMENT",
"sensitivity_level": "BLOCK_MOST"
}
]
}
}
]
}
}
}
Ejemplos de configuración
En los siguientes ejemplos, se ilustra cómo aumentar o disminuir el nivel de sensibilidad para una sola categoría según las necesidades de tu empresa.
Ejemplo 1: Permite las búsquedas sensibles relacionadas con la atención médica
Como proveedor de atención médica, quieres asegurarte de que no se bloqueen las búsquedas sobre temas sensibles de salud mental. Puedes reducir la sensibilidad para la categoría de contenido peligroso de la siguiente manera.
"rai_settings": {
"rai_category_configs": [
{
"category": "DANGEROUS_CONTENT",
"sensitivity_level": "BLOCK_NONE"
}
]
}
Con este parámetro de configuración, es más probable que la asistencia proactiva basada en conocimiento generativo procese y proporcione una respuesta útil para una búsqueda como ¿Cuáles son las señales de advertencia de suicidio?.
Ejemplo 2: Aumentar el nivel de rigurosidad
Si tu empresa quiere ser más cautelosa con respecto al hostigamiento, puedes aumentar la sensibilidad de esa categoría y dejar las demás en sus niveles predeterminados, de la siguiente manera.
"rai_settings": {
"rai_category_configs": [
{
"category": "HARASSMENT",
"sensitivity_level": "BLOCK_MOST"
}
]
}