Los filtros te ayudan a acotar una búsqueda y a asegurarte de que el generador de asistencia de conocimientos produzca sugerencias útiles. Filtra documentos en un almacén de datos para especificar una categoría de documentos que se usará como referencia en Generative Knowledge Assist (GKA) y Proactive Generative Knowledge Assist (PGKA). Personaliza los filtros de seguridad del contenido generado para asegurarte de que las sugerencias de PGKA sean lo más útiles posible y lo menos perjudiciales posible para tu empresa.
Filtros de documentos
Filtra los documentos de asistencia de conocimientos tanto de GKA como de PGKA con SearchConfig
.
Paso 1: Configura Datastore con metadatos
Importar con metadatos para crear un Datastore para GKA y PGKA. Debe proporcionar los metadatos en uno o varios archivos JSONL, ubicados en la carpeta de nivel superior del contenido que se va a importar.
- Sigue los pasos que se indican en la página Herramientas de Datastore para añadir un Datastore a un agente.
- En la página Aplicaciones de IA, haz clic en Almacenes de datos > + Crear almacén de datos.
- Ve a Cloud Storage y haz clic en Seleccionar.
- Haz clic en Archivo y, a continuación, introduce la ruta del archivo en Cloud Storage o haz clic en Examinar para seleccionarlo.
- Ve a ¿Qué tipo de datos vas a importar? y selecciona Documentos no estructurados vinculados (JSONL con metadatos).
- Ve a Opciones de importación de datos y selecciona Completa.
- Haz clic en Importar.
- Una vez que hayas creado correctamente tu Datastore, consulta la tabla Documentos. En la tabla se muestra cada uno de tus documentos con los siguientes detalles.
- ID
- Enlace URI
- Estado de indexación
- Acciones
- Haga clic en Ver documento para examinar las propiedades de un documento.
A continuación, se muestra un archivo JSONL de ejemplo. También puedes especificar metadatos en el campo structData
.
{ "id": "d001", "content": {"mimeType": "text/html", "uri": "gs://example-import/unstructured/first_doc.html"}, "structData": {"property0": "value0", "property1": "value1", "property2": "value2"} }
{ "id": "d002", "content": {"mimeType": "application/pdf", "uri": "gs://example-import/unstructured/second_doc.pdf"}, "structData": {"property0": "value0", "property1": "value3", "property2": "value4"} }
Paso 2: Configura los filtros
Para aplicar directamente valores de filtro a una búsqueda de GKA, llama a la API SearchKnowledge
. También puedes aplicar un campo SearchConfig
en la solicitud, como se indica a continuación. Consulta más ejemplos de expresiones de filtro en la documentación de Vertex AI Search.
{
"query": {
"text": "test query"
},
"conversationProfile": "projects/PROJECT_ID/locations/LOCATION_ID/conversationProfiles/CONVERSATION_PROFILE_ID",
"sessionId": "SESSION_ID",
"conversation": "projects/PROJECT_ID/locations/LOCATION_ID/conversations/CONVERSATION_ID",
"querySource": "AGENT_QUERY",
"searchConfig":
"filterSpecs": [{
"dataStores": ["projects/PROJECT_NUMBER/locations/LOCATION_ID/collections/default_collection/dataStores/DATASTORE_ID"],
"filter": "property1 : ANY(\"value1\")"
}]
}
}
}
Para aplicar valores de filtro a todas las consultas y sugerencias de búsqueda de conocimientos de una conversación, usa IngestContextReferences
y adjunta el ID de la conversación a la llamada SearchKnowledge
.
Filtros de documentos de PGKA
Aplica un SearchConfig
a las llamadas de PGKA mediante la API IngestContextReferences
o el simulador de la consola de Agent Assist.
API
Llama a la API IngestContextReferences
para aplicar un SearchConfig
a las llamadas de PGKA.
- Llama al
CreateConversation
>IngestContextReferences
. - La configuración se aplica automáticamente a todas las consultas y sugerencias de respuesta de PGKA posteriores en la misma conversación.
En el siguiente ejemplo se muestra cómo usar la API IngestContextReferences
.
{
"conversation": "projects/PROJECT_ID/locations/global/conversations/CONVERSATION_ID",
"contextReferences": {
"gka_search_config": {
"contextContents": [{
"content": "{ \"filterSpecs\": [{ \"dataStores\": [\"projects/PROJECT_NUMBER/locations/LOCATION_ID/collections/default_collection/dataStores/DATASTORE_ID\"], \"filter\": \"property1: ANY (\\\"value1\\\")\" }] }",
"contentFormat": "JSON"
}],
"updateMode": "OVERWRITE",
"languageCode": "en-US"
}
}
}
Consola
Ve a la consola de Asistente, inicia sesión y selecciona tu proyecto.
Haz clic en Simulador y selecciona tu perfil de conversación.
Haz clic en Iniciar > Inyectar contexto.
Introduce la clave y el contenido, y selecciona uno de los siguientes formatos.
- Texto sin formato
- JSON
Haz clic en Guardar.
A continuación, se muestra un ejemplo de contexto para el simulador.
- Clave:
gka_search_config
- Formato:
JSON
- Contenido:
{ "filterSpecs": [{"dataStores" : ["projects/PROJECT_NUMBER/locations/LOCATION_ID/collections/default_collection/dataStores/DATASTORE_ID"], "filter" : "property1 : ANY(\"value1\")" }] }
Filtros de seguridad
Las funciones generativas de Asistente se han creado con filtros de seguridad de IA responsable (IAR) integrados. Estos filtros son esenciales para evitar la generación de contenido potencialmente dañino o inapropiado. Sin embargo, los niveles de seguridad predeterminados pueden ser demasiado restrictivos para determinados sectores. Por ejemplo, un proveedor de atención sanitaria puede tener que responder a consultas legítimas sobre temas de salud sensibles que los filtros predeterminados bloquean. Para adaptar el comportamiento del generador a las necesidades y los casos prácticos de tu empresa, puedes personalizar la sensibilidad de los filtros de seguridad de la función de claves de API de Google Play.
Documentos básicos
Los filtros de seguridad tienen dos componentes clave:
- Categoría de contenido que se va a filtrar
- El nivel de sensibilidad del filtro
Categorías de RAI
Puedes definir un nivel de sensibilidad para las siguientes categorías de contenido:
- Contenido peligroso: contenido que haga referencia a autolesiones o a cualquier cosa que sea ilegal, esté regulada o sea peligrosa.
- Contenido sexual explícito: contenido sexual explícito o pornográfico.
- Acoso: contenido insultante, intimidatorio o abusivo.
- Incitación al odio: contenido que promueva la violencia o incite al odio hacia personas o grupos en función de determinados atributos.
Niveles de sensibilidad
En cada categoría de RAI, puedes elegir uno de los siguientes umbrales de sensibilidad:
BLOCK_MOST
: bloquea una amplia gama de contenido que podría incluirse en la categoría.BLOCK_SOME
: bloquea el contenido que se identifica claramente como perteneciente a la categoría.BLOCK_FEW
: solo bloquea los casos más graves de contenido de la categoría.BLOCK_NONE
: inhabilita todos los filtros de la categoría especificada.
Configuración predeterminada
Si no proporcionas una configuración personalizada para una categoría, la función de asistencia de conocimiento generativa proactiva usará los siguientes niveles de sensibilidad predeterminados:
- Contenido peligroso:
BLOCK_FEW
- Contenido sexual explícito:
BLOCK_SOME
- Acoso:
BLOCK_SOME
- Incitación al odio:
BLOCK_SOME
Configurar filtros de seguridad
Configura los filtros de seguridad en tu perfil de conversación. Puedes especificar un nivel de sensibilidad para una o varias categorías de RAI añadiendo un objeto rai_settings
a la configuración de la función de KNOWLEDGE_ASSIST
. Puedes encontrar los ajustes del filtro de seguridad en la matriz feature_configs
de la función de sugerencias KNOWLEDGE_ASSIST
.
{
"name": "projects/PROJECT_ID/locations/LOCATION/conversationProfiles/PROFILE_ID",
"human_agent_assistant_config": {
"human_agent_suggestion_config": {
"feature_configs": [
{
"suggestion_feature": {
"type": "KNOWLEDGE_ASSIST"
},
"rai_settings": {
"rai_category_configs": [
{
"category": "DANGEROUS_CONTENT",
"sensitivity_level": "BLOCK_FEW"
},
{
"category": "HARASSMENT",
"sensitivity_level": "BLOCK_MOST"
}
]
}
}
]
}
}
}
Ejemplos de configuración
En los siguientes ejemplos se muestra cómo aumentar o reducir el nivel de sensibilidad de una sola categoría según las necesidades de tu empresa.
Ejemplo 1: Permitir consultas sanitarias sensibles
Como profesional sanitario, querrás asegurarte de que no se bloqueen las consultas sobre temas delicados relacionados con la salud mental. Puedes reducir la sensibilidad de la categoría de contenido peligroso de la siguiente forma:
"rai_settings": {
"rai_category_configs": [
{
"category": "DANGEROUS_CONTENT",
"sensitivity_level": "BLOCK_NONE"
}
]
}
Con este ajuste, es más probable que la asistencia generativa proactiva procese y proporcione una respuesta útil a una consulta como ¿Cuáles son los signos de advertencia del suicidio?.
Ejemplo 2: Aumentar nivel de rigurosidad
Si tu empresa quiere tomar precauciones adicionales contra el acoso, puedes aumentar la sensibilidad de esa categoría y dejar las demás en sus niveles predeterminados. Para ello, sigue estos pasos:
"rai_settings": {
"rai_category_configs": [
{
"category": "HARASSMENT",
"sensitivity_level": "BLOCK_MOST"
}
]
}