지식 지원 필터

필터를 사용하면 검색 범위를 좁히고 지식 지원 생성기에서 유용한 추천을 생성할 수 있습니다. 데이터 스토어에서 문서를 필터링하여 생성형 지식 지원 (GKA)사전 예방적 생성형 지식 지원 (PGKA) 모두에서 참조할 문서 카테고리를 지정합니다. 생성된 콘텐츠의 안전 필터를 맞춤설정하여 비즈니스 요구사항에 최대한 유용하고 최소한의 해로운 PGKA 추천을 제공하세요.

문서 필터

SearchConfig를 사용하여 GKA와 PGKA 모두에 대한 지식 지원 문서를 필터링합니다.

1단계: 메타데이터로 Datastore 설정

메타데이터와 함께 가져오기를 사용하여 GKA 및 PGKA의 Datastore를 만듭니다. 메타데이터는 가져오기에 사용되는 콘텐츠의 상위 수준 폴더에 있는 하나 이상의 JSONL 파일로 제공해야 합니다.

  1. Datastore 도구 페이지의 단계에 따라 에이전트에 Datastore를 추가합니다.
  2. AI 애플리케이션 페이지에서 데이터 스토어 > + 데이터 스토어 만들기를 클릭합니다.
  3. Cloud Storage로 이동하여 선택을 클릭합니다.
  4. 파일을 클릭한 다음 Cloud Storage에 있는 파일의 경로를 입력하거나 찾아보기를 클릭하여 파일을 선택합니다.
  5. 어떤 종류의 데이터를 가져오나요?로 이동하여 링크가 걸린 비정형 문서 (메타데이터가 포함된 JSONL)를 선택합니다.
  6. 데이터 가져오기 옵션으로 이동하여 전체를 선택합니다.
  7. 가져오기를 클릭합니다.
  8. Datastore를 만든 후 문서 테이블을 확인합니다. 표에는 각 문서가 다음 세부정보와 함께 나열됩니다.
    • ID
    • URI 링크
    • 색인 상태
    • 작업
  9. 문서 보기를 클릭하여 문서의 속성을 검사합니다.

다음은 JSONL 파일의 예입니다. structData 필드에 메타데이터를 지정할 수도 있습니다.

{ "id": "d001", "content": {"mimeType": "text/html", "uri": "gs://example-import/unstructured/first_doc.html"}, "structData": {"property0": "value0", "property1": "value1", "property2": "value2"} }
{ "id": "d002", "content": {"mimeType": "application/pdf", "uri": "gs://example-import/unstructured/second_doc.pdf"}, "structData": {"property0": "value0", "property1": "value3", "property2": "value4"} }

2단계: 필터 구성

GKA 검색에 필터 값을 직접 적용하려면 SearchKnowledge API를 호출하세요. 다음과 같이 요청에 SearchConfig 필드를 적용할 수도 있습니다. 필터 표현식의 더 많은 예는 Vertex AI Search 문서를 참고하세요.

{
  "query": {
     "text": "test query"
  },
  "conversationProfile": "projects/PROJECT_ID/locations/LOCATION_ID/conversationProfiles/CONVERSATION_PROFILE_ID",
  "sessionId": "SESSION_ID",
  "conversation": "projects/PROJECT_ID/locations/LOCATION_ID/conversations/CONVERSATION_ID",
  "querySource": "AGENT_QUERY",
  "searchConfig": 
    "filterSpecs": [{
      "dataStores": ["projects/PROJECT_NUMBER/locations/LOCATION_ID/collections/default_collection/dataStores/DATASTORE_ID"],
      "filter": "property1 : ANY(\"value1\")" 
      }]
    }
  }
}

단일 대화 내의 모든 지식 검색 쿼리 및 추천에 필터 값을 적용하려면 IngestContextReferences를 사용하고 SearchKnowledge 호출에 대화 ID를 연결하세요.

PGKA 문서 필터

IngestContextReferences API 또는 Agent Assist 콘솔의 시뮬레이터를 사용하여 PGKA 호출에 SearchConfig를 적용합니다.

API

IngestContextReferences API를 호출하여 PGKA 호출에 SearchConfig를 적용합니다.

  1. CreateConversation > IngestContextReferences을 호출합니다.
  2. 이 구성은 동일한 대화의 모든 후속 PGKA 질문과 답변 제안에 자동으로 적용됩니다.

다음 예시에서는 IngestContextReferences API를 사용하는 방법을 보여줍니다.

{
  "conversation": "projects/PROJECT_ID/locations/global/conversations/CONVERSATION_ID",
  "contextReferences": {
   "gka_search_config": {
      "contextContents": [{
"content": "{ \"filterSpecs\": [{ \"dataStores\": [\"projects/PROJECT_NUMBER/locations/LOCATION_ID/collections/default_collection/dataStores/DATASTORE_ID\"], \"filter\": \"property1: ANY    (\\\"value1\\\")\" }] }",
        "contentFormat": "JSON"
      }],
      "updateMode": "OVERWRITE",
      "languageCode": "en-US"
    }
  }
}

콘솔

  1. Agent Assist 콘솔로 이동하여 로그인하고 프로젝트를 선택합니다.

    콘솔로 이동

  2. 시뮬레이터를 클릭하고 대화 프로필을 선택합니다.

  3. 시작 > 컨텍스트 삽입을 클릭합니다.

  4. 콘텐츠를 입력하고 다음 형식 중 하나를 선택합니다.

    • 일반 텍스트
    • JSON
  5. 저장을 클릭합니다.

다음은 시뮬레이터의 컨텍스트 예시입니다.

  • : gka_search_config
  • 형식: JSON
  • 콘텐츠:
{ "filterSpecs": [{"dataStores" : ["projects/PROJECT_NUMBER/locations/LOCATION_ID/collections/default_collection/dataStores/DATASTORE_ID"], "filter" : "property1 : ANY(\"value1\")" }] }

안전 필터

Agent Assist의 생성 기능에는 책임감 있는 AI (RAI) 안전 필터가 내장되어 있습니다. 이러한 필터는 잠재적으로 유해하거나 부적절한 콘텐츠의 생성을 방지하는 데 필수적입니다. 하지만 특정 업종에서는 기본 안전 수준이 너무 제한적일 수 있습니다. 예를 들어 의료 서비스 제공업체는 기본 필터에서 차단하는 민감한 건강 주제에 관한 적법한 질문에 응답해야 할 수 있습니다. 생성기의 동작을 비즈니스 요구사항 및 사용 사례에 맞추려면 PGKA 기능의 안전 필터 민감도를 맞춤설정하면 됩니다.

기본사항

안전 필터에는 두 가지 주요 구성요소가 있습니다.

  • 필터링할 콘텐츠의 카테고리
  • 필터의 민감도 수준

RAI 카테고리

다음 콘텐츠 카테고리에 민감도 수준을 설정할 수 있습니다.

  • 위험한 콘텐츠: 자해 또는 불법, 규제 대상, 위험한 행위를 언급하는 콘텐츠
  • 음란물: 노골적인 성적 콘텐츠나 음란물이 포함된 콘텐츠
  • 괴롭힘: 모욕적이거나 위협적이거나 악의적인 콘텐츠
  • 증오심 표현: 특정한 특성을 문제 삼아 개인이나 집단에 대한 폭력을 조장하거나 증오심을 선동하는 콘텐츠

민감도 수준

각 RAI 카테고리에 대해 다음 민감도 기준 중 하나를 선택할 수 있습니다.

  • BLOCK_MOST: 이 카테고리에 속할 수 있는 광범위한 콘텐츠를 차단합니다.
  • BLOCK_SOME: 카테고리에 속하는 것으로 명확하게 식별된 콘텐츠를 차단합니다.
  • BLOCK_FEW: 카테고리에서 가장 심각한 콘텐츠 인스턴스만 차단합니다.
  • BLOCK_NONE: 지정된 카테고리의 모든 필터를 사용 중지합니다.

기본 설정

카테고리에 맞춤 구성을 제공하지 않으면 사전 대응형 생성형 지식 지원은 다음 기본 민감도 수준을 사용합니다.

  • 위험한 콘텐츠: BLOCK_FEW
  • 음란물: BLOCK_SOME
  • 괴롭힘: BLOCK_SOME
  • 증오심 표현: BLOCK_SOME

안전 필터 구성

대화 프로필 내에서 안전 필터를 구성합니다. KNOWLEDGE_ASSIST의 기능 구성에 rai_settings 객체를 추가하여 하나 이상의 RAI 카테고리의 민감도 수준을 지정할 수 있습니다. 안전 필터 설정은 KNOWLEDGE_ASSIST 제안 기능의 feature_configs 배열 내에서 확인할 수 있습니다.

{
  "name": "projects/PROJECT_ID/locations/LOCATION/conversationProfiles/PROFILE_ID",
  "human_agent_assistant_config": {
    "human_agent_suggestion_config": {
      "feature_configs": [
        {
          "suggestion_feature": {
            "type": "KNOWLEDGE_ASSIST"
          },
          "rai_settings": {
            "rai_category_configs": [
              {
                "category": "DANGEROUS_CONTENT",
                "sensitivity_level": "BLOCK_FEW"
              },
              {
                "category": "HARASSMENT",
                "sensitivity_level": "BLOCK_MOST"
              }
            ]
          }
        }
      ]
    }
  }
}

구성 예

다음 예는 비즈니스 요구사항에 따라 단일 카테고리의 민감도 수준을 높이거나 낮추는 방법을 보여줍니다.

예 1: 민감한 의료 관련 질문 허용

의료 서비스 제공자는 민감한 정신 건강 주제에 관한 질문이 차단되지 않도록 해야 합니다. 다음과 같이 위험한 콘텐츠 카테고리의 민감도를 낮출 수 있습니다.

"rai_settings": {
  "rai_category_configs": [
    {
      "category": "DANGEROUS_CONTENT",
      "sensitivity_level": "BLOCK_NONE"
    }
  ]
}

이 설정을 사용하면 사전 대응형 생성형 지식 어시스트가 자살의 경고 신호는 무엇인가요?와 같은 질문에 대해 처리하고 유용한 대답을 제공할 가능성이 높아집니다.

예 2: 검토 기준 높이기

비즈니스에서 괴롭힘에 대해 더욱 신중하게 대처하고 싶다면 다음과 같이 다른 카테고리는 기본 수준으로 유지하면서 해당 카테고리의 민감도를 높일 수 있습니다.

"rai_settings": {
  "rai_category_configs": [
    {
      "category": "HARASSMENT",
      "sensitivity_level": "BLOCK_MOST"
    }
  ]
}