필터를 사용하면 검색 범위를 좁히고 지식 지원 생성기에서 유용한 추천을 생성할 수 있습니다. 데이터 스토어에서 문서를 필터링하여 생성형 지식 지원 (GKA) 및 사전 예방적 생성형 지식 지원 (PGKA) 모두에서 참조할 문서 카테고리를 지정합니다. 생성된 콘텐츠의 안전 필터를 맞춤설정하여 비즈니스 요구사항에 최대한 유용하고 최소한의 해로운 PGKA 추천을 제공하세요.
문서 필터
SearchConfig
를 사용하여 GKA와 PGKA 모두에 대한 지식 지원 문서를 필터링합니다.
1단계: 메타데이터로 Datastore 설정
메타데이터와 함께 가져오기를 사용하여 GKA 및 PGKA의 Datastore를 만듭니다. 메타데이터는 가져오기에 사용되는 콘텐츠의 상위 수준 폴더에 있는 하나 이상의 JSONL 파일로 제공해야 합니다.
- Datastore 도구 페이지의 단계에 따라 에이전트에 Datastore를 추가합니다.
- AI 애플리케이션 페이지에서 데이터 스토어 > + 데이터 스토어 만들기를 클릭합니다.
- Cloud Storage로 이동하여 선택을 클릭합니다.
- 파일을 클릭한 다음 Cloud Storage에 있는 파일의 경로를 입력하거나 찾아보기를 클릭하여 파일을 선택합니다.
- 어떤 종류의 데이터를 가져오나요?로 이동하여 링크가 걸린 비정형 문서 (메타데이터가 포함된 JSONL)를 선택합니다.
- 데이터 가져오기 옵션으로 이동하여 전체를 선택합니다.
- 가져오기를 클릭합니다.
- Datastore를 만든 후 문서 테이블을 확인합니다. 표에는 각 문서가 다음 세부정보와 함께 나열됩니다.
- ID
- URI 링크
- 색인 상태
- 작업
- 문서 보기를 클릭하여 문서의 속성을 검사합니다.
다음은 JSONL 파일의 예입니다. structData
필드에 메타데이터를 지정할 수도 있습니다.
{ "id": "d001", "content": {"mimeType": "text/html", "uri": "gs://example-import/unstructured/first_doc.html"}, "structData": {"property0": "value0", "property1": "value1", "property2": "value2"} }
{ "id": "d002", "content": {"mimeType": "application/pdf", "uri": "gs://example-import/unstructured/second_doc.pdf"}, "structData": {"property0": "value0", "property1": "value3", "property2": "value4"} }
2단계: 필터 구성
GKA 검색에 필터 값을 직접 적용하려면 SearchKnowledge
API를 호출하세요. 다음과 같이 요청에 SearchConfig
필드를 적용할 수도 있습니다. 필터 표현식의 더 많은 예는 Vertex AI Search 문서를 참고하세요.
{
"query": {
"text": "test query"
},
"conversationProfile": "projects/PROJECT_ID/locations/LOCATION_ID/conversationProfiles/CONVERSATION_PROFILE_ID",
"sessionId": "SESSION_ID",
"conversation": "projects/PROJECT_ID/locations/LOCATION_ID/conversations/CONVERSATION_ID",
"querySource": "AGENT_QUERY",
"searchConfig":
"filterSpecs": [{
"dataStores": ["projects/PROJECT_NUMBER/locations/LOCATION_ID/collections/default_collection/dataStores/DATASTORE_ID"],
"filter": "property1 : ANY(\"value1\")"
}]
}
}
}
단일 대화 내의 모든 지식 검색 쿼리 및 추천에 필터 값을 적용하려면 IngestContextReferences
를 사용하고 SearchKnowledge
호출에 대화 ID를 연결하세요.
PGKA 문서 필터
IngestContextReferences
API 또는 Agent Assist 콘솔의 시뮬레이터를 사용하여 PGKA 호출에 SearchConfig
를 적용합니다.
API
IngestContextReferences
API를 호출하여 PGKA 호출에 SearchConfig
를 적용합니다.
CreateConversation
>IngestContextReferences
을 호출합니다.- 이 구성은 동일한 대화의 모든 후속 PGKA 질문과 답변 제안에 자동으로 적용됩니다.
다음 예시에서는 IngestContextReferences
API를 사용하는 방법을 보여줍니다.
{
"conversation": "projects/PROJECT_ID/locations/global/conversations/CONVERSATION_ID",
"contextReferences": {
"gka_search_config": {
"contextContents": [{
"content": "{ \"filterSpecs\": [{ \"dataStores\": [\"projects/PROJECT_NUMBER/locations/LOCATION_ID/collections/default_collection/dataStores/DATASTORE_ID\"], \"filter\": \"property1: ANY (\\\"value1\\\")\" }] }",
"contentFormat": "JSON"
}],
"updateMode": "OVERWRITE",
"languageCode": "en-US"
}
}
}
콘솔
Agent Assist 콘솔로 이동하여 로그인하고 프로젝트를 선택합니다.
시뮬레이터를 클릭하고 대화 프로필을 선택합니다.
시작 > 컨텍스트 삽입을 클릭합니다.
키와 콘텐츠를 입력하고 다음 형식 중 하나를 선택합니다.
- 일반 텍스트
- JSON
저장을 클릭합니다.
다음은 시뮬레이터의 컨텍스트 예시입니다.
- 키:
gka_search_config
- 형식:
JSON
- 콘텐츠:
{ "filterSpecs": [{"dataStores" : ["projects/PROJECT_NUMBER/locations/LOCATION_ID/collections/default_collection/dataStores/DATASTORE_ID"], "filter" : "property1 : ANY(\"value1\")" }] }
안전 필터
Agent Assist의 생성 기능에는 책임감 있는 AI (RAI) 안전 필터가 내장되어 있습니다. 이러한 필터는 잠재적으로 유해하거나 부적절한 콘텐츠의 생성을 방지하는 데 필수적입니다. 하지만 특정 업종에서는 기본 안전 수준이 너무 제한적일 수 있습니다. 예를 들어 의료 서비스 제공업체는 기본 필터에서 차단하는 민감한 건강 주제에 관한 적법한 질문에 응답해야 할 수 있습니다. 생성기의 동작을 비즈니스 요구사항 및 사용 사례에 맞추려면 PGKA 기능의 안전 필터 민감도를 맞춤설정하면 됩니다.
기본사항
안전 필터에는 두 가지 주요 구성요소가 있습니다.
- 필터링할 콘텐츠의 카테고리
- 필터의 민감도 수준
RAI 카테고리
다음 콘텐츠 카테고리에 민감도 수준을 설정할 수 있습니다.
- 위험한 콘텐츠: 자해 또는 불법, 규제 대상, 위험한 행위를 언급하는 콘텐츠
- 음란물: 노골적인 성적 콘텐츠나 음란물이 포함된 콘텐츠
- 괴롭힘: 모욕적이거나 위협적이거나 악의적인 콘텐츠
- 증오심 표현: 특정한 특성을 문제 삼아 개인이나 집단에 대한 폭력을 조장하거나 증오심을 선동하는 콘텐츠
민감도 수준
각 RAI 카테고리에 대해 다음 민감도 기준 중 하나를 선택할 수 있습니다.
BLOCK_MOST
: 이 카테고리에 속할 수 있는 광범위한 콘텐츠를 차단합니다.BLOCK_SOME
: 카테고리에 속하는 것으로 명확하게 식별된 콘텐츠를 차단합니다.BLOCK_FEW
: 카테고리에서 가장 심각한 콘텐츠 인스턴스만 차단합니다.BLOCK_NONE
: 지정된 카테고리의 모든 필터를 사용 중지합니다.
기본 설정
카테고리에 맞춤 구성을 제공하지 않으면 사전 대응형 생성형 지식 지원은 다음 기본 민감도 수준을 사용합니다.
- 위험한 콘텐츠:
BLOCK_FEW
- 음란물:
BLOCK_SOME
- 괴롭힘:
BLOCK_SOME
- 증오심 표현:
BLOCK_SOME
안전 필터 구성
대화 프로필 내에서 안전 필터를 구성합니다. KNOWLEDGE_ASSIST
의 기능 구성에 rai_settings
객체를 추가하여 하나 이상의 RAI 카테고리의 민감도 수준을 지정할 수 있습니다. 안전 필터 설정은 KNOWLEDGE_ASSIST
제안 기능의 feature_configs
배열 내에서 확인할 수 있습니다.
{
"name": "projects/PROJECT_ID/locations/LOCATION/conversationProfiles/PROFILE_ID",
"human_agent_assistant_config": {
"human_agent_suggestion_config": {
"feature_configs": [
{
"suggestion_feature": {
"type": "KNOWLEDGE_ASSIST"
},
"rai_settings": {
"rai_category_configs": [
{
"category": "DANGEROUS_CONTENT",
"sensitivity_level": "BLOCK_FEW"
},
{
"category": "HARASSMENT",
"sensitivity_level": "BLOCK_MOST"
}
]
}
}
]
}
}
}
구성 예
다음 예는 비즈니스 요구사항에 따라 단일 카테고리의 민감도 수준을 높이거나 낮추는 방법을 보여줍니다.
예 1: 민감한 의료 관련 질문 허용
의료 서비스 제공자는 민감한 정신 건강 주제에 관한 질문이 차단되지 않도록 해야 합니다. 다음과 같이 위험한 콘텐츠 카테고리의 민감도를 낮출 수 있습니다.
"rai_settings": {
"rai_category_configs": [
{
"category": "DANGEROUS_CONTENT",
"sensitivity_level": "BLOCK_NONE"
}
]
}
이 설정을 사용하면 사전 대응형 생성형 지식 어시스트가 자살의 경고 신호는 무엇인가요?와 같은 질문에 대해 처리하고 유용한 대답을 제공할 가능성이 높아집니다.
예 2: 검토 기준 높이기
비즈니스에서 괴롭힘에 대해 더욱 신중하게 대처하고 싶다면 다음과 같이 다른 카테고리는 기본 수준으로 유지하면서 해당 카테고리의 민감도를 높일 수 있습니다.
"rai_settings": {
"rai_category_configs": [
{
"category": "HARASSMENT",
"sensitivity_level": "BLOCK_MOST"
}
]
}