הגנה מוגברת על המודל הוא שירות שנועד לשפר את האבטחה והבטיחות של אפליקציות AI, במיוחד כאלה שמבוססות על מודלים גדולים של שפה (LLM). Google Cloud הכלי בודק את ההנחיות שנשלחות למודלים ואת התשובות שנוצרות על ידם, ועוזר לכם לצמצם סיכונים ולאכוף שיטות עבודה אחראיות בתחום ה-AI.
הגדרת תבניות
כדי להגדיר איך הגנה מוגברת על המודל תסנן תוכן, צריך ליצור תבניות של הגנה מוגברת על המודל ולהשתמש בהן. תבנית היא קבוצת הגדרות לשימוש חוזר שבה מציינים אילו מסננים להפעיל, את רמות הביטחון של המסננים ואת סוג האכיפה של כל מסנן. למידע נוסף, קראו את המאמר בנושא יצירה וניהול של תבניות.
קביעת הגדרות אבטחה מינימליות
כדי להבטיח רמת הגנה בסיסית, מנהלי אבטחה יכולים להגדיר הגדרות אבטחה מינימליות ברמת הארגון, התיקייה או הפרויקט. ההגדרות האלה קובעות דרישות מינימליות למסננים שכל תבניות הגנה מוגברת על המודל שנוצרו במסגרת ההיקף הזה חייבות לעמוד בהן, וכך עוזרות למנוע הגדרות מקלות מדי. מידע נוסף מופיע במאמר בנושא הגדרות אבטחה מינימליות.
ניקוי הנחיות ותשובות
כשמשתמש שולח הנחיה לאפליקציה, האפליקציה שולחת קודם את ההנחיה הזו להגנה מוגברת על המודל. הגנה מוגברת על המודל מעבדת את ההנחיה דרך המסננים המופעלים בתבנית, ומחזירה תשובה שמציינת אם נמצאו הפרות מדיניות, וכן תוצאות מפורטות מכל מסנן. הלוגיקה של האפליקציה מחליטה מה לעשות בהמשך.
כשמודל LLM יוצר תגובה, לפני שהאפליקציה מציגה את התגובה למשתמש, היא שולחת אותה להגנה מוגברת על המודל. הגנה מוגברת על המודל בודק את הפלט של ה-LLM באמצעות הגדרות הסינון שמוגדרות בתבנית ומחזיר את תוצאות הניתוח. לאחר מכן האפליקציה מחליטה אם להציג את התשובה למשתמש, ויכולה לחסום אותה אם נמצאו הפרות.
מידע נוסף זמין במאמר ניקוי הנחיות ותשובות.