סקירה כללית על ניהול סיכונים במערכות AI

ניהול סיכונים במערכות AI עוזר לכם לנהל את מצב האבטחה של עומסי העבודה של ה-AI. הוא מזהה איומים ועוזר לצמצם את הסיכונים למלאי נכסי ה-AI. במסמך הזה מופיעה סקירה כללית של ניהול סיכונים במערכות AI, כולל היתרונות שלו וכמה מושגים מרכזיים. ניהול סיכונים במערכות AI זמין בהפעלות של Security Command Center ברמת הארגון.

במהדורות Premium ו-Enterprise, כשמפעילים את Security Command Center ברמת הארגון, ניהול סיכונים במערכות AI עוזר לספק תצוגה מקיפה של אבטחת ה-AI בכל Google Cloud הסביבה. מרכז הבקרה של ניהול סיכונים במערכות AI במסוף Google Cloud מציג קבוצה עקבית של ווידג'טים ותכונות, עם נתונים שמצטברים מכל הפרויקטים והמשאבים בארגון.

יכולות ניהול סיכונים במערכות AI

ההגנה על AI עוזרת לכם לנהל איומים וסיכונים במערכות ה-AI שלכם בדרכים הבאות:

  • מלאי נכסי AI ברמת הארגון: עוזר לכם לגלות, להעריך ולנהל את מערכות ה-AI והנכסים שלכם בכל הפרויקטים, כולל מודלים, מערכי נתונים, נקודות קצה, Vertex AI,‏ Cloud Storage ו-BigQuery.
  • ניהול משולב של סיכונים ונקודות חולשה: עוזר לכם לזהות, לנתח ולנהל נקודות חולשה, הגדרות שגויות, איומים וסיכונים ספציפיים ל-AI בנכסי ה-AI שלכם, עם הקשר ארגוני מלא.
  • תמיכה בתאימות: עוזרת לכם לוודא שאתם עומדים בתקני אבטחה רלוונטיים באמצעות אמצעי הבקרה לזיהוי במסגרת ניהול סיכונים במערכות AI.
  • שקיפות בנושא אבטחת מידע: משתלב עם שירותים כמו Data Security Posture Management כדי לספק תובנות לגבי רגישות הנתונים, השושלת והסיכונים שקשורים לעומסי העבודה של ה-AI.
  • ניהול מאוחד של אבטחת AI: עוזר לעקוב אחרי מדיניות אבטחת ה-AI והשיטות המומלצות וליישם אותן באופן עקבי בכל הארגון, ממרכז שליטה מרכזי אחד. ניהול סיכונים במערכות AI גם עוזר לכם לזהות איומים פוטנציאליים, נקודות חולשה וטעויות בהגדרות, ולהגיב להם.
  • תמיכה במודעות לסיכונים: עוזרת לצמצם את הסיכונים הפיננסיים, התדמיתיים והמשפטיים שקשורים לפרצות אבטחה ולאי-עמידה בדרישות הרגולטוריות בפריסות ה-AI שלכם.

תרחישי שימוש לניהול סיכונים במערכות AI

ניהול סיכונים במערכות AI עוזר לארגונים לשפר את האבטחה שלהם על ידי זיהוי וצמצום של איומים וסיכונים שקשורים למערכות AI ולמידע אישי רגיש. התרחישים הבאים לדוגמה ממחישים איך אפשר להשתמש בניהול סיכונים במערכות AI בארגונים שונים:

  • מוסד שירותים פיננסיים: נתונים פיננסיים של לקוחות

    מוסד גדול לשירותים פיננסיים משתמש במודלים של AI לעיבוד נתונים פיננסיים רגישים.

    • האתגר: עיבוד נתונים פיננסיים רגישים מאוד באמצעות מודלים של AI כרוך בכמה סיכונים, כולל הסיכון לפריצות לנתונים, זליגת נתונים במהלך אימון או הסקת מסקנות ונקודות חולשה בתשתית ה-AI הבסיסית.
    • תרחיש שימוש: ניהול סיכונים במערכות AI עוקב באופן רציף אחרי תהליכי עבודה של AI כדי לזהות פעילות חשודה, פועל לזיהוי גישה לא מורשית לנתונים והתנהגות חריגה של מודלים, מבצע סיווג של מידע אישי רגיש ועוזר לשפר את התאימות לתקנות כמו PCI DSS ו-GDPR.
  • ספק שירותים רפואיים: פרטיות המטופלים ותאימות

    ספק שירותים רפואיים גדול מנהל רשומות רפואיות אלקטרוניות ומשתמש ב-AI לאבחון ולתכנון טיפול, תוך התמודדות עם מידע רפואי מוגן (PHI).

    • אתגר: מידע PHI שמנותח על ידי מודלים של AI כפוף לתקנות מחמירות כמו HIPAA. הסיכונים כוללים חשיפה מקרית של מידע רפואי פרטי עקב טעויות בהגדרות או מתקפות זדוניות שמכוונות למערכות AI כדי לגנוב נתוני מטופלים.
    • תרחיש לדוגמה: ניהול סיכונים במערכות AI מזהה הפרות פוטנציאליות של HIPAA ושולח התראות לגביהן, מזהה גישה לא מורשית ל-PHI על ידי מודלים או משתמשים, מסמן שירותי AI פגיעים ובעלי פוטנציאל להגדרות שגויות, ועוקב אחרי דליפות נתונים.
  • חברת ייצור ורובוטיקה: קניין רוחני קנייני

    חברת ייצור שמתמחה ברובוטיקה מתקדמת ובאוטומציה מסתמכת במידה רבה על AI כדי לייעל את קווי הייצור ואת בקרת הרובוטים, וקניין רוחני (IP) חיוני מוטמע באלגוריתמים של ה-AI ובנתוני הייצור שלה.

    • האתגר: אלגוריתמים קנייניים של AI ונתונים תפעוליים רגישים חשופים לגניבה מאיומים פנימיים או מיריבים חיצוניים, מה שעלול להוביל לנחיתות תחרותית או לשיבוש תפעולי.
    • תרחיש לדוגמה: ניהול סיכונים במערכות AI עוקב אחרי גישה לא מורשית למודלים של AI ולמאגרי קוד, מזהה ניסיונות להוצאת מודלים מאומנים ודפוסי גישה חריגים לנתונים, ומסמן נקודות חולשה בסביבות פיתוח של AI כדי למנוע גניבת קניין רוחני.

כללי Event Threat Detection עבור נכסי Vertex AI

הכללים הבאים של Event Threat Detection מריצים זיהויים בנכסי Vertex AI:

  • שמירת נתונים: שיטה חדשה של AI API
  • המשכיות: מיקום גיאוגרפי חדש לשירות AI
  • העלאת רמת ההרשאה: התחזות אנומלית לחשבון שירות לצורך פעילות אדמין של AI
  • העלאת רמת ההרשאות: התחזות חריגה לחשבון שירות לצורך גישה לנתוני AI
  • העלאת רמת ההרשאות: העברה חריגה של הרשאות לחשבון שירות במספר שלבים לפעילות אדמין של AI
  • העלאת רמת ההרשאות: העברה חריגה של הרשאות לחשבון שירות במספר שלבים לצורך גישה לנתוני AI
  • העלאת רמת הרשאה: התחזות חריגה לחשבון שירות עבור פעילות אדמין ב-AI
  • גישה ראשונית: פעילות בחשבון שירות רדום בשירות AI

מידע נוסף על Event Threat Detection זמין במאמר סקירה כללית על Event Threat Detection.

מסגרת AI Protection

ניהול סיכונים במערכות AI משתמש במסגרת שכוללת אמצעי בקרה ספציפיים בענן שנפרסים אוטומטית במצב זיהוי. מצב 'זיהוי' פירושו שאמצעי הבקרה בענן מוחל על המשאבים המוגדרים למטרות מעקב. המערכת מזהה הפרות ושולחת התראות. אתם משתמשים במסגרות ובאמצעי בקרה בענן כדי להגדיר את הדרישות שלכם לניהול סיכונים במערכות AI, ומחילים את הדרישות האלה על סביבת Google Cloud . ניהול סיכונים במערכות AI כולל את מסגרת ברירת המחדל, שמגדירה אמצעי בקרה מומלצים לניהול סיכונים במערכות AI. כשמפעילים את ניהול סיכונים במערכות AI, מסגרת ברירת המחדל מוחלת באופן אוטומטי על הארגון במצב זיהוי. Google Cloud

אם צריך, אפשר ליצור עותקים של המסגרת כדי ליצור מסגרות מותאמות אישית לניהול סיכונים במערכות AI. אתם יכולים להוסיף את אמצעי הבקרה בענן למסגרות מותאמות אישית ולהחיל את המסגרות המותאמות אישית על הארגון, על התיקיות או על הפרויקטים. לדוגמה, אתם יכולים ליצור מסגרות מותאמות אישית שמחילות אמצעי בקרה ספציפיים בתחום השיפוט על תיקיות מסוימות, כדי להבטיח שהנתונים בתיקיות האלה יישארו באזור גיאוגרפי מסוים.

אמצעי בקרה בענן במסגרת ברירת המחדל של ניהול סיכונים במערכות AI

מידע נוסף על אמצעי הבקרה בענן שבהם נעשה שימוש במסגרת ניהול סיכונים במערכות AI זמין במאמר Google Recommended AI Essentials – Vertex AI.

אזורים פונקציונליים נתמכים של ניהול סיכונים במערכות AI

בקטע הזה מוגדרים תחומים פונקציונליים שבהם ניהול סיכונים במערכות AI יכול לעזור באבטחה.

  • עומסי עבודה של AI: עומסי עבודה של אפליקציות AI נעים בין כלים פנימיים שמטרתם לשפר את הפרודוקטיביות של העובדים לבין פתרונות שפונים לצרכנים ומיועדים לשיפור חוויית המשתמש ולקידום העסק. דוגמאות: סוכני AI, עוזרים וירטואליים, צ'אט בוטים של AI בממשק שיחה והמלצות בהתאמה אישית.
  • סוכני AI: סוכני AI הם מערכות AI שיכולות לתפוס את הסביבה שלהן, לקבל החלטות ולבצע פעולות כדי להשיג יעדים ספציפיים.
  • מודלים של AI: מודלים של AI מסווגים למודלים של AI בסיסיים, מודלים של AI שעברו כוונון עדין, מודלים סטנדרטיים של AI מצד ראשון ומודלים של AI בהתאמה אישית. לדוגמה, Gemini, ‏ Llama, מודלים לתרגום ומודלים בהתאמה אישית למשימות ספציפיות.
  • נכסי AI: נכסי AI תורמים לצינורות של פעולות למידת מכונה ומשמשים לעומסי עבודה של AI. סוגי נכסי ה-AI כוללים את הדוגמאות הבאות:
    • נכסי AI דקלרטיביים: נכסים כאלה נכללים במעקב של כלים לניהול מחזור חיים של AI, כמו Vertex AI.
    • נכסי AI משוערים: נכסים לשימוש כללי, כמו נכסי מחשוב ואחסון, שמשמשים לעיבוד נתוני AI או עומסי עבודה של AI.
    • Model-as-a-Service (API only): נכסים שכוללים קריאות פרוגרמטיות למודלים של AI של צד ראשון או צד שלישי.

שימוש במרכז הבקרה של AI Security

לוח הבקרה של AI Security מאפשר לכם לראות את מלאי נכסי ה-AI של הארגון ולבדוק הצעות לשיפורים שיפחיתו את הסיכונים והאיומים.

גישה למרכז הבקרה של AI Security

כדי לגשת ללוח הבקרה של אבטחת ה-AI, נכנסים לדף AI security (אבטחת AI) במסוף Google Cloud דרך Risk overview (סקירת סיכונים) >:

מידע נוסף זמין במאמר בנושא לוח הבקרה של אבטחת ה-AI.

הסבר על ניהול סיכונים במערכות AI

בקטע הזה מפורטים סיכונים פוטנציאליים שקשורים למערכות AI. אתם יכולים לראות את הסיכונים העיקריים במלאי ה-AI שלכם.

אפשר ללחוץ על כל בעיה כדי לפתוח חלונית פרטים עם תרשים של הבעיה.

צפייה באיומים מבוססי-AI

בקטע הזה מוסבר על איומים שקשורים למערכות AI. אתם יכולים לראות את 5 האיומים האחרונים שקשורים למשאבי ה-AI שלכם.

בדף הזה אתם יכולים:

  • לוחצים על הצגת הכול כדי לראות איומים שמשויכים למשאבי ה-AI שלכם.
  • כדי לראות פרטים נוספים על איום מסוים, לוחצים עליו.

הדמיה של מלאי ה-AI

במרכז הבקרה אפשר לראות תרשים של מלאי ה-AI, שכולל סיכום של הפרויקטים שמשולב בהם AI גנרטיבי, המודלים מאינטראקציה ישירה (First-Party) ומצד שלישי שנמצאים בשימוש פעיל, ומערכי הנתונים שמשמשים לאימון המודלים מצד שלישי.

בדף הזה אתם יכולים:

  • כדי להציג את דף פרטי המלאי, לוחצים על אחד מהצמתים בתרשים.
  • כדי לראות רשימה מפורטת של נכסים ספציפיים (כמו מודלים בסיסיים ומודלים בהתאמה אישית), לוחצים על תיאור הכלי.
  • כדי לפתוח תצוגה מפורטת של המודל, לוחצים על המודל. בתצוגה הזו מוצגים פרטים כמו נקודות הקצה שבהן המודל מתארח ומערך הנתונים ששימש לאימון המודל. אם Sensitive Data Protection מופעל, בתצוגת מערכי הנתונים מוצג גם אם מערך הנתונים מכיל מידע אישי רגיש.

סיכום ממצאי הבדיקה של מסגרת ה-AI

בקטע הזה מוסבר איך להעריך ולנהל את הממצאים ממסגרת ה-AI וממדיניות אבטחת הנתונים, והוא כולל את הנושאים הבאים:

  • ממצאים: בחלק הזה מוצג סיכום של ממצאים שנוצרו על ידי מדיניות אבטחה ומדיניות אבטחת נתונים מבוססות-AI. כדי לראות את הפרטים של הממצא, לוחצים על הצגת כל הממצאים או על המספר שלצד כל קטגוריית ממצאים. כדי להציג מידע נוסף על ממצא מסוים, לוחצים עליו.
  • מידע אישי רגיש במערכי נתונים של Vertex AI: בקטע הזה מוצג סיכום של הממצאים על סמך מידע אישי רגיש במערכי נתונים, כפי שדווח על ידי Sensitive Data Protection. מידע נוסף זמין במאמר מבוא ל-Vertex AI.

בדיקת הממצאים של הגנה מוגברת על המודל

תרשים שמציג את המספר הכולל של ההנחיות או התשובות שנסרקו על ידי הגנה מוגברת על המודל ואת מספר הבעיות שזוהו על ידי הגנה מוגברת על המודל. בנוסף, מוצגים סיכומים סטטיסטיים של סוגים שונים של בעיות שזוהו, כמו הזרקת הנחיות, זיהוי של פריצת מחסומים וזיהוי של מידע אישי רגיש.

המידע הזה מאוכלס על סמך המדדים שהגנה מוגברת על המודל מפרסם ב-Cloud Monitoring. מידע נוסף זמין במאמר סקירה כללית על הגנה מוגברת על המודל.

המאמרים הבאים