העיקרון הזה בעמודת האבטחה של Google Cloud Well-Architected Framework מספק המלצות לשימוש ב-AI כדי לשפר את האבטחה של עומסי העבודה בענן.
בגלל המספר הגדל של מתקפות סייבר והתחכום שלהן, חשוב לנצל את הפוטנציאל של AI כדי לשפר את האבטחה. ה-AI יכול לעזור לצמצם את מספר האיומים, להפחית את המאמץ הידני שנדרש מאנשי מקצוע בתחום האבטחה ולפצות על המחסור במומחים בתחום אבטחת הסייבר.
סקירה כללית של העקרונות
שימוש ביכולות AI כדי לשפר את מערכות ותהליכי האבטחה הקיימים. אתם יכולים להשתמש ב-Gemini in Security וגם ביכולות ה-AI המובנות בשירותי Google Cloud .
יכולות ה-AI האלה יכולות לשנות את האבטחה על ידי מתן סיוע בכל שלב במחזור החיים של האבטחה. לדוגמה, אתם יכולים להשתמש ב-AI כדי:
- לנתח ולהסביר קוד שעשוי להיות זדוני בלי לבצע הנדסה הפוכה.
- צמצום משימות שחוזרות על עצמן עבור מומחי אבטחת סייבר.
- שימוש בשפה טבעית כדי ליצור שאילתות ולקיים אינטראקציה עם נתוני אירועי אבטחה.
- הצגת מידע לפי הקשר.
- להציע המלצות לתשובות מהירות.
- עזרה בתיקון שגיאות של אירועים.
- מסכמות התראות בעדיפות גבוהה לגבי טעויות בהגדרות ונקודות חולשה, מדגישות את ההשפעות הפוטנציאליות וממליצות על דרכים לצמצום הסיכונים.
רמות של אוטונומיה באבטחה
השימוש ב-AI ובאוטומציה יכול לעזור לכם להשיג תוצאות טובות יותר בתחום האבטחה כשאתם מתמודדים עם איומי אבטחת סייבר שמשתנים כל הזמן. שימוש ב-AI לאבטחה מאפשר לכם להשיג רמות גבוהות יותר של אוטונומיה כדי לזהות ולמנוע איומים ולשפר את מצב האבטחה הכולל שלכם. Google מגדירה ארבעה רמות של אוטונומיה כשמשתמשים ב-AI לצורכי אבטחה, והיא מפרטת את התפקיד ההולך וגדל של ה-AI בסיוע למשימות אבטחה ובניהול שלהן בסופו של דבר:
- ידני: בני אדם מריצים את כל משימות האבטחה (מניעה, זיהוי, תעדוף ותגובה) בכל מחזור החיים של האבטחה.
- בעזרת AI: כלים מבוססי-AI, כמו Gemini, משפרים את הפרודוקטיביות של בני אדם על ידי סיכום מידע, הפקת תובנות ומתן המלצות.
- חצי אוטונומי: ה-AI אחראי בעיקר למשימות אבטחה רבות, ומעביר את האחריות לבני אדם רק כשנדרש.
- אוטונומי: ה-AI פועל כעוזר מהימן שמניע את מחזור החיים של האבטחה על סמך היעדים וההעדפות של הארגון, עם התערבות אנושית מינימלית.
המלצות
בקטעים הבאים מפורטות ההמלצות לשימוש ב-AI לצורכי אבטחה. בקטעים מוסבר גם איך ההמלצות תואמות ליסודות הליבה של Secure AI Framework (SAIF) של Google, ואיך הן רלוונטיות לרמות של אוטונומיה באבטחה.
- שיפור הזיהוי והתגובה לאיומים באמצעות AI
- אבטחה פשוטה למומחים ולמי שאינם מומחים
- אוטומציה של משימות אבטחה שגוזלות זמן באמצעות AI
- שילוב AI בתהליכי ניהול סיכונים וניהול
- הטמעת שיטות פיתוח מאובטחות למערכות AI
שיפור זיהוי האיומים והתגובה לאיומים באמצעות AI
ההמלצה הזו רלוונטית לתחומי ההתמקדות הבאים:
- תפעול אבטחה (SecOps)
- רישום ביומן, ביקורת ומעקב
AI יכול לנתח כמויות גדולות של נתוני אבטחה, לספק תובנות לגבי התנהגות של גורמי איום ולבצע אוטומציה של ניתוח קוד שעלול להיות זדוני. ההמלצה הזו תואמת לרכיבי ה-SAIF הבאים:
- שילוב AI בתהליכי הטיפול באיומים בארגון, משלב הזיהוי ועד שלב התגובה.
- אוטומציה של אמצעי הגנה במטרה לעמוד בקצב של איומים קיימים וחדשים.
בהתאם להטמעה, ההמלצה הזו יכולה להיות רלוונטית לרמות האוטונומיה הבאות:
- סיוע: ה-AI עוזר בניתוח ובזיהוי של איומים.
- חצי אוטונומי: ה-AI לוקח על עצמו יותר אחריות למשימת האבטחה.
Google Threat Intelligence, שמשתמש ב-AI כדי לנתח את ההתנהגות של גורמי איום וקוד זדוני, יכול לעזור לכם ליישם את ההמלצה הזו.
אבטחה פשוטה למומחים ולמי שאינם מומחים
ההמלצה הזו רלוונטית לתחומי ההתמקדות הבאים:
- תפעול אבטחה (SecOps)
- משילות, סיכונים ותאימות בענן
כלים מבוססי-AI יכולים לסכם התראות ולהמליץ על צעדים לצמצום הסיכונים, והיכולות האלה יכולות להפוך את האבטחה לנגישה יותר למגוון רחב יותר של אנשי צוות. ההמלצה הזו תואמת לרכיבי ה-SAIF הבאים:
- אוטומציה של אמצעי הגנה במטרה לעמוד בקצב של איומים קיימים וחדשים.
- יצירת איזון והרמוניה בין אמצעי הבקרה ברמת הפלטפורמה כדי לשמור על אבטחה עקבית בכל חלקי הארגון.
בהתאם להטמעה, ההמלצה הזו יכולה להיות רלוונטית לרמות האוטונומיה הבאות:
- בעזרת AI: ה-AI עוזר לשפר את הנגישות של מידע בנושא אבטחה.
- חצי אוטונומי: AI עוזר לשפר את שיטות האבטחה לכל המשתמשים.
Gemini ב-Security Command Center יכול לספק סיכומים של התראות לגבי הגדרות שגויות ונקודות חולשה.
אוטומציה של משימות אבטחה שגוזלות זמן באמצעות AI
ההמלצה הזו רלוונטית לתחומי ההתמקדות הבאים:
- אבטחת התשתית
- תפעול אבטחה (SecOps)
- אבטחת אפליקציות
AI יכול לבצע אוטומציה של משימות כמו ניתוח תוכנות זדוניות, יצירת כללי אבטחה וזיהוי של הגדרות שגויות. היכולות האלה יכולות לעזור לצמצם את עומס העבודה על צוותי האבטחה ולקצר את זמני התגובה. ההמלצה הזו תואמת לרכיב SAIF בנושא אוטומציה של אמצעי הגנה במטרה לעמוד בקצב של איומים קיימים וחדשים.
בהתאם להטמעה, ההמלצה הזו יכולה להיות רלוונטית לרמות האוטונומיה הבאות:
- בעזרת AI: ה-AI עוזר לכם להפוך משימות לאוטומטיות.
- חצי אוטונומי: ה-AI לוקח אחריות ראשונית על משימות אבטחה, ומבקש עזרה אנושית רק כשצריך.
Gemini ב-Google SecOps יכול לעזור לאנליסטים לבצע משימות שדורשות מאמץ רב באופן אוטומטי, לאחזר הקשר רלוונטי ולהמליץ על השלבים הבאים.
שילוב של AI בתהליכי ניהול סיכונים ופיקוח
ההמלצה הזו רלוונטית לתחום ההתמקדות הבא: ניהול, סיכונים ותאימות בענן.
אתם יכולים להשתמש ב-AI כדי ליצור מלאי של מודלים ופרופילים של סיכונים. אפשר גם להשתמש ב-AI כדי להטמיע מדיניות בנושא פרטיות נתונים, סיכוני סייבר וסיכונים שקשורים לצדדים שלישיים. ההמלצה הזו תואמת לרכיב SAIF בנושא הצגת הסיכונים למערכות AI בהקשר של התהליכים העסקיים שסובבים אותן.
בהתאם להטמעה, ההמלצה הזו יכולה להיות רלוונטית לרמת האוטונומיה החלקית. ברמה הזו, AI יכול לתזמן סוכני אבטחה שמריצים תהליכים כדי להשיג את יעדי האבטחה המותאמים אישית שלכם.
הטמעת שיטות פיתוח מאובטחות למערכות AI
ההמלצה הזו רלוונטית לתחומי ההתמקדות הבאים:
- אבטחת אפליקציות
- אבטחה של AI ו-ML
אפשר להשתמש ב-AI לקידוד מאובטח, לניקוי נתוני אימון ולאימות כלים וארטיפקטים. ההמלצה הזו תואמת לרכיב SAIF בנושא הרחבה של תשתיות אבטחה חזקות לסביבה העסקית של AI.
ההמלצה הזו רלוונטית לכל רמות האוטונומיה של האבטחה, כי צריך להטמיע מערכת AI מאובטחת לפני שאפשר להשתמש ב-AI ביעילות לצורך אבטחה. ההמלצה רלוונטית במיוחד לרמה 'בעזרת AI', שבה שיטות האבטחה משופרות על ידי AI.
כדי ליישם את ההמלצה הזו, צריך לפעול לפי ההנחיות בנושא Supply-chain Levels for Software Artifacts (SLSA) לגבי ארטיפקטים של AI, ולהשתמש בקובצי אימג' מאומתים של קונטיינרים.