סקירה כללית על AI ניתן להסברה ב-BigQuery

במאמר הזה מוסבר איך BigQuery ML תומך בבינה מלאכותית (AI) שניתן להסביר אותה, לפעמים נקראת XAI.

ה-AI שניתן להסבר עוזר לכם להבין את התוצאות שמודל למידת מכונה חיזוי יוצר למשימות סיווג ורגרסיה, על ידי הגדרה של התרומה של כל תכונה בשורה של נתונים לתוצאה החזויה. המידע הזה נקרא בדרך כלל שיוך תכונות. המידע הזה יכול לעזור לכם לוודא שהמודל מתנהג כמו שציפיתם, לזהות הטיה במודלים ולשפר את המודל ואת נתוני האימון.

ל-BigQuery ML ול-Vertex AI יש פתרונות AI ניתן להסברה שמספקים הסברים מבוססי-תכונות. אפשר להשתמש בתכונה 'הסבר על BigQuery ML', או לרשום את המודל ב-Vertex AI ולהשתמש בתכונה 'הסבר' שם.

יכולת הסברה מקומית לעומת יכולת הסברה גלובלית

יש שני סוגים של יכולת הסברה: יכולת הסברה מקומית ויכולת הסברה גלובלית. הם נקראים גם חשיבות מאפיין מקומית וחשיבות מאפיין גלובלית.

  • יכולת הסברה מקומית מחזירה ערכי שיוך של תכונות לכל דוגמה מוסברת. הערכים האלה מתארים את מידת ההשפעה של תכונה מסוימת על התחזית ביחס לתחזית הבסיסית.
  • יכולת הסברה גלובלית מחזירה את ההשפעה הכוללת של התכונה על המודל, ולרוב מתקבלת על ידי צבירת שיוכי התכונה על פני מערך הנתונים כולו. ערך מוחלט גבוה יותר מצביע על כך שהתכונה השפיעה יותר על התחזיות של המודל.

הצעות לשימוש ב-AI ניתן להסברה ב-BigQuery ML

AI ניתן להסברה ב-BigQuery ML תומך במגוון מודלים של למידת מכונה, כולל מודלים של סדרות זמן ומודלים שאינם של סדרות זמן. כל אחד מהמודלים משתמש בשיטה אחרת ליכולת הסברה.

קטגוריית המודל סוגי מודלים שיטת ההסברה הסבר בסיסי על השיטה פונקציות הסבר מקומיות פונקציות הסבר גלובליות
מודלים בפיקוח רגרסיה לינארית ולוגיסטית ערכי Shapley ערכי Shapley למודלים ליניאריים שווים ל-model weight * feature value, כאשר ערכי המאפיינים הם סטנדרטיים והמשקלים של המודל הם מאומנים עם ערכי המאפיינים הסטנדרטיים. ML.EXPLAIN_PREDICT1 ML.GLOBAL_EXPLAIN2
שגיאות תקניות וערכי P סטיית התקן וערכי ה-p משמשים לבדיקת מובהקות ביחס למשקלים של המודל. לא רלוונטי ML.ADVANCED_WEIGHTS4
Boosted trees

Random forest
Tree SHAP ‫Tree SHAP הוא אלגוריתם לחישוב ערכי SHAP מדויקים למודלים שמבוססים על עץ החלטות. ML.EXPLAIN_PREDICT1 ML.GLOBAL_EXPLAIN2
חישוב צריכת הנתונים המשוערת הערכה של ערכי התרומה של התכונות. הוא מהיר ופשוט יותר בהשוואה ל-Tree SHAP. ML.EXPLAIN_PREDICT1 ML.GLOBAL_EXPLAIN2
חשיבות התכונות על סמך מדד ג'יני ציון חשיבות גלובלי של תכונה שמציין כמה שימושית או חשובה הייתה כל תכונה בבניית מודל העץ המוגבר או מודל היער האקראי במהלך האימון. לא רלוונטי ML.FEATURE_IMPORTANCE
רשת נוירונים עמוקה (DNN)

Wide-and-Deep
Integrated gradients שיטה מבוססת-גרדיאנטים שמחשבת ביעילות את שיוך התכונות, עם אותם מאפיינים אקסיומטיים כמו ערך Shapley. היא מספקת אומדן מבוסס-דגימה של שיוך מדויק של תכונות. הדיוק שלו נקבע על ידי הפרמטר integrated_gradients_num_steps. ML.EXPLAIN_PREDICT1 ML.GLOBAL_EXPLAIN2
AutoML Tables דגימת Shapley השיטה Sampled Shapley מקצה קרדיט על התוצאה של המודל לכל תכונה, ומתחשבת בפרמוטציות שונות של התכונות. השיטה הזו מספקת קירוב של ערכי Shapley המדויקים על סמך דגימה. לא רלוונטי ML.GLOBAL_EXPLAIN2
מודלים של סדרות זמנים ARIMA_PLUS פירוק של סדרת זמן מפרק את סדרת הזמנים לכמה רכיבים אם הרכיבים האלה קיימים בסדרת הזמנים. המרכיבים כוללים מגמה, עונתיות, חגים, שינויים הדרגתיים, ושיאים ושפלים. פרטים נוספים זמינים במאמר בנושא צינור המודלים של ARIMA_PLUS. ML.EXPLAIN_FORECAST3 לא רלוונטי
ARIMA_PLUS_XREG פירוק של סדרות זמן
ו
ערכי Shapley
מפרק את סדרת הזמנים למספר רכיבים, כולל מגמה, עונתיות, חגים, שינויים הדרגתיים, נקודות שיא ונקודות שפל (בדומה ל-ARIMA_PLUS). השיוך של כל רגרסור חיצוני מחושב על סמך ערכי Shapley, ששווים ל-model weight * feature value. ML.EXPLAIN_FORECAST3 לא רלוונטי

1ML_EXPLAIN_PREDICT היא גרסה מורחבת של ML.PREDICT.

2ML.GLOBAL_EXPLAIN מחזירה את יכולת ההסבר הגלובלית שהתקבלה על ידי חישוב הממוצע של ערכי השיוך המוחלטים שכל מאפיין מקבל עבור כל השורות בקבוצת הנתונים של ההערכה.

3ML.EXPLAIN_FORECAST היא גרסה מורחבת של ML.FORECAST.

4ML.ADVANCED_WEIGHTS היא גרסה מורחבת של ML.WEIGHTS.

AI ניתן להסברה ב-Vertex AI

‫AI ניתן להסברה זמין ב-Vertex AI עבור קבוצת המשנה הבאה של מודלים של למידה מפוקחת שאפשר לייצא:

סוג המודל שיטת AI שניתנת להסברה
dnn_classifier הדרגות משולבות
dnn_regressor הדרגות משולבות
dnn_linear_combined_classifier הדרגות משולבות
dnn_linear_combined_regressor הדרגות משולבות
boosted_tree_regressor דגימה של ערכי Shapley
boosted_tree_classifier דגימה של ערכי Shapley
random_forest_regressor דגימה של ערכי Shapley
random_forest_classifier דגימה של ערכי Shapley

מידע נוסף על השיטות האלה

הפעלת AI שניתן להסביר במרשם המודלים

אם מודל BigQuery ML רשום במרשם המודלים, ואם הוא מסוג מודל שתומך ב-AI ניתן להסברה, אפשר להפעיל AI ניתן להסברה במודל כשמבצעים פריסה לנקודת קצה. כשרושמים את מודל BigQuery ML, כל המטא-נתונים המשויכים מאוכלסים באופן אוטומטי.

  1. רישום מודל BigQuery ML במאגר המודלים.
  2. עוברים לדף מרשם המודלים מהקטע BigQuery במסוף Google Cloud .
  3. ממאגר המודלים, בוחרים את מודל BigQuery ML ולוחצים על גרסת המודל כדי לעבור לדף הפרטים של המודל.
  4. בוחרים באפשרות פעולות נוספות מגרסת המודל.
  5. לוחצים על Deploy to endpoint.
  6. מגדירים את נקודת הסיום – יוצרים שם לנקודת הסיום ולוחצים על 'המשך'.
  7. בוחרים סוג מכונה, למשל n1-standard-2.
  8. בקטע Model settings, בחלק של הרישום ביומן, מסמנים את תיבת הסימון כדי להפעיל את האפשרויות של Explainability.
  9. לוחצים על Done (סיום) ואז על Continue (המשך) כדי לפרוס את נקודת הקצה.

כדי ללמוד איך להשתמש ב-XAI במודלים שלכם ממאגר המודלים, אפשר לעיין במאמר קבלת הסבר אונליין באמצעות המודל שפרסתם. מידע נוסף על XAI ב-Vertex AI: קבלת הסברים.

המאמרים הבאים