הסקה היא הפלט של מודל מאומן ללמידת מכונה. בדף הזה מוסבר על תהליך העבודה לקבלת מסקנות מהמודלים ב-Vertex AI.
ב-Vertex AI יש שתי שיטות לקבלת מסקנות:
-
הסקות אונליין הן בקשות סינכרוניות שנשלחות למודל שמוטמע ב-
Endpoint. לכן, לפני ששולחים בקשה, צריך קודם לפרוס את המשאבModelלנקודת קצה. הפעולה הזו משייכת משאבי מחשוב למודל, כדי שהמודל יוכל להציג מסקנות אונליין עם זמן אחזור נמוך. משתמשים בהסקת מסקנות אונליין כשמבצעים בקשות בתגובה לקלט של אפליקציה או במצבים שבהם נדרשת הסקת מסקנות בזמן אמת. -
הסקת מסקנות (inference) בקבוצה הן בקשות אסינכרוניות שנשלחות למודל שלא נפרס בנקודת קצה. שולחים את הבקשה (כמקור מידע מסוג
BatchPredictionJob) ישירות למקור המידעModel. כדאי להשתמש בהסקת מסקנות באצווה כשלא נדרשת תגובה מיידית ורוצים לעבד נתונים שנצברו באמצעות בקשה אחת.
קבלת מסקנות ממודלים שעברו אימון בהתאמה אישית
כדי לקבל מסקנות, צריך קודם לייבא את המודל. אחרי הייבוא, הוא הופך למשאב Model שמופיע במרשם המודלים של Vertex AI.
לאחר מכן, קוראים את מאמרי העזרה הבאים כדי ללמוד איך לקבל היקשים:
קבלת מסקנות ממודלים של AutoML
בניגוד למודלים שאומנו בהתאמה אישית, מודלים של AutoML מיובאים אוטומטית למאגר המודלים של Vertex AI אחרי האימון.
בנוסף לכך, תהליך העבודה של מודלים של AutoML דומה, אבל יש בו הבדלים קלים בהתאם לסוג הנתונים ולמטרת המודל. מסמכי התיעוד בנושא קבלת מסקנות של AutoML נמצאים לצד מסמכי התיעוד האחרים של AutoML. אלה קישורים לתיעוד:
תמונה
בהמשך מוסבר איך לקבל מסקנות מהסוגים הבאים של מודלים של AutoML לתמונות:
טבלאי
במאמר הזה מוסבר איך לקבל מסקנות מהסוגים הבאים של מודלים טבלאיים של AutoML:
מודלים של סיווג ורגרסיה בטבלאות
מודלים של תחזיות טבלאיות (הסקת מסקנות לגבי נתונים רבים בבת אחת בלבד)
קבלת מסקנות ממודלים של BigQuery ML
יש שתי דרכים לקבל מסקנות ממודלים של BigQuery ML:
- שליחת בקשה למסקנות מרובות ישירות מהמודל ב-BigQuery ML.
- לרשום את המודלים ישירות במאגר המודלים, בלי לייצא אותם מ-BigQuery ML או לייבא אותם למאגר המודלים.