תמיכה ב-TPU ב-Dataflow

יחידות TPU בפלטפורמת Google Cloud הן מאיצי AI שנוצרו על ידי Google בעיצוב מותאם אישית, והן מותאמות לאימון של מודלים גדולים של AI ולשימוש בהם. הם מיועדים להרחבה חסכונית למגוון רחב של עומסי עבודה של AI, ומספקים גמישות להאצת עומסי עבודה של הסקת מסקנות במסגרות AI, כולל PyTorch, ‏ JAX ו-TensorFlow. לפרטים נוספים על TPU, אפשר לעיין במאמר מבוא ל-TPU של Google Cloud Platform.

דרישות מוקדמות לשימוש ב-TPU ב-Dataflow

  • כדי להשתמש ב-GA, צריך לקבל אישור לפרויקטים שלכם ב- Google Cloud .

מגבלות

השירות הזה כפוף למגבלות הבאות:

  • יש תמיכה רק במאיצי TPU עם מארח יחיד: חבילת ה-TPU של Dataflow תומכת רק בהגדרות TPU עם מארח יחיד, שבהן כל עובד של Dataflow מנהל מכשיר TPU אחד או יותר שלא מחוברים ל-TPU שמנוהל על ידי עובדים אחרים.
  • יש תמיכה רק במאגרי עובדים הומוגניים של TPU: תכונות כמו התאמה נכונה של Dataflow ו-Dataflow Prime לא תומכות בעומסי עבודה של TPU.

תמחור

בחיוב על משימות Dataflow שמשתמשות ב-TPU, נכללות שעות השימוש בשבב TPU של העובד, ולא נכללים השימוש ב-CPU ובזיכרון של העובד. מידע נוסף זמין בדף התמחור של Dataflow.

זמינות

אלה מאיצי ה-TPU ואזורי העיבוד שזמינים:

מאיצי TPU נתמכים

שילובי מאיצי ה-TPU הנתמכים מזוהים על ידי הטופל (סוג ה-TPU, טופולוגיית ה-TPU).

  • TPU type (סוג ה-TPU) מתייחס לדגם של מכשיר ה-TPU.
  • טופולוגיית TPU מתייחסת למספר ולסידור הפיזי של שבבי ה-TPU בפרוסת TPU.

כדי להגדיר את הסוג והטופולוגיה של יחידות ה-TPU עבור העובדים ב-Dataflow, צריך להשתמש באפשרות worker_accelerator pipeline בפורמט type:TPU_TYPE;topology:TPU_TOPOLOGY.

ההגדרות הבאות של TPU נתמכות ב-Dataflow:

סוג ה-TPU טופולוגיה חובה worker_machine_type
tpu-v5-lite-podslice ‫1x1 ct5lp-hightpu-1t
tpu-v5-lite-podslice 2x2 ct5lp-hightpu-4t
tpu-v5-lite-podslice 2x4 ct5lp-hightpu-8t
tpu-v6e-slice ‫1x1 ct6e-standard-1t
tpu-v6e-slice 2x2 ct6e-standard-4t
tpu-v6e-slice 2x4 ct6e-standard-8t
tpu-v5p-slice 2x2x1 ct5p-hightpu-4t

אזורים

מידע על אזורים ותחומים (zones) שזמינים ל-TPU מופיע במאמר TPU regions and zones במסמכי התיעוד של Cloud TPU.

המאמרים הבאים