טעינת נתוני Avro מ-Cloud Storage
Avro הוא פורמט נתונים בקוד פתוח שמאגד נתונים שעברו סריאליזציה עם הסכימה של הנתונים באותו קובץ.
כשאתם טוענים נתוני Avro מ-Cloud Storage, אתם יכולים לטעון את הנתונים לטבלה או למחיצה חדשות, או להוסיף אותם לטבלה או למחיצה קיימות או להחליף את הנתונים הקיימים. כשהנתונים נטענים ל-BigQuery, הם מומרים לפורמט עמודות עבור Capacitor (פורמט האחסון של BigQuery).
כשמעלים נתונים מ-Cloud Storage לטבלה ב-BigQuery, מערך הנתונים שמכיל את הטבלה צריך להיות באותו מיקום אזורי או רב-אזורי כמו הקטגוריה של Cloud Storage.
מידע על טעינת נתוני Avro מקובץ מקומי זמין במאמר בנושא טעינת נתונים ל-BigQuery ממקור נתונים מקומי.
מגבלות
כשאתם טוענים נתונים ל-BigQuery מקטגוריה של Cloud Storage, אתם כפופים למגבלות הבאות:
- BigQuery לא מבטיח עקביות נתונים במקורות נתונים חיצוניים. שינויים בנתוני הבסיס בזמן הפעלת שאילתה עלולים לגרום להתנהגות לא צפויה.
- BigQuery לא תומך בניהול גרסאות של אובייקטים ב-Cloud Storage. אם כוללים מספר דור ב-URI של Cloud Storage, עבודת הטעינה נכשלת.
ההגבלות הבאות חלות גם כשמעלים קובצי Avro ל-BigQuery:
- BigQuery לא תומך בטעינה של קובצי סכימת Avro עצמאיים (.avsc).
- אין תמיכה בעיצוב של מערך בתוך מערך ב-BigQuery. צריך להמיר קובצי Avro שמשתמשים בפורמט הזה לפני הייבוא.
- בקובץ Avro, שמות ומרחבי שמות של שם מלא יכולים להכיל רק תווים אלפאנומריים ואת התו קו תחתון
_. הביטוי הרגולרי הבא מציג את התווים המותרים:[A-Za-z_][A-Za-z0-9_]*.
מידע על מגבלות של משימות טעינה ב-BigQuery זמין במאמר בנושא משימות טעינה.
הדרישות לגבי קובץ הקלט
כדי להימנע משגיאות resourcesExceeded כשמעלים קובצי Avro ל-BigQuery, צריך לפעול לפי ההנחיות הבאות:
- גודל השורה צריך להיות עד 50MB.
- אם השורה מכילה הרבה שדות של מערכים, או שדות של מערכים ארוכים מאוד, צריך לפצל את ערכי המערכים לשדות נפרדים.
לפני שמתחילים
להקצות תפקידים של ניהול זהויות והרשאות גישה (IAM) שנותנים למשתמשים את ההרשאות הדרושות לביצוע כל משימה שמופיעה במאמר הזה, וליצור מערך נתונים וטבלה לאחסון הנתונים.
ההרשאות הנדרשות
כדי לטעון נתונים ל-BigQuery, אתם צריכים הרשאות IAM להרצת משימת טעינה ולטעינת נתונים לטבלאות ולמחיצות ב-BigQuery. אם אתם טוענים נתונים מ-Cloud Storage, אתם צריכים גם הרשאות IAM כדי לגשת לקטגוריה שמכילה את הנתונים.
הרשאות לטעינת נתונים ל-BigQuery
כדי לטעון נתונים לטבלה או למחיצה חדשה ב-BigQuery, או כדי לצרף נתונים לטבלה או למחיצה קיימת או להחליף אותם, אתם צריכים את הרשאות ה-IAM הבאות:
bigquery.tables.createbigquery.tables.updateDatabigquery.tables.updatebigquery.jobs.create
כל אחד מהתפקידים הבאים שמוגדרים מראש ב-IAM כולל את ההרשאות שנדרשות לטעינת נתונים לטבלה או למחיצה ב-BigQuery:
roles/bigquery.dataEditorroles/bigquery.dataOwner-
roles/bigquery.admin(כולל את ההרשאהbigquery.jobs.create) -
bigquery.user(כולל את ההרשאהbigquery.jobs.create) -
bigquery.jobUser(כולל את ההרשאהbigquery.jobs.create)
בנוסף, אם יש לכם הרשאה של bigquery.datasets.create, אתם יכולים ליצור ולעדכן טבלאות באמצעות משימת טעינה במערכי הנתונים שאתם יוצרים.
במאמר תפקידים והרשאות מוגדרים מראש יש מידע נוסף על תפקידים והרשאות ב-IAM ב-BigQuery.
הרשאות לטעינת נתונים מ-Cloud Storage
כדי לקבל את ההרשאות שדרושות לטעינת נתונים מקטגוריה של Cloud Storage, צריך לבקש מהאדמין להקצות לכם את תפקיד ה-IAM אדמין לניהול אחסון (roles/storage.admin) בקטגוריה.
להסבר על מתן תפקידים, ראו איך מנהלים את הגישה ברמת הפרויקט, התיקייה והארגון.
זהו תפקיד מוגדר מראש שכולל את ההרשאות שנדרשות לטעינת נתונים מקטגוריה של Cloud Storage. כדי לראות בדיוק אילו הרשאות נדרשות, אפשר להרחיב את הקטע ההרשאות הנדרשות:
ההרשאות הנדרשות
כדי לטעון נתונים מקטגוריה של Cloud Storage, נדרשות ההרשאות הבאות:
-
storage.buckets.get -
storage.objects.get -
storage.objects.list (required if you are using a URI wildcard)
יכול להיות שתקבלו את ההרשאות האלה באמצעות תפקידים בהתאמה אישית או תפקידים מוגדרים מראש אחרים.
יצירה של קבוצת נתונים וטבלה
כדי לאחסן את הנתונים, צריך ליצור מערך נתונים ב-BigQuery, ואז ליצור טבלה ב-BigQuery בתוך מערך הנתונים הזה.
היתרונות של Avro
Avro הוא הפורמט המועדף לטעינת נתונים ל-BigQuery. לטעינת קובצי Avro יש את היתרונות הבאים בהשוואה לקובצי CSV ו-JSON (עם תווי שורה חדשה):
- הפורמט הבינארי של Avro:
- נטען מהר יותר. אפשר לקרוא את הנתונים במקביל, גם אם בלוקי הנתונים דחוסים.
- לא נדרשת הקלדה או סריאליזציה.
- קל יותר לנתח אותו כי לא נמצאו בעיות קידוד בפורמטים אחרים כמו ASCII.
- כשאתם טוענים קובצי Avro ל-BigQuery, סכימת הטבלה מאוחזרת באופן אוטומטי מנתוני המקור שמתארים את עצמם.
סכימות Avro
כשאתם טוענים קובצי Avro לטבלה חדשה ב-BigQuery, סכמת הטבלה מאוחזרת באופן אוטומטי באמצעות נתוני המקור. כש-BigQuery מאחזר את הסכימה מנתוני המקור, נעשה שימוש בקובץ האחרון לפי סדר אלפביתי.
לדוגמה, יש לכם את קובצי Avro הבאים ב-Cloud Storage:
gs://mybucket/00/ a.avro z.avro gs://mybucket/01/ b.avro
הרצת הפקודה הזו בכלי שורת הפקודה של BigQuery טוענת את כל הקבצים (כמו רשימה מופרדת בפסיקים), והסכימה נגזרת מ-mybucket/01/b.avro:
bq load \ --source_format=AVRO \ dataset.table \ "gs://mybucket/00/*.avro","gs://mybucket/01/*.avro"
כשמייבאים כמה קובצי Avro עם סכימות Avro שונות, כל הסכימות צריכות להיות תואמות לפתרון הסכימות של Avro.
כש-BigQuery מזהה את הסכימה, חלק מסוגי הנתונים של Avro מומרים לסוגי נתונים של BigQuery כדי שיהיו תואמים לתחביר של GoogleSQL. מידע נוסף זמין במאמר בנושא המרות של קובצי Avro.
כדי לספק סכימת טבלה ליצירת טבלאות חיצוניות, צריך להגדיר את המאפייןreferenceFileSchemaUri ב-BigQuery API או את הפרמטר --reference_file_schema_uri בכלי שורת הפקודה של BigQuery לכתובת ה-URL של קובץ עזר.
לדוגמה, --reference_file_schema_uri="gs://mybucket/schema.avro".
אפשר גם לייבא סכימה ל-BigQuery על ידי ציון קובץ סכימת JSON.
דחיסת Avro
BigQuery תומך בפורמטים הבאים של דחיסה לתוכן של קובצי Avro:
SnappyDEFLATEZSTD
טעינת נתוני Avro לטבלה חדשה
כדי לטעון נתוני Avro מ-Cloud Storage לטבלה חדשה ב-BigQuery, בוחרים באחת מהאפשרויות הבאות:
המסוף
נכנסים לדף BigQuery במסוף Google Cloud .
בחלונית הימנית, לוחצים על כלי הניתוחים:

אם החלונית הימנית לא מוצגת, לוחצים על הרחבת החלונית הימנית כדי לפתוח אותה.
בחלונית Explorer, מרחיבים את הפרויקט, לוחצים על Datasets ואז לוחצים על שם מערך הנתונים.
בחלונית הפרטים, לוחצים על יצירת טבלה .
בדף Create table, בקטע Source:
בקטע Create table from (יצירת טבלה מתוך), בוחרים באפשרות Google Cloud Storage.
בשדה המקור, מעיינים ב-URI של Cloud Storage או מזינים אותו. שימו לב, אי אפשר לכלול כמה מזהי URI בGoogle Cloud מסוף, אבל יש תמיכה בתווים כלליים. הקטגוריה של Cloud Storage צריכה להיות באותו מיקום כמו מערך הנתונים שמכיל את הטבלה שאתם יוצרים.
בקטע פורמט קובץ, בוחרים באפשרות Avro.
בדף יצירת טבלה, בקטע יעד:
- בשדה Dataset name (שם קבוצת הנתונים), בוחרים את קבוצת הנתונים המתאימה.
- מוודאים שסוג הטבלה מוגדר לטבלה מקורית.
- בשדה Table name (שם הטבלה), מזינים את השם של הטבלה שיוצרים ב-BigQuery.
בקטע Schema (סכימה), לא צריך לבצע פעולה כלשהי. הסכימה מתוארת בעצמה בקובצי Avro.
(אופציונלי) כדי לחלק את הטבלה למחיצות, בוחרים את האפשרויות בהגדרות של מחיצות ושל אשכולות. מידע נוסף זמין במאמר בנושא יצירת טבלאות עם חלוקה למחיצות.
(אופציונלי) בPartitioning filter (מסנן חלוקה), מסמנים את התיבה Require partition filter (דרישת מסנן חלוקה) כדי לדרוש מהמשתמשים לכלול תנאי
WHEREשמציין את המחיצות שרוצים לשלוח להן שאילתה. דרישה של מסנן מחיצה עשויה להפחית את העלות ולשפר את הביצועים. מידע נוסף זמין במאמר בנושא דרישת מסנן מחיצות בשאילתות. האפשרות הזו לא זמינה אם בוחרים באפשרות ללא חלוקה למחיצות.(אופציונלי) כדי לקבץ את הטבלה, בתיבה סדר הקיבוץ מזינים בין שם שדה אחד לארבעה שמות שדות.
(אופציונלי) לוחצים על אפשרויות מתקדמות.
- בקטע העדפות כתיבה, משאירים את האפשרות כתיבה אם ריק מסומנת. האפשרות הזו יוצרת טבלה חדשה וטוענת לתוכה את הנתונים.
- כדי להגדיר ערכים לא ידועים, משאירים את התיבה התעלמות מערכים לא ידועים לא מסומנת. האפשרות הזו רלוונטית רק לקובצי CSV ו-JSON.
- בקטע הצפנה, לוחצים על מפתח בניהול הלקוח כדי להשתמש במפתח של Cloud Key Management Service. אם לא משנים את ההגדרה Google-managed key, BigQuery יצפין את הנתונים באחסון.
לוחצים על יצירת טבלה.
SQL
משתמשים בהצהרת ה-DDL LOAD DATA.
בדוגמה הבאה נטען קובץ Avro לטבלה החדשה mytable:
במסוף Google Cloud , עוברים לדף BigQuery.
מזינים את ההצהרה הבאה בעורך השאילתות:
LOAD DATA OVERWRITE mydataset.mytable FROM FILES ( format = 'avro', uris = ['gs://bucket/path/file.avro']);
לוחצים על הפעלה.
מידע נוסף על הרצת שאילתות זמין במאמר הרצת שאילתה אינטראקטיבית.
BQ
משתמשים בפקודה bq load, מציינים את AVRO באמצעות הדגל --source_format וכוללים URI של Cloud Storage.
אפשר לכלול URI יחיד, רשימה מופרדת בפסיקים של מזהי URI או URI שמכיל תו כללי לחיפוש.
(אופציונלי) מציינים את הדגל --location ומגדירים את הערך למיקום.
דגלים אופציונליים אחרים:
-
--time_partitioning_type: הפעלת חלוקה למחיצות (partitioning) לפי זמן בטבלה והגדרת סוג המחיצה. הערכים האפשריים הםHOUR,DAY,MONTHו-YEAR. הדגל הזה הוא אופציונלי כשיוצרים טבלה עם חלוקה למחיצות בעמודהDATE,DATETIMEאוTIMESTAMP. סוג המחיצה שמוגדר כברירת מחדל לחלוקה למחיצות לפי זמן הואDAY. אי אפשר לשנות את מפרט החלוקה למחיצות בטבלה קיימת. -
--time_partitioning_expiration: מספר שלם שמציין (בשניות) מתי צריך למחוק מחיצה מבוססת-זמן. זמן התפוגה מחושב לפי התאריך ב-UTC של המחיצה בתוספת הערך המספרי. -
--time_partitioning_field: העמודהDATEאוTIMESTAMPשמשמשת ליצירת טבלה מחולקת למחיצות. אם מפעילים חלוקה למחיצות לפי זמן בלי להגדיר את הערך הזה, נוצרת טבלה מחולקת למחיצות לפי זמני כתיבת הנתונים. -
--require_partition_filter: כשהאפשרות הזו מופעלת, המשתמשים צריכים לכלול פסקה שלWHEREשמציינת את המחיצות שרוצים לשלוח להן שאילתה. הוספת מסנן מחיצות עשויה להפחית את העלות ולשפר את הביצועים. מידע נוסף זמין במאמר בנושא דרישת מסנן מחיצות בשאילתות. -
--clustering_fields: רשימה מופרדת בפסיקים של עד ארבעה שמות עמודות שמשמשים ליצירת טבלה מסודרת באשכולות.
--destination_kms_key: מפתח Cloud KMS להצפנה של נתוני הטבלה.מידע נוסף על טבלאות עם חלוקה למחיצות זמין במאמרים הבאים:
מידע נוסף על טבלאות מקובצות זמין במאמרים הבאים:
מידע נוסף על הצפנת טבלאות
כדי לטעון נתוני Avro ל-BigQuery, מזינים את הפקודה הבאה:
bq --location=location load \ --source_format=format \ dataset.table \ path_to_source
מחליפים את מה שכתוב בשדות הבאים:
- location הוא המיקום שלכם. הדגל
--locationהוא אופציונלי. לדוגמה, אם אתם משתמשים ב-BigQuery באזור טוקיו, אתם יכולים להגדיר את הערך של הדגל כ-asia-northeast1. אפשר להגדיר ערך ברירת מחדל למיקום באמצעות הקובץ .bigqueryrc. - format הוא
AVRO. - dataset הוא מערך נתונים קיים.
- table הוא שם הטבלה שאליה טוענים את הנתונים.
- path_to_source הוא URI של Cloud Storage מלא או רשימה מופרדת בפסיקים של מזהי URI. יש תמיכה גם בתווים כלליים לחיפוש.
דוגמאות:
הפקודה הבאה טוענת נתונים מ-gs://mybucket/mydata.avro לטבלה בשם mytable ב-mydataset.
bq load \
--source_format=AVRO \
mydataset.mytable \
gs://mybucket/mydata.avro
הפקודה הבאה טוענת נתונים מ-gs://mybucket/mydata.avro לטבלה מחולקת למחיצות (Partitions) לפי זמני כתיבת הנתונים בשם mytable ב-mydataset.
bq load \
--source_format=AVRO \
--time_partitioning_type=DAY \
mydataset.mytable \
gs://mybucket/mydata.avro
הפקודה הבאה טוענת נתונים מ-gs://mybucket/mydata.avro לטבלת מחיצות חדשה בשם mytable ב-mydataset. הטבלה מחולקת למחיצות (Partitions) לפי העמודה mytimestamp.
bq load \
--source_format=AVRO \
--time_partitioning_field mytimestamp \
mydataset.mytable \
gs://mybucket/mydata.avro
הפקודה הבאה טוענת נתונים מכמה קבצים ב-gs://mybucket/ לטבלה בשם mytable ב-mydataset. ה-URI של Cloud Storage משתמש בתו כללי.
bq load \
--source_format=AVRO \
mydataset.mytable \
gs://mybucket/mydata*.avro
הפקודה הבאה טוענת נתונים מכמה קבצים ב-gs://mybucket/ לטבלה בשם mytable ב-mydataset. הפקודה כוללת רשימה מופרדת בפסיקים של מזהי URI של Cloud Storage עם תווים כלליים.
bq load \
--source_format=AVRO \
mydataset.mytable \
"gs://mybucket/00/*.avro","gs://mybucket/01/*.avro"
API
יוצרים משימת
loadשמפנה לנתוני המקור ב-Cloud Storage.(אופציונלי) מציינים את המיקום במאפיין
locationבקטעjobReferenceשל משאב המשרה.המאפיין
source URIsצריך להיות מוגדר באופן מלא, בפורמטgs://bucket/object. כל URI יכול להכיל תו כללי אחד לחיפוש '*' .מגדירים את מאפיין
sourceFormatלערךAVROכדי לציין את פורמט הנתונים של Avro.כדי לבדוק את סטטוס העבודה, מתקשרים אל
jobs.get(job_id*), כאשר job_id הוא מזהה העבודה שהוחזר על ידי הבקשה הראשונית.- אם התוצאה היא
status.state = DONE, העבודה הושלמה בהצלחה. - אם המאפיין
status.errorResultקיים, הבקשה נכשלה והאובייקט הזה יכלול מידע שמתאר מה השתבש. אם הבקשה נכשלת, לא נוצרת טבלה ולא נטענים נתונים. - אם
status.errorResultלא מופיע, העבודה הסתיימה בהצלחה, למרות שאולי היו כמה שגיאות לא קריטיות, כמו בעיות בייבוא של כמה שורות. שגיאות לא קריטיות מפורטות במאפייןstatus.errorsשל אובייקט המשימה שמוחזר.
- אם התוצאה היא
הערות לגבי ה-API:
משימות טעינה הן אטומיות ועקביות. אם משימת טעינה נכשלת, אף אחד מהנתונים לא זמין. אם משימת טעינה מצליחה, כל הנתונים זמינים.
מומלץ ליצור מזהה ייחודי ולהעביר אותו כ-
jobReference.jobIdכשקוראים ל-jobs.insertכדי ליצור עבודת טעינה. הגישה הזו עמידה יותר בפני כשלים ברשת, כי הלקוח יכול לבצע בדיקה או לנסות שוב באמצעות מזהה המשימה הידוע.התקשרות אל
jobs.insertעם מזהה משימה נתון היא אידמפוטנטית. אפשר לנסות שוב כמה פעמים שרוצים עם אותו מזהה משימה, אבל רק אחת מהפעולות האלה תצליח.
Go
לפני שמנסים את הדוגמה הזו, צריך לפעול לפי Goהוראות ההגדרה שבמדריך למתחילים של BigQuery באמצעות ספריות לקוח. מידע נוסף מופיע במאמרי העזרה של BigQuery Go API.
כדי לבצע אימות ב-BigQuery, צריך להגדיר את Application Default Credentials. מידע נוסף זמין במאמר הגדרת אימות לספריות לקוח.
Java
לפני שמנסים את הדוגמה הזו, צריך לפעול לפי Javaהוראות ההגדרה שבמדריך למתחילים של BigQuery באמצעות ספריות לקוח. מידע נוסף מופיע במאמרי העזרה של BigQuery Java API.
כדי לבצע אימות ב-BigQuery, צריך להגדיר את Application Default Credentials. מידע נוסף זמין במאמר הגדרת אימות לספריות לקוח.
Node.js
לפני שמנסים את הדוגמה הזו, צריך לפעול לפי Node.jsהוראות ההגדרה שבמדריך למתחילים של BigQuery באמצעות ספריות לקוח. מידע נוסף מופיע במאמרי העזרה של BigQuery Node.js API.
כדי לבצע אימות ב-BigQuery, צריך להגדיר את Application Default Credentials. מידע נוסף זמין במאמר הגדרת אימות לספריות לקוח.
Python
לפני שמנסים את הדוגמה הזו, צריך לפעול לפי Pythonהוראות ההגדרה שבמדריך למתחילים של BigQuery באמצעות ספריות לקוח. מידע נוסף מופיע במאמרי העזרה של BigQuery Python API.
כדי לבצע אימות ב-BigQuery, צריך להגדיר את Application Default Credentials. מידע נוסף זמין במאמר הגדרת אימות לספריות לקוח.
חילוץ נתוני JSON מנתוני Avro
יש שתי דרכים לוודא שנתוני Avro נטענים ל-BigQuery כנתוני JSON:
מוסיפים הערה לסכימת Avro עם
sqlTypeשמוגדר ל-JSON. לדוגמה, אם טוענים נתונים עם סכימת Avro הבאה, העמודהjson_fieldנקראת כסוגJSON:{ "type": {"type": "string", "sqlType": "JSON"}, "name": "json_field" }
מציינים באופן מפורש את סכימת טבלת היעד ב-BigQuery ומגדירים את סוג העמודה ל-
JSON. מידע נוסף זמין במאמר בנושא ציון סכימה.
אם לא מציינים JSON כסוג בסכימת Avro או בסכימת הטבלה ב-BigQuery, הנתונים ייקראו כ-STRING.
הוספת נתונים לטבלה או החלפת הנתונים בטבלה באמצעות נתוני Avro
אפשר לטעון נתונים נוספים לטבלה מקובצי מקור או על ידי הוספת תוצאות של שאילתות.
במסוף Google Cloud , משתמשים באפשרות Write preference כדי לציין איזו פעולה לבצע כשמעלים נתונים מקובץ מקור או מתוצאה של שאילתה.
כשמעלים נתונים נוספים לטבלה, יש לכם את האפשרויות הבאות:
| אפשרות מסוף | דגל של כלי bq | מאפיין BigQuery API | תיאור |
|---|---|---|---|
| כתיבה אם השדה ריק | לא נתמך | WRITE_EMPTY |
הנתונים נכתבים רק אם הטבלה ריקה. |
| הוספה לטבלה | --noreplace או --replace=false; אם לא מצוין --[no]replace, ברירת המחדל היא append |
WRITE_APPEND |
(Default) הנתונים מתווספים לסוף הטבלה. |
| החלפת הטבלה | --replace או --replace=true |
WRITE_TRUNCATE |
מוחק את כל הנתונים הקיימים בטבלה לפני כתיבת הנתונים החדשים. הפעולה הזו מוחקת גם את סכימת הטבלה, את האבטחה ברמת השורה ומסירה כל מפתח Cloud KMS. |
אם טוענים נתונים לטבלה קיימת, אפשר להוסיף את הנתונים לטבלה או להחליף את הטבלה.
כדי לצרף נתונים בפורמט Avro לטבלה או להחליף את הנתונים בטבלה בנתונים בפורמט Avro:
המסוף
נכנסים לדף BigQuery במסוף Google Cloud .
בחלונית הימנית, לוחצים על כלי הניתוחים:

בחלונית Explorer, מרחיבים את הפרויקט, לוחצים על Datasets ואז לוחצים על שם מערך הנתונים.
בחלונית הפרטים, לוחצים על יצירת טבלה .
בדף Create table, בקטע Source:
- בקטע יצירת טבלה מ, בוחרים באפשרות Cloud Storage.
בשדה המקור, מעיינים או מזינים את URI של Cloud Storage. שימו לב: אי אפשר לכלול כמה מזהי URI במסוף Google Cloud , אבל יש תמיכה בתווים כלליים. הקטגוריה של Cloud Storage צריכה להיות באותו מיקום כמו מערך הנתונים שמכיל את הטבלה שאתם מוסיפים או מחליפים.
בקטע פורמט קובץ, בוחרים באפשרות Avro.
בדף יצירת טבלה, בקטע יעד:
בשדה Dataset name (שם קבוצת הנתונים), בוחרים את קבוצת הנתונים המתאימה.
בשדה Table name (שם הטבלה), מזינים את שם הטבלה שרוצים להוסיף לה נתונים או להחליף אותה ב-BigQuery.
מוודאים שסוג הטבלה מוגדר לטבלה מקורית.
בקטע Schema (סכימה), לא צריך לבצע פעולה כלשהי. הסכימה מתוארת בעצמה בקובצי Avro.
בקטע הגדרות של מחיצה ושל אשכול, משאירים את ערכי ברירת המחדל. אי אפשר להמיר טבלה לטבלה מחולקת או טבלה מסודרת באשכולות על ידי הוספה או החלפה שלה, והמסוף Google Cloud לא תומך בהוספה או בהחלפה של טבלאות מחולקות או טבלאות מסודרות באשכולות בעבודת טעינה.
לוחצים על אפשרויות מתקדמות.
- בקטע העדפת כתיבה, בוחרים באפשרות הוספה לטבלה או החלפת הטבלה.
- כדי להגדיר ערכים לא ידועים, משאירים את התיבה התעלמות מערכים לא ידועים לא מסומנת. האפשרות הזו רלוונטית רק לקובצי CSV ו-JSON.
- בקטע הצפנה, לוחצים על מפתח בניהול הלקוח כדי להשתמש במפתח של Cloud Key Management Service. אם לא משנים את ההגדרה Google-owned and managed key, BigQuery יצפין את הנתונים באחסון.
לוחצים על יצירת טבלה.
SQL
משתמשים בהצהרת ה-DDL LOAD DATA.
הדוגמה הבאה מוסיפה קובץ Avro לטבלה mytable:
במסוף Google Cloud , עוברים לדף BigQuery.
מזינים את ההצהרה הבאה בעורך השאילתות:
LOAD DATA INTO mydataset.mytable FROM FILES ( format = 'avro', uris = ['gs://bucket/path/file.avro']);
לוחצים על הפעלה.
מידע נוסף על הרצת שאילתות זמין במאמר הרצת שאילתה אינטראקטיבית.
BQ
מזינים את הפקודה bq load עם הדגל --replace כדי להחליף את הטבלה. משתמשים בדגל --noreplace כדי לצרף נתונים לטבלה. אם לא מציינים דגל, ברירת המחדל היא הוספת נתונים. מציינים את הדגל --source_format ומגדירים אותו לערך AVRO. סכימות Avro מאוחזרות אוטומטית מנתוני המקור שמתארים את עצמם, ולכן לא צריך לספק הגדרת סכימה.
(אופציונלי) מציינים את הדגל --location ומגדירים את הערך למיקום.
דגלים אופציונליים אחרים:
-
--destination_kms_key: מפתח Cloud KMS להצפנה של נתוני הטבלה.
bq --location=location load \ --[no]replace \ --source_format=format \ dataset.table \ path_to_source
מחליפים את מה שכתוב בשדות הבאים:
- המיקום שלך הוא location.
הדגל
--locationהוא אופציונלי. אפשר להגדיר ערך ברירת מחדל למיקום באמצעות הקובץ .bigqueryrc. - format הוא
AVRO. - dataset הוא מערך נתונים קיים.
- table הוא שם הטבלה שאליה טוענים את הנתונים.
- path_to_source הוא URI של Cloud Storage מלא או רשימה מופרדת בפסיקים של מזהי URI. יש תמיכה גם בתווים כלליים לחיפוש.
דוגמאות:
הפקודה הבאה טוענת נתונים מ-gs://mybucket/mydata.avro ומחליפה טבלה בשם mytable ב-mydataset.
bq load \
--replace \
--source_format=AVRO \
mydataset.mytable \
gs://mybucket/mydata.avro
הפקודה הבאה טוענת נתונים מ-gs://mybucket/mydata.avro ומצרפת נתונים לטבלה בשם mytable ב-mydataset.
bq load \
--noreplace \
--source_format=AVRO \
mydataset.mytable \
gs://mybucket/mydata.avro
מידע על הוספה לטבלאות מחולקות למחיצות ועל החלפת נתונים בטבלאות כאלה באמצעות כלי שורת הפקודה של BigQuery זמין במאמר הוספה לנתונים בטבלאות מחולקות למחיצות והחלפת נתונים בטבלאות כאלה.
API
יוצרים משימת
loadשמפנה לנתוני המקור ב-Cloud Storage.(אופציונלי) מציינים את המיקום במאפיין
locationבקטעjobReferenceשל משאב המשרה.המאפיין
source URIsצריך להיות מוגדר באופן מלא, בפורמטgs://bucket/object. אפשר לכלול כמה כתובות URI כרשימה מופרדת בפסיקים. שימו לב שיש תמיכה גם בתווים כלליים לחיפוש.מגדירים את פורמט הנתונים באמצעות הנכס
configuration.load.sourceFormatעם הערךAVRO.מגדירים את מאפיין הכתיבה
configuration.load.writeDispositionלערךWRITE_TRUNCATEאוWRITE_APPEND.
Go
לפני שמנסים את הדוגמה הזו, צריך לפעול לפי Goהוראות ההגדרה שבמדריך למתחילים של BigQuery באמצעות ספריות לקוח. מידע נוסף מופיע במאמרי העזרה של BigQuery Go API.
כדי לבצע אימות ב-BigQuery, צריך להגדיר את Application Default Credentials. מידע נוסף זמין במאמר הגדרת אימות לספריות לקוח.
Java
לפני שמנסים את הדוגמה הזו, צריך לפעול לפי Javaהוראות ההגדרה שבמדריך למתחילים של BigQuery באמצעות ספריות לקוח. מידע נוסף מופיע במאמרי העזרה של BigQuery Java API.
כדי לבצע אימות ב-BigQuery, צריך להגדיר את Application Default Credentials. מידע נוסף זמין במאמר הגדרת אימות לספריות לקוח.
Node.js
לפני שמנסים את הדוגמה הזו, צריך לפעול לפי Node.jsהוראות ההגדרה שבמדריך למתחילים של BigQuery באמצעות ספריות לקוח. מידע נוסף מופיע במאמרי העזרה של BigQuery Node.js API.
כדי לבצע אימות ב-BigQuery, צריך להגדיר את Application Default Credentials. מידע נוסף זמין במאמר הגדרת אימות לספריות לקוח.
Python
לפני שמנסים את הדוגמה הזו, צריך לפעול לפי Pythonהוראות ההגדרה שבמדריך למתחילים של BigQuery באמצעות ספריות לקוח. מידע נוסף מופיע במאמרי העזרה של BigQuery Python API.
כדי לבצע אימות ב-BigQuery, צריך להגדיר את Application Default Credentials. מידע נוסף זמין במאמר הגדרת אימות לספריות לקוח.
טעינת נתוני Avro שחולקו למחיצות ב-Hive
BigQuery תומך בטעינה של נתוני Avro עם חלוקה למחיצות ב-Hive שמאוחסנים ב-Cloud Storage, ומאכלס את העמודות של החלוקה למחיצות ב-Hive כעמודות בטבלה המנוהלת של BigQuery ביעד. מידע נוסף זמין במאמר בנושא טעינת נתונים עם חלוקה חיצונית למחיצות מ-Cloud Storage.
המרות של Avro
BigQuery ממיר סוגי נתונים של Avro לסוגי הנתונים הבאים של BigQuery:
סוגים פרימיטיביים
| סוג נתונים ב-BigQuery | הערות | |
|---|---|---|
| null | המערכת של BigQuery מתעלמת מהערכים האלה | |
| בוליאני | בוליאני | |
| int | מספר שלם | |
| ארוך | מספר שלם | |
| מספר ממשי (float) | FLOAT | |
| double | FLOAT | |
| בייטים | BYTES | |
| מחרוזת | מחרוזת | UTF-8 בלבד |
סוגים לוגיים
כברירת מחדל, BigQuery מתעלם מהמאפיין logicalType ברוב הסוגים ומשתמש במקום זאת בסוג Avro הבסיסי. כדי להמיר סוגים לוגיים של Avro לסוגי הנתונים התואמים ב-BigQuery, צריך להגדיר את הדגל --use_avro_logical_types לערך true באמצעות כלי שורת הפקודה של BigQuery, או להגדיר את המאפיין useAvroLogicalTypes במשאב העבודה כשקוראים לשיטה jobs.insert כדי ליצור עבודת טעינה.
בטבלה הבאה מוצגת ההמרה של סוגים לוגיים של Avro לסוגי נתונים של BigQuery.
| סוג הנתונים ב-BigQuery: סוג לוגי מושבת | סוג הנתונים ב-BigQuery: סוג לוגי מופעל | |
|---|---|---|
| תאריך | מספר שלם | תאריך |
| time-millis | מספר שלם | שעות |
| time-micros | מספר שלם (הומר מ-LONG) | שעות |
| timestamp-millis | מספר שלם (הומר מ-LONG) | TIMESTAMP |
| timestamp-micros | מספר שלם (הומר מ-LONG) | TIMESTAMP |
| local-timestamp-millis | מספר שלם (הומר מ-LONG) | DATETIME |
| local-timestamp-micros | מספר שלם (הומר מ-LONG) | DATETIME |
| משך | בייטים (הומרו מסוג fixed של מידה 12) |
בייטים (הומרו מסוג fixed של מידה 12) |
| עשרוני | מספרי, מספרי גדול או מחרוזת (ראו סוג לוגי עשרוני) | מספרי, מספרי גדול או מחרוזת (ראו סוג לוגי עשרוני) |
מידע נוסף על סוגי נתונים של Avro זמין במפרט Apache Avro™ 1.8.2.
סוג לוגי של תאריך
בכל קובץ Avro שרוצים לטעון, צריך לציין את סוגי התאריכים הלוגיים בפורמט הבא:
{
"type": {"logicalType": "date", "type": "int"},
"name": "date_field"
}
סוג לוגי עשרוני
אפשר להמיר סוגים לוגיים של Decimal לסוגים NUMERIC, BIGNUMERIC או STRING. סוג ההמרה תלוי בפרמטרים של הדיוק והקנה מידה של הסוג הלוגי decimal ובסוגי היעד העשרוניים שצוינו. מציינים את סוג היעד העשרוני באופן הבא:
- כדי להפעיל טעינת נתונים באמצעות
jobs.insertAPI, צריך להשתמש בשדהJobConfigurationLoad.decimalTargetTypes. - בטעינת נתונים באמצעות הפקודה
bq loadבכלי שורת הפקודה של BigQuery, משתמשים בדגל--decimal_target_types. - כדי להריץ שאילתה על טבלה עם מקורות חיצוניים:
משתמשים בשדה
ExternalDataConfiguration.decimalTargetTypes. - לטבלה חיצונית מתמידה שנוצרה באמצעות DDL:
משתמשים באפשרות
decimal_target_types.
לצורך תאימות לאחור, אם לא מציינים את סוגי היעד העשרוניים, אפשר לטעון קובץ Avro שמכיל עמודה bytes עם הסוג הלוגי decimal לעמודה BYTES בטבלה קיימת. במקרה הזה, המערכת מתעלמת מהסוג הלוגי decimal בעמודה בקובץ Avro. מצב ההמרה הזה הוצא משימוש ויכול להיות שנסיר אותו בעתיד.
מידע נוסף על הסוג הלוגי decimal של Avro זמין במפרט Apache Avro™ 1.8.2.
סוג לוגי של זמן
בכל קובץ Avro שרוצים לטעון, צריך לציין את הסוגים הלוגיים של הזמן באחד מהפורמטים הבאים.
לדיוק של אלפית השנייה:
{
"type": {"logicalType": "time-millis", "type": "int"},
"name": "time_millis_field"
}
לדיוק של מיקרו-שנייה:
{
"type": {"logicalType": "time-micros", "type": "int"},
"name": "time_micros_field"
}
סוג לוגי של חותמת זמן
בכל קובץ Avro שרוצים לטעון, צריך לציין את הסוגים הלוגיים של חותמות הזמן באחד מהפורמטים הבאים.
לדיוק של אלפית השנייה:
{
"type": {"logicalType": "timestamp-millis", "type": "long"},
"name": "timestamp_millis_field"
}
לדיוק של מיקרו-שנייה:
{
"type": {"logicalType": "timestamp-micros", "type": "long"},
"name": "timestamp_micros_field"
}
סוג לוגי Local-Timestamp
בכל קובץ Avro שרוצים לטעון, צריך לציין סוג לוגי של חותמת זמן מקומית באחד מהפורמטים הבאים.
לדיוק של אלפית השנייה:
{
"type": {"logicalType": "local-timestamp-millis", "type": "long"},
"name": "local_timestamp_millis_field"
}
לדיוק של מיקרו-שנייה:
{
"type": {"logicalType": "local-timestamp-micros", "type": "long"},
"name": "local_timestamp_micros_field"
}
סוגים מורכבים
| סוג נתונים ב-BigQuery | הערות | |
|---|---|---|
| הקלטה | רשומה |
|
| enum | מחרוזת |
|
| מערך | שדות חוזרים | אין תמיכה במערכים של מערכים. מערכים שמכילים רק סוגי NULL מוחרגים. |
| map<T> | רשומה | BigQuery ממיר שדה של מפת Avro<T> ל-RECORD חוזר שמכיל שני שדות: מפתח וערך. BigQuery מאחסן את המפתח כ-STRING, וממיר את הערך לסוג הנתונים התואם שלו ב-BigQuery. |
| union |
|
|
| קבוע | BYTES |
|