יצירת הטמעה של טקסט באמצעות הפונקציה AI.GENERATE_EMBEDDING
במאמר הזה מוסבר איך ליצור מודל מרוחק של BigQuery ML שמפנה למודל הטמעה. לאחר מכן משתמשים במודל הזה עם הפונקציה AI.GENERATE_EMBEDDING כדי ליצור הטמעות טקסט באמצעות נתונים מטבלה רגילה ב-BigQuery.
המערכת תומכת בסוגים הבאים של מודלים מרוחקים:
- מודלים מרוחקים במקום מודלים להטמעה של Vertex AI.
- מודלים מרוחקים במקום מודלים פתוחים נתמכים (גרסת Preview).
התפקידים הנדרשים
כדי ליצור מודל מרוחק ולהשתמש בפונקציה AI.GENERATE_EMBEDDING, אתם צריכים את התפקידים הבאים בניהול זהויות והרשאות גישה (IAM):
- יצירה ושימוש במערכי נתונים, בטבלאות ובמודלים של BigQuery: BigQuery Data Editor (
roles/bigquery.dataEditor) בפרויקט. יצירה, הקצאה ושימוש בחיבורים ל-BigQuery: BigQuery Connections Admin (
roles/bigquery.connectionsAdmin) בפרויקט.אם לא הגדרתם חיבור ברירת מחדל, תוכלו ליצור חיבור ולהגדיר אותו כחלק מהרצת ההצהרה
CREATE MODEL. כדי לעשות זאת, צריך להיות לכם תפקיד BigQuery Admin (roles/bigquery.admin) בפרויקט. מידע נוסף מופיע במאמר בנושא הגדרת חיבור ברירת המחדל.נותנים הרשאות לחשבון השירות של החיבור: אדמין IAM של הפרויקט (
roles/resourcemanager.projectIamAdmin) בפרויקט שמכיל את נקודת הקצה של Vertex AI. זהו הפרויקט הנוכחי של מודלים מרוחקים שיוצרים על ידי ציון שם המודל כנקודת קצה. זהו הפרויקט שמזוהה בכתובת ה-URL של מודלים מרוחקים שיוצרים על ידי ציון כתובת URL כנקודת קצה.יצירת משימות BigQuery: BigQuery Job User (
roles/bigquery.jobUser) בפרויקט.
התפקידים המוגדרים מראש האלה כוללים את ההרשאות שנדרשות לביצוע המשימות שמתוארות במסמך הזה. כדי לראות בדיוק אילו הרשאות נדרשות, אפשר להרחיב את הקטע ההרשאות הנדרשות:
ההרשאות הנדרשות
- יצירת מערך נתונים:
bigquery.datasets.create - יצירה, הקצאה ושימוש בחיבור:
bigquery.connections.* - מגדירים את ההרשאות לחשבון השירות:
resourcemanager.projects.getIamPolicyו-resourcemanager.projects.setIamPolicy - יצירת מודל והרצת הסקה:
bigquery.jobs.createbigquery.models.createbigquery.models.getDatabigquery.models.updateDatabigquery.models.updateMetadata
- שאילתת נתונים בטבלה:
bigquery.tables.getData
יכול להיות שתוכלו לקבל את ההרשאות האלה גם באמצעות תפקידים בהתאמה אישית או תפקידים מוגדרים מראש אחרים.
לפני שמתחילים
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
Roles required to select or create a project
- Select a project: Selecting a project doesn't require a specific IAM role—you can select any project that you've been granted a role on.
-
Create a project: To create a project, you need the Project Creator role
(
roles/resourcemanager.projectCreator), which contains theresourcemanager.projects.createpermission. Learn how to grant roles.
-
Verify that billing is enabled for your Google Cloud project.
-
Enable the BigQuery, BigQuery Connection, and Vertex AI APIs.
Roles required to enable APIs
To enable APIs, you need the Service Usage Admin IAM role (
roles/serviceusage.serviceUsageAdmin), which contains theserviceusage.services.enablepermission. Learn how to grant roles.
יצירת מערך נתונים
יוצרים מערך נתונים ב-BigQuery שיכיל את המשאבים:
המסוף
במסוף Google Cloud , עוברים לדף BigQuery.
בחלונית הימנית, לוחצים על כלי הניתוחים:

אם החלונית הימנית לא מוצגת, לוחצים על הרחבת החלונית הימנית כדי לפתוח אותה.
בחלונית Explorer, לוחצים על שם הפרויקט.
לוחצים על הצגת פעולות > יצירת מערך נתונים.
בדף Create dataset, מבצעים את הפעולות הבאות:
בשדה Dataset ID, מקלידים שם למערך הנתונים.
בשדה Location type, בוחרים באפשרות Region או Multi-region.
- אם בחרתם באפשרות אזור, בוחרים מיקום מהרשימה אזור.
- אם בחרתם באפשרות Multi-region, בוחרים באפשרות US או Europe מהרשימה Multi-region.
לוחצים על יצירת מערך נתונים.
BQ
יצירת חיבור
יוצרים חיבור למשאב בענן ומקבלים את חשבון השירות של החיבור. יוצרים את החיבור באותו מיקום של מערך הנתונים שיצרתם בשלב הקודם.
אם כבר הגדרתם חיבור ברירת מחדל או שיש לכם את תפקיד האדמין ב-BigQuery, אתם יכולים לדלג על השלב הזה.
בוחרים באחת מהאפשרויות הבאות:המסוף
עוברים לדף BigQuery.
בחלונית השמאלית, לוחצים על Explorer:

אם החלונית הימנית לא מוצגת, לוחצים על הרחבת החלונית הימנית כדי לפתוח אותה.
בחלונית Explorer מרחיבים את שם הפרויקט ואז לוחצים על Connections.
בדף Connections (חיבורים), לוחצים על Create connection (יצירת חיבור).
בקטע Connection type (סוג החיבור), בוחרים באפשרות Vertex AI remote models, remote functions, BigLake and Spanner (Cloud Resource) (מודלים מרוחקים של Vertex AI, פונקציות מרוחקות, BigLake ו-Spanner (משאב בענן)).
בשדה מזהה החיבור, מזינים שם לחיבור.
בקטע Location type, בוחרים מיקום לחיבור. החיבור צריך להיות ממוקם יחד עם המשאבים האחרים שלכם, כמו מערכי נתונים.
לוחצים על יצירת קישור.
לוחצים על מעבר לחיבור.
בחלונית Connection info (פרטי התחברות), מעתיקים את מזהה חשבון השירות כדי להשתמש בו בשלב מאוחר יותר.
BQ
בסביבת שורת פקודה, יוצרים חיבור:
bq mk --connection --location=REGION --project_id=PROJECT_ID \ --connection_type=CLOUD_RESOURCE CONNECTION_ID
הפרמטר
--project_idמבטל את פרויקט ברירת המחדל.מחליפים את מה שכתוב בשדות הבאים:
-
REGION: אזור החיבור -
PROJECT_ID: מזהה הפרויקט ב- Google Cloud -
CONNECTION_ID: מזהה לחיבור
כשיוצרים משאב חיבור, מערכת BigQuery יוצרת חשבון שירות ייחודי ומקשרת אותו לחיבור.
פתרון בעיות: אם מופיעה שגיאת החיבור הבאה, צריך לעדכן את Google Cloud SDK:
Flags parsing error: flag --connection_type=CLOUD_RESOURCE: value should be one of...
-
מאחזרים ומעתיקים את מזהה חשבון השירות כדי להשתמש בו בשלב מאוחר יותר:
bq show --connection PROJECT_ID.REGION.CONNECTION_ID
הפלט אמור להיראות כך:
name properties 1234.REGION.CONNECTION_ID {"serviceAccountId": "connection-1234-9u56h9@gcp-sa-bigquery-condel.iam.gserviceaccount.com"}
Python
לפני שמנסים את הדוגמה הזו, צריך לפעול לפי Pythonהוראות ההגדרה שבמדריך למתחילים של BigQuery באמצעות ספריות לקוח. מידע נוסף מופיע במאמרי העזרה של BigQuery Python API.
כדי לבצע אימות ב-BigQuery, צריך להגדיר את Application Default Credentials. מידע נוסף זמין במאמר הגדרת אימות לספריות לקוח.
Node.js
לפני שמנסים את הדוגמה הזו, צריך לפעול לפי Node.jsהוראות ההגדרה שבמדריך למתחילים של BigQuery באמצעות ספריות לקוח. מידע נוסף מופיע במאמרי העזרה של BigQuery Node.js API.
כדי לבצע אימות ב-BigQuery, צריך להגדיר את Application Default Credentials. מידע נוסף זמין במאמר הגדרת אימות לספריות לקוח.
Terraform
משתמשים במשאב google_bigquery_connection.
כדי לבצע אימות ב-BigQuery, צריך להגדיר את Application Default Credentials. מידע נוסף זמין במאמר הגדרת אימות לספריות לקוח.
בדוגמה הבאה נוצר חיבור למשאב Cloud בשם my_cloud_resource_connection באזור US:
כדי להחיל את ההגדרות של Terraform בפרויקט ב- Google Cloud , מבצעים את השלבים בקטעים הבאים.
הכנת Cloud Shell
- מפעילים את Cloud Shell.
-
מגדירים את פרויקט ברירת המחדל שבו רוצים להחיל את ההגדרות של Terraform. Google Cloud
תצטרכו להריץ את הפקודה הזו רק פעם אחת לכל פרויקט, ותוכלו לעשות זאת בכל ספרייה.
export GOOGLE_CLOUD_PROJECT=PROJECT_ID
אם תגדירו ערכים ספציפיים בקובץ התצורה של Terraform, הם יבטלו את ערכי ברירת המחדל של משתני הסביבה.
הכנת הספרייה
לכל קובץ תצורה של Terraform צריכה להיות ספרייה משלו (שנקראת גם מודול ברמה הבסיסית).
-
יוצרים ספרייה חדשה ב-Cloud Shell ובה יוצרים קובץ חדש. שם הקובץ חייב לכלול את הסיומת
.tf, למשלmain.tf. במדריך הזה, הקובץ נקראmain.tf.mkdir DIRECTORY && cd DIRECTORY && touch main.tf
-
אם אתם עוקבים אחרי המדריך, תוכלו להעתיק את הקוד לדוגמה בכל קטע או שלב.
מעתיקים את הקוד לדוגמה בקובץ
main.tfהחדש שיצרתם.לחלופין, אפשר גם להעתיק את הקוד מ-GitHub. כדאי לעשות את זה כשקטע הקוד של Terraform הוא חלק מפתרון מקצה לקצה.
- בודקים את הפרמטרים לדוגמה ומשנים אותם בהתאם לסביבה שלכם.
- שומרים את השינויים.
-
מפעילים את Terraform. צריך לעשות זאת רק פעם אחת לכל ספרייה.
terraform init
אופציונלי: תוכלו לכלול את האפשרות
-upgrade, כדי להשתמש בגרסה העדכנית ביותר של הספק של Google:terraform init -upgrade
החלה של השינויים
-
בודקים את ההגדרות ומוודאים שהמשאבים שמערכת Terraform תיצור או תעדכן תואמים לציפיות שלכם:
terraform plan
מתקנים את ההגדרות לפי הצורך.
-
מריצים את הפקודה הבאה ומזינים
yesבהודעה שמופיעה, כדי להחיל את הגדרות Terraform:terraform apply
ממתינים עד שב-Terraform תוצג ההודעה "Apply complete!".
- פותחים את Google Cloud הפרויקט כדי לראות את התוצאות. במסוף Google Cloud , נכנסים למשאבים בממשק המשתמש כדי לוודא שהם נוצרו או עודכנו ב-Terraform.
הקצאת תפקיד לחשבון השירות של חיבור המודל המרוחק
צריך לתת לחשבון השירות של החיבור את התפקיד Vertex AI User.
אם אתם מתכננים לציין את נקודת הקצה ככתובת URL כשאתם יוצרים את המודל המרוחק, למשל endpoint = 'https://us-central1-aiplatform.googleapis.com/v1/projects/myproject/locations/us-central1/publishers/google/models/text-embedding-005', אתם צריכים להקצות את התפקיד הזה באותו פרויקט שציינתם בכתובת ה-URL.
אם אתם מתכננים לציין את נקודת הקצה באמצעות שם המודל כשאתם יוצרים את המודל המרוחק, למשל endpoint = 'text-embedding-005', צריך להעניק את התפקיד הזה באותו פרויקט שבו אתם מתכננים ליצור את המודל המרוחק.
הקצאת התפקיד בפרויקט אחר מובילה לשגיאה bqcx-1234567890-wxyz@gcp-sa-bigquery-condel.iam.gserviceaccount.com does not have the permission to access resource.
כדי להקצות את התפקיד, בצע את השלבים הבאים:
המסוף
עוברים לדף IAM & Admin.
לוחצים על Grant access.
תיבת הדו-שיח Add principals נפתחת.
בשדה New principals, מזינים את מזהה חשבון השירות שהעתקתם קודם.
בשדה Select a role (בחירת תפקיד), בוחרים באפשרות Vertex AI ואז באפשרות Vertex AI User (משתמש Vertex AI).
לוחצים על Save.
gcloud
משתמשים בפקודה gcloud projects add-iam-policy-binding:
gcloud projects add-iam-policy-binding 'PROJECT_NUMBER' --member='serviceAccount:MEMBER' --role='roles/aiplatform.user' --condition=None
מחליפים את מה שכתוב בשדות הבאים:
-
PROJECT_NUMBER: מספר הפרויקט -
MEMBER: המזהה של חשבון השירות שהעתקתם קודם
בחירת שיטת פריסה של מודל פתוח
אם יוצרים מודל מרוחק על בסיס מודל פתוח נתמך, אפשר לפרוס אוטומטית את המודל הפתוח בו-זמנית עם יצירת המודל המרוחק, על ידי ציון מזהה המודל של Vertex AI Model Garden או Hugging Face בהצהרת CREATE MODEL.
לחלופין, אפשר קודם לפרוס את המודל הפתוח באופן ידני, ואז להשתמש במודל הפתוח עם המודל המרוחק על ידי הגדרת נקודת הקצה של המודל בהצהרת CREATE MODEL. מידע נוסף זמין במאמר בנושא פריסת מודלים פתוחים.
יצירת מודל מרוחק של BigQuery ML
יוצרים מודל מרחוק:
מודלים פתוחים חדשים
במסוף Google Cloud , עוברים לדף BigQuery.
באמצעות עורך ה-SQL, יוצרים מודל מרוחק:
CREATE OR REPLACE MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME` REMOTE WITH CONNECTION {DEFAULT | `PROJECT_ID.REGION.CONNECTION_ID`} OPTIONS ( {HUGGING_FACE_MODEL_ID = 'HUGGING_FACE_MODEL_ID' | MODEL_GARDEN_MODEL_NAME = 'MODEL_GARDEN_MODEL_NAME'} [, HUGGING_FACE_TOKEN = 'HUGGING_FACE_TOKEN' ] [, MACHINE_TYPE = 'MACHINE_TYPE' ] [, MIN_REPLICA_COUNT = MIN_REPLICA_COUNT ] [, MAX_REPLICA_COUNT = MAX_REPLICA_COUNT ] [, RESERVATION_AFFINITY_TYPE = {'NO_RESERVATION' | 'ANY_RESERVATION' | 'SPECIFIC_RESERVATION'} ] [, RESERVATION_AFFINITY_KEY = 'compute.googleapis.com/reservation-name' ] [, RESERVATION_AFFINITY_VALUES = RESERVATION_AFFINITY_VALUES ] [, ENDPOINT_IDLE_TTL = ENDPOINT_IDLE_TTL ] );
מחליפים את מה שכתוב בשדות הבאים:
PROJECT_ID: מזהה הפרויקט.-
DATASET_ID: המזהה של מערך הנתונים שאמור להכיל את המודל. מערך הנתונים הזה צריך להיות באותו מיקום כמו החיבור שבו אתם משתמשים. -
MODEL_NAME: שם המודל. -
REGION: האזור שבו נעשה שימוש בחיבור. -
CONNECTION_ID: המזהה של החיבור ל-BigQuery.אפשר לקבל את הערך הזה על ידי צפייה בפרטי החיבור במסוף Google Cloud והעתקת הערך בקטע האחרון של מזהה החיבור המלא שמוצג במזהה החיבור. לדוגמה,
projects/myproject/locations/connection_location/connections/myconnection. -
HUGGING_FACE_MODEL_ID: ערךSTRINGשמציין את מזהה המודל של מודל נתמך של Hugging Face, בפורמטprovider_name/model_name. לדוגמה,deepseek-ai/DeepSeek-R1. כדי לקבל את מזהה המודל, לוחצים על שם המודל ב-Hugging Face Model Hub ומעתיקים את מזהה המודל מהחלק העליון של כרטיס המודל. -
MODEL_GARDEN_MODEL_NAME: ערךSTRINGשמציין את מזהה המודל ואת גרסת המודל של מודל נתמך ב-Vertex AI Model Garden, בפורמטpublishers/publisher/models/model_name@model_version. לדוגמה,publishers/openai/models/gpt-oss@gpt-oss-120b. כדי לקבל את מזהה המודל, לוחצים על כרטיס המודל ב-Vertex AI Model Garden ואז מעתיקים את מזהה המודל מהשדה מזהה המודל. אפשר להעתיק את גרסת ברירת המחדל של המודל מהשדה Version בכרטיס המודל. כדי לראות גרסאות אחרות של המודל שבהן אפשר להשתמש, לוחצים על Deploy model (פריסת המודל) ואז על השדה Resource ID (מזהה המשאב). -
HUGGING_FACE_TOKEN: ערךSTRINGשמציין את User Access Token של Hugging Face שבו רוצים להשתמש. אפשר לציין ערך לאפשרות הזו רק אם מציינים ערך גם לאפשרותHUGGING_FACE_MODEL_ID.ל-token צריך להיות התפקיד
readלפחות, אבל אפשר להשתמש גם ב-tokens עם היקף רחב יותר. האפשרות הזו נדרשת אם המודל שמוגדר על ידי הערךHUGGING_FACE_MODEL_IDהוא מודל מוגבל או פרטי של Hugging Face.כדי לקבל גישה לחלק מהמודלים המוגבלים, צריך להביע הסכמה מפורשת לתנאים ולהגבלות שלהם. כדי לאשר את התנאים האלה, מבצעים את השלבים הבאים:
- עוברים לדף של המודל באתר Hugging Face.
- מאתרים את התנאים וההגבלות של המודל וקוראים אותם. בדרך כלל אפשר למצוא קישור להסכם השירות בכרטיס המודל.
- מאשרים את התנאים בהתאם להנחיות בדף.
-
MACHINE_TYPE: ערךSTRINGשמציין את סוג המכונה שבה יש להשתמש כשפורסים את המודל ב-Vertex AI. מידע על סוגי מכונות נתמכים זמין במאמר סוגי מכונות. אם לא מציינים ערך לאפשרותMACHINE_TYPE, נעשה שימוש בסוג המכונה שמוגדר כברירת מחדל ב-Vertex AI Model Garden עבור המודל. -
MIN_REPLICA_COUNT: ערךINT64שמציין את המספר המינימלי של העתקים של מכונות שמשמשים לפריסת המודל בנקודת קצה של Vertex AI. השירות מגדיל או מקטין את מספר הרפליקות בהתאם לעומס ההיקש בנקודת הקצה. מספר הרפליקות שנעשה בהן שימוש אף פעם לא נמוך מהערךMIN_REPLICA_COUNTואף פעם לא גבוה מהערךMAX_REPLICA_COUNT. הערך שלMIN_REPLICA_COUNTצריך להיות בטווח[1, 4096]. ערך ברירת המחדל הוא1. -
MAX_REPLICA_COUNT: ערךINT64שמציין את המספר המקסימלי של רפליקות של מכונות שמשמשות לפריסת המודל בנקודת קצה של Vertex AI. השירות מגדיל או מקטין את מספר הרפליקות בהתאם לעומס ההיקש בנקודת הקצה. מספר הרפליקות שנעשה בהן שימוש אף פעם לא נמוך מהערךMIN_REPLICA_COUNTואף פעם לא גבוה מהערךMAX_REPLICA_COUNT. הערך שלMAX_REPLICA_COUNTצריך להיות בטווח[1, 4096]. ערך ברירת המחדל הואMIN_REPLICA_COUNT. -
RESERVATION_AFFINITY_TYPE: קובע אם המודל שנפרס משתמש בהזמנות של Compute Engine כדי לספק זמינות מובטחת של מכונות וירטואליות (VM) כשמוצגות תחזיות, ומציין אם המודל משתמש במכונות וירטואליות מכל ההזמנות הזמינות או רק מהזמנה ספציפית אחת. למידע נוסף, קראו את המאמר בנושא זיקה להזמנה ב-Compute Engine.אפשר להשתמש רק בהזמנות של Compute Engine שמשותפות עם Vertex AI. מידע נוסף זמין במאמר בנושא אישור שימוש בהזמנה.
הערכים הנתמכים הם:
-
NO_RESERVATION: לא מתבצעת צריכה של הזמנה כשהמודל שלכם נפרס בנקודת קצה של Vertex AI. הגדרתNO_RESERVATIONזהה להגדרה של אי-הגדרת שיוך להזמנה. -
ANY_RESERVATION: פריסת המודל של Vertex AI צורכת מכונות וירטואליות (VM) מהזמנות ב-Compute Engine שנמצאות בפרויקט הנוכחי או משותפות עם הפרויקט, ושמוגדרות לצריכה אוטומטית. רק מכונות וירטואליות שעומדות בדרישות הבאות ישמשו לגיבוי:- הם משתמשים בסוג המכונה שצוין בערך
MACHINE_TYPE. - אם מערך הנתונים ב-BigQuery שבו אתם יוצרים את המודל המרוחק נמצא באזור יחיד, ההזמנה צריכה להיות באותו אזור. אם מערך הנתונים נמצא באזור
US, ההזמנה צריכה להיות באזורus-central1. אם מערך הנתונים נמצא בEUמספר אזורים, ההזמנה צריכה להיות באזורeurope-west4.
אם אין מספיק קיבולת בהזמנות הזמינות, או אם לא נמצאות הזמנות מתאימות, המערכת מקצה מכונות וירטואליות (VM) ב-Compute Engine על פי דרישה כדי לעמוד בדרישות המשאבים.
- הם משתמשים בסוג המכונה שצוין בערך
-
SPECIFIC_RESERVATION: פריסת המודל ב-Vertex AI צורכת מכונות וירטואליות רק מההזמנה שצוינה בערךRESERVATION_AFFINITY_VALUES. צריך להגדיר את ההזמנה הזו לשימוש במשאבים שמיועדים ספציפית להזמנה. הפריסה נכשלת אם לשרת שהוזמן אין מספיק קיבולת.
-
-
RESERVATION_AFFINITY_KEY: המחרוזתcompute.googleapis.com/reservation-name. חובה לציין את האפשרות הזו כשהערך שלRESERVATION_AFFINITY_TYPEהואSPECIFIC_RESERVATION. -
RESERVATION_AFFINITY_VALUES: ערךARRAY<STRING>שמציין את שם המשאב המלא של ההזמנה ב-Compute Engine, בפורמט הבא:
projects/myproject/zones/reservation_zone/reservations/reservation_nameלדוגמה,
RESERVATION_AFFINITY_values = ['projects/myProject/zones/us-central1-a/reservations/myReservationName'].אפשר לראות את שם ההזמנה והאזור בדף Reservations במסוף Google Cloud . מידע נוסף זמין במאמר הצגת הזמנות.
חובה לציין את האפשרות הזו אם הערך של
RESERVATION_AFFINITY_TYPEהואSPECIFIC_RESERVATION. -
ENDPOINT_IDLE_TTL: ערךINTERVALשמציין את משך הזמן של חוסר הפעילות שאחריו המודל הפתוח יבוטל אוטומטית מנקודת הקצה של Vertex AI.כדי להפעיל ביטול פריסה אוטומטי, מציינים ערך של מרווח זמן בין 390 דקות (6.5 שעות) ל-7 ימים. לדוגמה, אם מציינים
INTERVAL 8 HOUR, המודל יבוטל אחרי 8 שעות של חוסר פעילות. ערך ברירת המחדל הוא 390 דקות (6.5 שעות).חוסר פעילות של מודל מוגדר כפרק הזמן שעבר מאז שאחת מהפעולות הבאות בוצעה במודל:
- מריצים את ההצהרה
CREATE MODEL. - הפעלת ההצהרה
ALTER MODELעם הארגומנטDEPLOY_MODELשהערך שלו הואTRUE. - שליחת בקשת הסקה לנקודת הקצה של המודל. לדוגמה, על ידי הרצת הפונקציה
AI.GENERATE_EMBEDDINGאוAI.GENERATE_TEXT.
כל אחת מהפעולות האלה מאפסת את טיימר חוסר הפעילות לאפס. האיפוס מופעל בתחילת משימת BigQuery שמבצעת את הפעולה.
אחרי שמבטלים את הפריסה של המודל, בקשות להסקת מסקנות שנשלחות למודל מחזירות שגיאה. אובייקט המודל ב-BigQuery נשאר ללא שינוי, כולל המטא-נתונים של המודל. כדי להשתמש שוב במודל להיקש, צריך לפרוס אותו מחדש על ידי הפעלת ההצהרה
ALTER MODELבמודל והגדרת האפשרותDEPLOY_MODELלערךTRUE. - מריצים את ההצהרה
מודלים פתוחים שנפרסו
במסוף Google Cloud , עוברים לדף BigQuery.
באמצעות עורך ה-SQL, יוצרים מודל מרוחק:
CREATE OR REPLACE MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME` REMOTE WITH CONNECTION {DEFAULT | `PROJECT_ID.REGION.CONNECTION_ID`} OPTIONS ( ENDPOINT = 'https://ENDPOINT_REGION-aiplatform.googleapis.com/v1/projects/ENDPOINT_PROJECT_ID/locations/ENDPOINT_REGION/endpoints/ENDPOINT_ID' );
מחליפים את מה שכתוב בשדות הבאים:
PROJECT_ID: מזהה הפרויקט.-
DATASET_ID: המזהה של מערך הנתונים שאמור להכיל את המודל. מערך הנתונים הזה צריך להיות באותו מיקום כמו החיבור שבו אתם משתמשים. -
MODEL_NAME: שם המודל. -
REGION: האזור שבו נעשה שימוש בחיבור. -
CONNECTION_ID: המזהה של החיבור ל-BigQuery.אפשר לקבל את הערך הזה על ידי צפייה בפרטי החיבור במסוף Google Cloud והעתקת הערך בקטע האחרון של מזהה החיבור המלא שמוצג במזהה החיבור. לדוגמה,
projects/myproject/locations/connection_location/connections/myconnection. -
ENDPOINT_REGION: האזור שבו המודל הפתוח פרוס. -
ENDPOINT_PROJECT_ID: הפרויקט שבו נפרס המודל הפתוח. -
ENDPOINT_ID: המזהה של נקודת הקצה (endpoint) של HTTPS שבה נעשה שימוש במודל הפתוח. כדי לקבל את מזהה נקודת הקצה, מאתרים את המודל הפתוח בדף Online prediction ומעתיקים את הערך בשדה ID.
כל שאר הדגמים
במסוף Google Cloud , עוברים לדף BigQuery.
באמצעות עורך ה-SQL, יוצרים מודל מרוחק:
CREATE OR REPLACE MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME` REMOTE WITH CONNECTION {DEFAULT | `PROJECT_ID.REGION.CONNECTION_ID`} OPTIONS (ENDPOINT = 'ENDPOINT');
מחליפים את מה שכתוב בשדות הבאים:
PROJECT_ID: מזהה הפרויקט.-
DATASET_ID: המזהה של מערך הנתונים שאמור להכיל את המודל. מערך הנתונים הזה צריך להיות באותו מיקום כמו החיבור שבו אתם משתמשים. -
MODEL_NAME: שם המודל. -
REGION: האזור שבו נעשה שימוש בחיבור. -
CONNECTION_ID: המזהה של החיבור ל-BigQuery.אפשר לקבל את הערך הזה על ידי צפייה בפרטי החיבור במסוף Google Cloud והעתקת הערך בקטע האחרון של מזהה החיבור המלא שמוצג במזהה החיבור. לדוגמה,
projects/myproject/locations/connection_location/connections/myconnection. -
ENDPOINT: השם של מודל הטמעה שרוצים להשתמש בו. מידע נוסף זמין במאמרENDPOINT.המודל של Vertex AI שאתם מציינים צריך להיות זמין במיקום שבו אתם יוצרים את המודל המרוחק. מידע נוסף זמין במאמר בנושא מיקומים.
יצירת הטמעות טקסט
כדי ליצור הטמעות טקסט באמצעות הפונקציה AI.GENERATE_EMBEDDING, משתמשים בנתוני טקסט מעמודה בטבלה או משאילתה.
בדרך כלל, משתמשים במודל הטמעה של טקסט לתרחישי שימוש שמבוססים על טקסט בלבד, ובמודל הטמעה מולטימודאלי לתרחישי שימוש של חיפוש חוצה מודאלי, שבהם ההטמעות של טקסט ותוכן חזותי נוצרות באותו מרחב סמנטי.
טקסט של Vertex AI
יצירת הטמעות טקסט באמצעות מודל מרוחק דרך מודל הטמעת טקסט של Vertex AI:
SELECT * FROM AI.GENERATE_EMBEDDING( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, {TABLE PROJECT_ID.DATASET_ID.TABLE_NAME | (CONTENT_QUERY)}, STRUCT(TASK_TYPE AS task_type, OUTPUT_DIMENSIONALITY AS output_dimensionality) );
מחליפים את מה שכתוב בשדות הבאים:
PROJECT_ID: מזהה הפרויקט.-
DATASET_ID: המזהה של מערך הנתונים שמכיל את המודל. -
MODEL_NAME: השם של המודל המרוחק מעל מודל ההטמעה. -
TABLE_NAME: שם הטבלה שמכילה את הטקסט להטמעה. בטבלה הזו צריכה להיות עמודה בשםcontent, או שאפשר להשתמש בכינוי כדי להשתמש בעמודה עם שם אחר. -
CONTENT_QUERY: שאילתה שהתוצאה שלה מכילה עמודהSTRINGבשםcontent. -
TASK_TYPE: מחרוזתSTRINGמילולית שמציינת את אפליקציית המורד הרצויה כדי לעזור למודל ליצור הטמעות באיכות טובה יותר. TASK_TYPEמקבל את הערכים הבאים:-
RETRIEVAL_QUERY: מציין שהטקסט שצוין הוא שאילתה בהגדרה של חיפוש או אחזור. -
RETRIEVAL_DOCUMENT: מציין שהטקסט שצוין הוא מסמך בהגדרה של חיפוש או אחזור.כשמשתמשים בסוג המשימה הזה, מומלץ לכלול את שם המסמך בהצהרת השאילתה כדי לשפר את איכות ההטמעה. כותרת המסמך צריכה להיות בעמודה שנקראת
titleאוtitle, למשל:SELECT * FROM AI.GENERATE_EMBEDDING( MODEL
mydataset.embedding_model, (SELECT abstract as content, header as title, publication_number FROMmydataset.publications), STRUCT('RETRIEVAL_DOCUMENT' as task_type) );ציון עמודת הכותרת בשאילתת הקלט מאכלס את השדה
titleבגוף הבקשה שנשלחת למודל. אם מציינים ערך שלtitleכשמשתמשים בסוג משימה אחר, המערכת מתעלמת מהקלט הזה ואין לו השפעה על תוצאות ההטמעה. -
SEMANTIC_SIMILARITY: מציין שהטקסט שצוין ישמש לדמיון סמנטי בין טקסטים (STS). -
CLASSIFICATION: מציין שההטמעות ישמשו לסיווג. -
CLUSTERING: מציין שההטמעות ישמשו לאשכול. -
QUESTION_ANSWERING: מציין שההטמעות ישמשו למענה לשאלות. -
FACT_VERIFICATION: מציין שההטמעות ישמשו לאימות עובדות. -
CODE_RETRIEVAL_QUERY: מציין שההטמעות ישמשו לאחזור קוד.
-
-
OUTPUT_DIMENSIONALITY: ערךINT64שמציין את מספר המאפיינים שבהם יש להשתמש כשיוצרים הטבעות. לדוגמה, אם מציינים256 AS output_dimensionality, עמודת הפלטembeddingמכילה הטמעה של 256 ממדים לכל ערך קלט.במודלים מרוחקים עם יותר מ-
gemini-embedding-001מודלים, הערך שלOUTPUT_DIMENSIONALITYצריך להיות בטווח[1, 3072]. ערך ברירת המחדל הוא3072. במודלים מרוחקים מעלtext-embedding, הערךOUTPUT_DIMENSIONALITYצריך להיות בטווח[1, 768]. ערך ברירת המחדל הוא768.
דוגמה: הטמעת טקסט בטבלה
בדוגמה הבאה מוצגת בקשה להטמעת העמודה content בטבלה text_data:
SELECT * FROM AI.GENERATE_EMBEDDING( MODEL `mydataset.embedding_model`, TABLE mydataset.text_data, STRUCT('CLASSIFICATION' AS task_type) );
טקסט פתוח
יצירת הטמעות טקסט באמצעות מודל מרוחק על גבי מודל הטמעה פתוח:
SELECT * FROM AI.GENERATE_EMBEDDING( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, {TABLE PROJECT_ID.DATASET_ID.TABLE_NAME | (CONTENT_QUERY)}, );
מחליפים את מה שכתוב בשדות הבאים:
PROJECT_ID: מזהה הפרויקט.-
DATASET_ID: המזהה של מערך הנתונים שמכיל את המודל. -
MODEL_NAME: השם של המודל המרוחק מעל מודל ההטמעה. -
TABLE_NAME: שם הטבלה שמכילה את הטקסט להטמעה. בטבלה הזו צריכה להיות עמודה בשםcontent, או שאפשר להשתמש בכינוי כדי להשתמש בעמודה עם שם אחר. -
CONTENT_QUERY: שאילתה שהתוצאה שלה מכילה עמודהSTRINGבשםcontent.
Vertex AI multimodal
יצירת הטמעות טקסט באמצעות מודל מרוחק דרך מודל הטמעה מולטי-מודאלי של Vertex AI:
SELECT * FROM AI.GENERATE_EMBEDDING( MODEL `PROJECT_ID.DATASET_ID.MODEL_NAME`, {TABLE PROJECT_ID.DATASET_ID.TABLE_NAME | (CONTENT_QUERY)}, STRUCT(OUTPUT_DIMENSIONALITY AS output_dimensionality) );
מחליפים את מה שכתוב בשדות הבאים:
PROJECT_ID: מזהה הפרויקט.-
DATASET_ID: המזהה של מערך הנתונים שמכיל את המודל. -
MODEL_NAME: השם של המודל המרוחק, מעל מודלmultimodalembedding@001. -
TABLE_NAME: שם הטבלה שמכילה את הטקסט להטמעה. בטבלה הזו צריכה להיות עמודה בשםcontent, או שאפשר להשתמש בכינוי כדי להשתמש בעמודה עם שם אחר. -
CONTENT_QUERY: שאילתה שהתוצאה שלה מכילה עמודהSTRINGבשםcontent. -
OUTPUT_DIMENSIONALITY: ערךINT64שמציין את מספר המאפיינים שבהם יש להשתמש כשיוצרים הטבעות. הערכים התקפים הם128,256,512ו-1408. ערך ברירת המחדל הוא1408. לדוגמה, אם מציינים256 AS output_dimensionality, עמודת הפלטembeddingתכיל הטמעה דו-ממדית של כל ערך קלט.
דוגמה: שימוש בהטמעות כדי לדרג דמיון סמנטי
בדוגמה הבאה מוטמעת אוסף של ביקורות על סרטים, והן מסודרות לפי מרחק קוסינוס מהביקורת 'This movie was average' באמצעות הפונקציה VECTOR_SEARCH.
מרחק קטן יותר מצביע על דמיון סמנטי רב יותר.
מידע נוסף על חיפוש וקטורי ואינדקס וקטורי זמין במאמר מבוא לחיפוש וקטורי.
CREATE TEMPORARY TABLE movie_review_embeddings AS ( SELECT * FROM AI.GENERATE_EMBEDDING( MODEL `bqml_tutorial.embedding_model`, ( SELECT "This movie was fantastic" AS content UNION ALL SELECT "This was the best movie I've ever seen!!" AS content UNION ALL SELECT "This movie was just okay..." AS content UNION ALL SELECT "This movie was terrible." AS content ) ) ); WITH average_review_embedding AS ( SELECT embedding FROM AI.GENERATE_EMBEDDING( MODEL `bqml_tutorial.embedding_model`, (SELECT "This movie was average" AS content) ) ) SELECT base.content AS content, distance AS distance_to_average_review FROM VECTOR_SEARCH( TABLE movie_review_embeddings, "embedding", (SELECT embedding FROM average_review_embedding), distance_type=>"COSINE", top_k=>-1 ) ORDER BY distance_to_average_review;
התוצאה אמורה להיראות כך:
+------------------------------------------+----------------------------+ | content | distance_to_average_review | +------------------------------------------+----------------------------+ | This movie was just okay... | 0.062789813467745592 | | This movie was fantastic | 0.18579561313064263 | | This movie was terrible. | 0.35707466240930985 | | This was the best movie I've ever seen!! | 0.41844932504542975 | +------------------------------------------+----------------------------+
המאמרים הבאים
- איך משתמשים בהטמעות של טקסט ותמונות כדי לבצע חיפוש סמנטי של יצירת תמונות לפי טקסט
- איך משתמשים בהטמעות טקסט לחיפוש סמנטי וליצירה משולבת-אחזור (RAG)