סקירת AI ב-Spanner

‫Spanner והיכולות שלו לשימוש בכמה מודלים משולבים עם שירותי ה-AI שלGoogle Cloudועם LangChain, מסגרת קוד פתוח, כדי לעזור לבנות אפליקציות AI גנרטיבי. אפשר לשפר את האפליקציות באמצעות תכונות כמו חיפוש דמיון, יצירה עם שליפה משופרת (RAG) ו-Knowledge Graph. ‫Spanner מבוסס על היכולות של מדרגיות, זמינות ועקביות.

אפשר להשתמש ב-Spanner עם Vector Search כדי להטמיע חיפוש דמיון בנתוני טקסט לא מובְנים. ‫Spanner משתלב עם שירותים כמו Vertex AI כדי להפעיל את היצירה של הטמעות וקטוריות מנתוני טקסט לא מובנים. ההטמעות האלה הן ייצוגים מספריים שמשקפים את המשמעות הסמנטית של הטקסט. כדי למצוא פריטים דומים מבחינה רעיונית, משתמשים בפונקציות של מרחק וקטורי כדי למצוא וקטורי הטמעה שדומים ביותר להטמעה של בקשת החיפוש. התהליך הזה מאפשר לכם ליצור תכונות כמו המלצות למוצרים או לתוכן.

כדי להתחיל, צריך ליצור ולמלא מחדש הטבעות וקטוריות של Vertex AI בכמות גדולה עבור נתונים טקסטואליים קיימים. אפשר לעשות את זה באמצעות SQL ומודל הטמעה של Vertex AI, כמו מודל text-embedding, שמתואר במאמרי העזרה של ה-API להטמעת טקסט. ‫Spanner תומך בשימוש בשכנים קרובים משוערים (ANN) ובשכנים קרובים מסוג K‏ (KNN) עם הטמעות של וקטורים של שאילתות. רשת ANN משתמשת באינדקס וקטורי לחיפוש מהיר וניתן להרחבה שמחזיר תוצאות משוערות. אלגוריתם KNN מבצע חיפוש מקיף שמחזיר תוצאות מדויקות יותר, אבל הוא יכול להיות איטי כשמדובר במערכי נתונים גדולים. אפשר להשתמש בכמה פונקציות למדידת מרחק בין וקטורים כדי למדוד את הדמיון, כולל:

  • מרחק קוסינוס: מדד של קוסינוס הזווית בין שני וקטורים. המדד הזה שימושי למציאת פריטים עם אוריינטציה דומה, ללא קשר לגודל.

  • מרחק אוקלידי: מדידת המרחק בקו ישר בין שני וקטורים.

  • מכפלה סקלרית: חישוב המכפלה של גדלי הווקטורים והקוסינוס של הזווית ביניהם. זו יכולה להיות האפשרות הכי יעילה מבחינת חישובים עבור וקטורים מנורמלים.

מידע נוסף זמין בנושאים הבאים:

יצירת חיזויים של למידת מכונה באמצעות SQL

אתם יכולים להשתמש בשאילתות SQL ב-Spanner כדי להפעיל מודלים גדולים של שפה (LLM) שנפרסו ב-Vertex AI. גישה ישירה למודלים מסוג LLM מאפשרת לכם להריץ תחזיות למשימות כמו ניתוח סנטימנטים, סיווג טקסט ותרגום של נתונים שמאוחסנים ב-Spanner.

בעזרת הפונקציה ML.PREDICT (GoogleSQL) או spanner.ML_PREDICT_ROW (PostgreSQL), אתם יכולים ליצור תחזיות של למידת מכונה (ML) בלי להעביר את הנתונים או לכתוב קוד אפליקציה בהתאמה אישית כדי ליצור אינטראקציה עם מודל שפה גדול (LLM). כך אפשר לפשט את ארכיטקטורת האפליקציה ולהשתמש ביכולות של ML קרוב יותר לנתונים. מידע נוסף זמין במאמר יצירת תחזיות של למידת מכונה באמצעות SQL.

שימוש ב-Model Context Protocol‏ (MCP) כדי להתחבר לסוכני LLM

אפשר לחבר את מופע Spanner לסביבות פיתוח משולבות (IDE) שתומכות בModel Context Protocol‏ (MCP). ‫MCP הוא פרוטוקול פתוח שאפשר להשתמש בו כדי לחבר מודלים גדולים של שפה (LLM) לנתונים שלכם ב-Spanner. אחרי החיבור, סוכני ה-LLM יכולים לשלוח שאילתות לאירוע Spanner ולקיים איתו אינטראקציה. מידע נוסף זמין במאמר חיבור סביבת פיתוח משולבת (IDE) ל-Spanner.

קבלת תובנות באמצעות גרפים של Spanner

לתרחישי שימוש מתקדמים יותר ב-RAG, ‏ Spanner Graph משלב יכולות של מסד נתונים גרפי עם היתרונות העיקריים של Spanner. ‫Spanner Graph מאפשר לכם ליצור מודלים של נתונים מקושרים מאוד, לאחסן אותם ולבצע עליהם שאילתות.

שילוב של Spanner Graph עם LangChain כדי ליצור אפליקציות GraphRAG. השילוב הזה יכול לשפר את ה-RAG המסורתי. ‫GraphRAG מאפשר ליצור אפליקציות שמזהות קשרים מורכבים בין ישויות, כמו Knowledge Graph. השילוב משתמש בשאילתות גרף בנוסף לחיפוש וקטורי כדי לזהות קשרים מורכבים ומשתמעים בנתונים. שימוש משולב בשאילתות גרף ובחיפוש וקטורי יכול לספק תשובות מדויקות ורלוונטיות יותר מ-LLM מאשר שימוש בחיפוש וקטורי בלבד.

מידע נוסף זמין במאמר תשתית GraphRAG ל-AI גנרטיבי באמצעות Vertex AI ו-Spanner Graph.

פיתוח אפליקציות מבוססות-LLM באמצעות LangChain

‫Spanner מספק כמה מחלקות לעבודה פרוגרמטית עם LangChain. ‫LangChain היא מסגרת לתזמור LLM שמספקת את המבנה, הכלים והרכיבים לייעול תהליכי עבודה מורכבים של LLM. שימוש ב-LangChain כדי ליצור אפליקציות של AI גנרטיבי ותהליכי עבודה של RAG. המחלקות הזמינות של LangChain ל-Spanner כוללות:

  • SpannerVectorStore: אחסון של הטמעות וקטוריות וחיפוש שלהן כדי לאפשר חיפוש של דמיון בתוך האפליקציה באמצעות המחלקה.

  • SpannerLoader: טוענים נתונים מ-Spanner כדי להשתמש בהם בהטמעות או כדי לספק הקשר ספציפי לשרשראות של מודלי שפה גדולים באמצעות המחלקה.

  • SpannerChatMessageHistory: אפשר להפעיל אפליקציות של AI בממשק שיחה על ידי אחסון היסטוריית השיחות במסד נתונים של Spanner.

מידע נוסף זמין במאמרים יצירת אפליקציות מבוססות-LLM באמצעות LangChain וספריית הלקוח של Spanner ל-LangChain.

עיון בתרחישים לדוגמה

אתם יכולים להשתמש ביכולות ה-AI של Spanner כדי לבנות אפליקציות חכמות לתרחישי שימוש כמו:

  • מנועי המלצות למסחר אלקטרוני: יצירת הטבעות וקטוריות לתיאורי מוצרים כדי להפעיל מנוע המלצות. המנוע הזה יכול להציע ללקוחות פריטים דומים, וכך לשפר את חוויית הקנייה שלהם ולהגדיל את נפח המכירות. מידע נוסף מופיע במאמר בנושא שימוש ב-AI גנרטיבי לקבלת המלצות מותאמות אישית באפליקציית מסחר אלקטרוני.

  • ניהול היסטוריית ההודעות בצ'אט: שימוש ב-Spanner וב-LangChain לאחסון ולאחזור של היסטוריית השיחות. נתונים אלה מאוחסנים ב-Spanner במסד נתונים, והם מסופקים על ידי המחלקה SpannerChatMessageHistory. המחלקה הזו מרחיבה מחלקה בסיסית של LangChain כדי לשמור ולאחזר הודעות ממסד נתונים. מידע נוסף זמין במאמר בנושא היסטוריית ההודעות בצ'אט עם Spanner.

  • זיהוי הונאות פיננסיות: אפשר להשתמש ב-Spanner Graph כדי לנתח קשרים מורכבים בין משתמשים, חשבונות ועסקאות, ולזהות תבניות חשודות ואנומליות שקשה לזהות באמצעות מסדי נתונים רלציוניים מסורתיים.

  • Customer 360: בעזרת Spanner Graph, תוכלו לקבל תמונה כוללת של הלקוחות על ידי מעקב אחרי קשרים, העדפות והיסטוריית רכישות. הנתונים האלה מאפשרים לספק המלצות מותאמות אישית, להפעיל קמפיינים שיווקיים מטורגטים ולשפר את חוויית שירות הלקוחות.

  • רשתות חברתיות: מידול של פעילויות ואינטראקציות של משתמשים עם Spanner Graph כדי לספק המלצות לחברים ולגלות תוכן ברשתות חברתיות.

המאמרים הבאים

מידע נוסף על הטמעת יכולות AI ב-Spanner זמין בנושאים הבאים: