בדף הזה מופיעה רשימה של משאבים שיעזרו לכם ליצור ולפרוס פתרונות AI ב-Cloud Run.
Cloud Run היא פלטפורמה מנוהלת להרצת קוד, פונקציות או קונטיינרים על גבי התשתית של Google, שאפשר להתאים לעומס. אפשר להשתמש ב-Cloud Run כדי להריץ פתרונות AI שונים, כמו נקודות קצה של הסקת מסקנות מ-AI, ממשקי API של מודלים גנרטיביים, צינורות שלמים של יצירה משופרת באמצעות אחזור (RAG) ועוד.
אפשר להשתמש בקטגוריות ובקישורים שבהמשך כדי לנווט במדריכים רשמיים, במדריכי התחלה מהירה ובתוכן קהילתי שימושי. במאמר פתרונות AI ב-Cloud Run אפשר לקרוא על מסמכי עזרה והמלצות בנושא Cloud Run.
הערה לגבי משאבים קהילתיים
תוכן שמסומן כ'קהילה' הוא משאבים נבחרים מקהילת המפתחים, ו-Google לא מפתחת או מתחזקת אותו. חשוב לקרוא את האזהרות הבאות כשמשתמשים במקורות המידע האלה:
- ביקורת אבטחה: חשוב לבדוק בקפידה כל קוד, במיוחד את האופן שבו הוא מטפל במידע פרטי, בקלט של משתמשים ובגישה לרשת.
- הוצאה משימוש ועדכונים: יכול להיות שהקוד של הקהילה יהפוך למיושן או יפסיק לפעול עם תכונות חדשות של Cloud Run או גרסאות AI ללא אזהרה. בודקים את תאריך העדכון האחרון שלו ואם הוא עדיין מתוחזק באופן פעיל.
- יעילות בעלויות: למרות שההגדרות האלה לרוב מכוונות לעלות נמוכה, יכול להיות שהן לא עומדות בשיטות המומלצות של Google לחיסכון בעלויות בפרויקטים פעילים. חשוב לעקוב מקרוב אחרי החיובים.
- תאימות לרישיון: חשוב להבין את רישיון הקוד הפתוח של כל קוד או ספריות מהקהילה שמוסיפים לאפליקציה, ולפעול בהתאם לרישיון.
- בדיקה לפני הפריסה: מומלץ לוודא שכל ההגדרות החשובות תקינות, ולנסות פתרונות של הקהילה בסביבת בדיקה לפני שמשתמשים בהם בפרויקטים פעילים.
סינון לפי קטגוריה או מילת מפתח
משתמשים במסננים או בתיבת החיפוש כדי למצוא תוכן לפי קטגוריה או מילת מפתח.
| קטגוריות | שם ותיאור | תאריך הפרסום |
|---|---|---|
|
בלוג
Gemma 3
|
תרגול מעשי עם Gemma 3 ב-Google Cloud בפוסט הזה בבלוג מוצגים שני Codelabs שמראים למפתחים איך לפרוס את Gemma 3 ב-Google Cloud באמצעות Cloud Run לגישה בלי שרת (serverless) או Google Kubernetes Engine (GKE) לגישה מבוססת-פלטפורמה. |
2025-11-17 |
|
בלוג
כלים
|
אוטומציה קלה של תהליכי עבודה של AI: פריסת n8n ב-Cloud Run בפוסט הזה בבלוג מוסבר איך לפרוס סוכנים באמצעות כלי האוטומציה של תהליכי העבודה n8n ב-Cloud Run, כדי ליצור תהליכי עבודה מבוססי-AI ולבצע שילוב עם כלים כמו Google Workspace. |
2025-11-07 |
|
בלוג
תוספים
Gemini
|
אוטומציה של פריסת אפליקציות וניתוח אבטחה באמצעות תוספים חדשים ל-Gemini CLI בפוסט הזה בבלוג אנחנו מכריזים על התוסף Cloud Run ב-Gemini CLI, שמפשט את פריסת האפליקציות באמצעות פקודה אחת: /deploy. |
2025-09-10 |
|
בלוג
תוספים
Gemini
|
ממארח מקומי לפריסה: פריסת אפליקציות AI פשוטה באמצעות Cloud Run ו-Docker Compose בפוסט הזה בבלוג אנחנו מכריזים על שיתוף פעולה בין Google Cloud לבין Docker, שמפשט את הפריסה של אפליקציות מורכבות מבוססות AI. שיתוף הפעולה הזה מאפשר למפתחים להשתמש בפקודה gcloud run compose up כדי לפרוס את קובצי ה-compose.yaml שלהם ישירות ל-Cloud Run. |
2025-07-10 |
|
בלוג
MCP
|
יצירה ופריסה של שרת MCP מרחוק ב-Google Cloud Run תוך פחות מ-10 דקות בפוסט הזה בבלוג מוסבר איך לבנות ולפרוס שרת מאובטח של פרוטוקול הקשר של המודל (MCP) ב-Google Cloud Run תוך פחות מ-10 דקות באמצעות FastMCP, ולאחר מכן לבדוק אותו מלקוח מקומי. |
2025-06-07 |
|
Agents
AI Studio
בלוג
MCP
|
פריסת AI פשוטה: אפשר לפרוס את האפליקציה ב-Cloud Run מ-AI Studio או מסוכני AI שתואמים ל-MCP בפוסט הזה בבלוג אנחנו מציגים דרכים לפשט את הפריסות של AI באמצעות פריסה בלחיצה אחת מ-AI Studio ל-Cloud Run, פריסה ישירה של מודלים של Gemma 3 ושרת MCP לפריסות מבוססות-סוכן. |
2025-05-20 |
|
Agents
בלוג
תרחישים לדוגמה
|
במאמר הזה נסביר איך כלי לביקורת קוד מבוסס-AI בשם CodeRabbit משתמש ב-Cloud Run כדי לבנות פלטפורמה מאובטחת וניתנת להרחבה להרצת קוד לא מהימן, ובסופו של דבר מקצר את זמן ביקורת הקוד ומקטין בחצי את מספר הבאגים. |
2025-04-22 |
|
בלוג
Vertex AI
|
יצירת אפליקציות AI גנרטיבי שאפשר לשתף תוך פחות מ-60 שניות באמצעות Vertex AI ו-Cloud Run במאמר הזה מוצגת תכונה ב-Vertex AI שמאפשרת פריסה של אפליקציות אינטרנט ב-Cloud Run בלחיצה אחת. אתם יכולים להשתמש בהנחיות ל-AI גנרטיבי כדי לייעל את התהליך של הפיכת קונספט של AI גנרטיבי לאב-טיפוס שאפשר לשתף. |
2025-02-20 |
|
בלוג
Deployment
|
איך פורסים AI ללא שרת באמצעות Gemma 3 ב-Cloud Run בפוסט הזה בבלוג מוכרז על Gemma 3, משפחה של מודלים קלי משקל של AI בקוד פתוח, ומוסבר איך לפרוס אותם ב-Cloud Run כדי ליצור אפליקציות AI מבוססות-שרת (serverless) שניתנות להרחבה וחסכוניות. |
2025-03-12 |
|
בלוג
GPUs
הסקת מסקנות
RAG
Vertex AI
|
הפעלת הסקת מסקנות כשירות באמצעות Cloud Run ו-Vertex AI בפוסט הזה בבלוג מוסבר איך מפתחים יכולים להאיץ את הפיתוח של אפליקציות AI גנרטיבי באמצעות אימוץ מודל Inference-as-a-Service ב-Cloud Run. כך אפשר לארח מודלים גדולים של שפה (LLM) ולהרחיב אותם עם תמיכה ב-GPU, ולשלב אותם עם יצירה משופרת באמצעות אחזור (RAG) כדי לקבל תשובות שמתאימות להקשר. |
2025-02-20 |
|
Frameworks
Gemini
LangChain
|
מדריך למתחילים: פיתוח ופריסה של אפליקציית אינטרנט ב-Python (LangChain) ב-Cloud Run במדריך למתחילים הזה נסביר איך לבנות ולפרוס אפליקציית LangChain באמצעות Cloud Run ו-Gemini כדי להשיב לשאילתות לגבי ערירות בירה. |
2026-02-03 |
|
Agents
Frameworks
Gemini
|
מדריך למתחילים: איך יוצרים ומפעילים אפליקציית אינטרנט ב-Python (smolagents) ב-Cloud Run במדריך למתחילים הזה נסביר איך ליצור ולפרוס אפליקציית smolagents באמצעות Cloud Run ו-Gemini. |
2026-01-28 |
|
ארכיטקטורה
RAG
Vertex AI
|
תשתית RAG ל-AI גנרטיבי באמצעות Vertex AI וחיפוש וקטורי במאמר הזה מוצגת ארכיטקטורת הפניה לפיתוח אפליקציה של בינה מלאכותית גנרטיבית עם יצירה מועשרת באחזור (RAG) ב-Google Cloud, תוך שימוש בחיפוש וקטורי להתאמת דמיון בקנה מידה גדול וב-Vertex AI לניהול הטמעות ומודלים. |
2025-03-07 |
|
Agents
Antigravity
סרטון
|
Stop coding, start architecting: Google Antigravity + Cloud Run בסרטון הזה מוצג Antigravity, סביבת פיתוח משולבת (IDE) מבוססת-סוכן של Google. במדריך הזה נלמד איך להשתמש ב-Cloud Build כדי ליצור ולפרוס אפליקציית full stack ב-Cloud Run מאפס. בסרטון הזה תוכלו לראות איך לכתוב גיליון מפרט ל-AI, להכריח אותו להשתמש ב-Node.js מודרני (בלי שלבי בנייה!) ולראות אותו מנפה באגים באופן אוטונומי בחוסר התאמה של יציאות במהלך פריסה, תוך שינוי קובץ הגדרה. |
2025-12-08 |
|
Agents
GPUs
Ollama
סרטון
|
סוכן ה-AI הזה פועל ב-Cloud Run + מעבדים גרפיים של NVIDIA בסרטון הזה מוצג תהליך הפיתוח של אפליקציית סוכן AI אמיתית ב-GPU של NVIDIA ללא שרת. צפו בהדגמה של סוכן בריאות חכם שמשתמש במודלים בקוד פתוח כמו Gemma עם Ollama ב-Cloud Run, וב-LangGraph כדי ליצור תהליך עבודה מרובה סוכנים (RAG + כלים). |
2025-11-13 |
|
MCP
סרטון
|
הפעלת סוכני AI באמצעות כלי MCP ב-Google Cloud Run בסרטון הזה מוצג MCP (פרוטוקול הקשר של המודל) ומוסבר איך הוא מקל על החיים של מפתחי סוכני AI. הסבר מפורט על בניית שרת MCP באמצעות FastMCP ופריסת סוכן ADK ב-Cloud Run. אפשר לראות איך הקוד מטפל באימות משירות לשירות באמצעות אסימוני OIDC המובנים של Cloud Run. |
2025-11-06 |
|
הגנה מוגברת על המודל
אבטחה
סרטון
|
ניסינו לפרוץ את ה-AI שלנו (ו-Model Armor עצר את זה) בסרטון הזה מוצגת דוגמה לשימוש ב-Model Armor של Google כדי לחסום איומים באמצעות קריאה ל-API. |
2025-10-30 |
|
השוואה לשוק
Vertex AI
סרטון
|
אל תנחשו: איך משווים בין הנחיות ל-AI בסרטון הזה מוצגות דרכים להשתמש ב-Vertex AI כדי ליצור אפליקציות אמינות של AI גנרטיבי באמצעות הכלים של Google Cloud. מפתחים ילמדו איך להשתמש בכלים של Google Cloud ליצירת אב טיפוס מהיר, לקבל נתונים מדויקים באמצעות השוואה מבוססת-נתונים, ולבסוף, לבנות צינור CI/CD אוטומטי כדי להבטיח בקרת איכות אמיתית, תוך הימנעות מטעויות נפוצות. |
2025-10-23 |
|
ADK
Multi-agent
סרטון
|
איך בונים אפליקציה מרובת סוכנים באמצעות ADK ו-Gemini בסרטון הזה מוסבר איך ליצור אפליקציה באמצעות ADK (ערכת כלים לפיתוח סוכנים) של Google, שעוזרת לכם לשפר תוכן ולשתף פעולה ביצירת תוכן. נבדוק איך שימוש בכמה סוכנים עם שמירת מצב עדיף על שימוש בסוכן יחיד. |
2025-10-16 |
|
Gemini
סרטון
|
איך יוצרים אפליקציית AI לצפייה בסרטונים באמצעות Gemini בסרטון הזה מוסבר איך ליצור אפליקציה שצופה בסרטוני YouTube ומבינה אותם באמצעות Gemini 2.5 Pro. אפשר להשתמש בהנחיות חכמות כדי להתאים אישית את התוצאות של האפליקציה לפוסטים בבלוג, לסיכומים, לחידונים ועוד. בסרטון הזה מוסבר איך לשלב את Gemini כדי ליצור תוכן טקסט ותמונות לכותרות מתוך קלט של סרטון, איך להתייחס לשיקולי עלות ואיך לטפל בסרטונים ארוכים יותר באמצעות בקשות אצווה. |
2025-10-06 |
|
GenAI
סרטון
|
יצירת אפליקציית GenAI ב-Cloud Run בסרטון הזה מוסברים הארכיטקטורה והקוד, עם עזרה מ-AI בכל שלב. |
2025-07-17 |
|
Agents
Firebase
סרטון
|
יצירת סוכני AI באמצעות Cloud Run ו-Firebase Genkit בסרטון הזה מוצגות הוראות לבניית סוכני AI באמצעות Cloud Run ו-Firebase Genkit, כלי לבניית סוכני AI ללא שרת. |
2025-07-10 |
|
AI Studio
Firebase
Gemini
LLMs
סרטון
|
בסרטון הזה מוצגת הדגמה של בניית אפליקציה לתמיכה טכנית במהירות באמצעות AI Studio, Cloud Functions ואירוח ב-Firebase. בקורס הזה תלמדו איך להשתמש במודלים גדולים של שפה (LLM) ותראו דוגמה מעשית לשילוב של AI באפליקציית אינטרנט מסורתית. |
2025-06-19 |
|
ADK
Agents
Frameworks
LangGraph
Vertex AI
סרטון
|
בסרטון הזה מוסבר איך ליצור ולפרוס סוכני AI באמצעות Cloud Run ו-Vertex AI. תלמדו על מושגי מפתח כמו הפעלת כלים, שימוש במודלים שונים ושימוש במסגרות כמו LangGraph וערכת פיתוח הסוכנים (ADK). |
2025-05-21 |
|
מודלים של AI
GPUs
Ollama
סרטון
|
איך מארחים את DeepSeek באמצעות מעבדים גרפיים ל-Cloud Run ב-3 שלבים בסרטון הזה מוסבר איך לפשט את אירוח מודל DeepSeek AI באמצעות מעבדי GPU של Cloud Run. איך פורסים ומנהלים מודלים גדולים של שפה (LLM) ב-Google Cloud באמצעות שלוש פקודות. במהלך הצפייה תכירו את היכולות של Cloud Run ואת כלי שורת הפקודה Ollama, שמאפשרים למפתחים להפעיל במהירות אפליקציות AI עם הקצאה והתאמה לעומס של משאבים לפי דרישה. |
2025-04-24 |
|
בקשה להפעלת פונקציה
Gemini
סרטון
|
איך משתמשים ב-Gemini function calling עם Cloud Run בסרטון הזה נסביר על היכולות של Gemini function calling ונלמד איך לשלב ממשקי API חיצוניים באפליקציות מבוססות-AI. פיתוח אפליקציית מזג אוויר שמסתמכת על יכולת ההבנה של שפה טבעית של Gemini כדי לעבד בקשות של משתמשים ולאחזר נתוני מזג אוויר מ-API חיצוני, כדוגמה מעשית לשימוש בפונקציות. |
2025-01-23 |
|
יצירת תמונות
Vertex AI
סרטון
|
יצירת תמונה מטקסט באמצעות Vertex AI של Google Cloud ב-Cloud Run בסרטון הזה מוצג תהליך הפיתוח של אפליקציה ליצירת תמונות באמצעות Vertex AI ב-Google Cloud. בעזרת מודל ליצירת תמונות ב-Vertex AI, מפתחים יכולים ליצור תמונות מדהימות בלי צורך בתשתית מורכבת או בניהול מודלים. |
2025-01-16 |
|
GPUs
Ollama
סרטון
|
Ollama ו-Cloud Run עם מעבדים גרפיים בסרטון הזה מוסבר איך להשתמש ב-Ollama כדי לפרוס בקלות מודלים גדולים של שפה ב-Cloud Run עם מעבדי GPU, לפריסה יעילה וניתנת להרחבה של מודלים של AI בענן. |
2024-12-02 |
|
הגנה על נתונים
אבטחה
סרטון
|
הגנה על מידע אישי רגיש באפליקציות AI בסרטון הזה מוסבר איך להגן על מידע אישי רגיש באפליקציות AI. היכרות עם מושגי יסוד, שיטות מומלצות וכלים להגנה על נתונים לאורך מחזור החיים של ה-AI. |
2024-11-21 |
|
LangChain
RAG
סרטון
|
RAG עם LangChain ב-Google Cloud בסרטון הזה מוצג איך לשפר את הדיוק של אפליקציות AI באמצעות יצירה משופרת עם אחזור (RAG). פיתוח אפליקציית אינטרנט שמבוססת על RAG עם LangChain, טכניקה שמשפרת את הדיוק של תשובות מבוססות-AI. |
2024-11-07 |
|
חלון הנחיה גדול
Model tuning
RAG
סרטון
|
RAG לעומת כוונון מודל לעומת חלון גדול של הנחיות בסרטון הזה נסביר על שלוש שיטות עיקריות לשילוב הנתונים שלכם באפליקציות AI: הנחיות עם חלונות הקשר ארוכים, יצירה עם שליפה משופרת (RAG) ושיפור מודלים. בפרק הזה של Serverless Expeditions, נסביר מהם היתרונות והמגבלות של כל גישה, ומהם תרחישי השימוש האידיאליים שלה, כדי שתוכלו לקבל החלטות מושכלות לגבי פרויקטי ה-AI שלכם. |
2024-11-14 |
|
הנדסת הנחיות
סרטון
|
בסרטון הזה תגלו איך להשתמש בהנדסת הנחיות כדי לשפר את האיכות של תשובות שנוצרו על ידי AI. בסרטון הזה נסביר איך להשתמש בטכניקות של הנחיות בשרשרת מחשבה, הנחיות עם מעט דוגמאות והנחיות עם דוגמאות רבות כדי לקבל תשובות מדויקות ורלוונטיות יותר מ-AI גנרטיבי. |
2024-10-31 |
|
מודלים של AI
GPUs
LLMs
סרטון
|
פריסת מודל שפה גדול (LLM) מבוסס-GPU ב-Cloud Run בסרטון הזה מוסבר איך אפשר לפרוס מודל שפה גדול (LLM) משלכם שמבוסס על GPU ב-Cloud Run. בסרטון הזה מוסבר איך לקחת מודל קוד פתוח כמו Gemma ולפרוס אותו כשירות ניתן להרחבה, ללא שרת (serverless) עם האצת GPU |
2024-10-06 |
|
GPUs
LLMs
Ollama
סרטון
|
שימוש במעבדים גרפיים ב-Cloud Run בסרטון הזה מוצגת הדגמה של פריסת Gemma 2 של Google, מודל שפה גדול בקוד פתוח, דרך Ollama ב-Cloud Run. |
2024-10-03 |
|
Gemini
LLMs
סרטון
|
פיתוח אפליקציות צ'אט מבוססות-AI ב-Google Cloud בסרטון הזה מוצגות הוראות לבניית אפליקציית צ'אט עם מודל שפה גדול (LLM) ב-Gemini. |
2024-08-29 |
|
Multimodal
Vertex AI
סרטון
|
בסרטון הזה מוצגת הדגמה של שימוש ב-Vertex AI כדי ליצור אפליקציית multimodal שמבצעת עיבוד של סרטונים, אודיו וטקסט כדי ליצור פלט. |
2024-08-15 |
|
מודלים של AI
Vertex AI
סרטון
|
שימוש ב-AI גנרטיבי ללא שרת | Google Vertex AI בסרטון הזה מוצגות הוראות ליצירה ולפריסה של אפליקציות מהירות במיוחד של בינה מלאכותית גנרטיבית באמצעות Vertex AI Studio, Cloud Run ומודלים של בינה מלאכותית גנרטיבית. |
2024-02-22 |
|
Codelab
כלים
|
פריסה והפעלה של n8n ב-Google Cloud Run ב-Codelab הזה תלמדו איך לפרוס ב-Cloud Run מופע מוכן לייצור של כלי האוטומציה של תהליכי העבודה n8n, כולל מסד נתונים של Cloud SQL לשימור נתונים ו-Secret Manager למידע אישי רגיש. |
2025-11-20 |
|
Codelab
GPUs
LLMs
|
איך מריצים הסקה של LLM במעבדים גרפיים של Cloud Run באמצעות vLLM ו-OpenAI Python SDK Codelab זה מראה איך לפרוס את מודל Gemma 2 2b של Google שעבר כוונון להוראות ב-Cloud Run עם GPUs, באמצעות vLLM כמנוע היקש ו-OpenAI Python SDK כדי לבצע השלמת משפטים. |
2025-11-13 |
|
ADK
Agents
Codelab
|
פריסה, ניהול ומעקב של סוכן ADK ב-Cloud Run ב-Codelab הזה תלמדו איך לפרוס, לנהל ולנטר סוכן חזק שנבנה באמצעות ערכה לפיתוח סוכנים (ADK) ב-Cloud Run. |
2025-11-12 |
|
Codelab
Gemini CLI
MCP
|
איך פורסים שרת MCP מאובטח ב-Cloud Run ב-codelab הזה מוסבר איך לפרוס שרת מאובטח של Model Context Protocol (MCP) ב-Cloud Run ואיך להתחבר אליו מ-Gemini CLI. |
2025-10-28 |
|
ADK
Agents
Codelab
MCP
|
פיתוח ופריסה של סוכן ADK שמשתמש בשרת MCP ב-Cloud Run Codelab זה מנחה אתכם בבנייה ובפריסה של סוכן AI שמשתמש בכלים באמצעות ערכה לפיתוח סוכנים (ADK). הסוכן מתחבר לשרת MCP מרוחק כדי לקבל את הכלים שלו, והוא נפרס כקונטיינר ב-Cloud Run. |
2025-10-27 |
|
מודלים של AI
משימות ב-Cloud Run
Codelab
Model tuning
|
איך מבצעים כוונון עדין של מודל LLM באמצעות Cloud Run Jobs ה-Codelab הזה מספק מדריך מפורט על איך להשתמש ב-Cloud Run Jobs עם GPUs כדי לבצע כוונון עדין של מודל Gemma 3 במערך הנתונים Text2Emoji, ואז להפעיל את המודל שנוצר בשירות Cloud Run עם vLLM. |
2025-10-21 |
|
הסקת מסקנות באצווה
משימות ב-Cloud Run
Codelab
|
איך מריצים הסקת מסקנות באצווה במשימות של Cloud Run ב-Codelab הזה תלמדו איך להשתמש בעבודת Cloud Run שמבוססת על GPU כדי להריץ היקש באצווה במודל Llama 3.2-1b ולכתוב את התוצאות ישירות לקטגוריה של Cloud Storage. |
2025-10-21 |
|
ADK
Agents
Codelab
GPUs
LLMs
MCP
|
Lab 3:Prototype to Production - Deploy Your ADK Agent to Cloud Run with GPU ב-Codelab הזה תלמדו איך לפרוס סוכן של ערכה לפיתוח סוכנים (ADK) שמוכן לייצור עם בק-אנד של Gemma מואץ GPU ב-Cloud Run. ב-codelab מוסבר על פריסה, שילוב ובדיקת ביצועים. |
2025-10-03 |
|
Agents
Codelab
|
איך פורסים אפליקציית Gradio frontend שקוראת לסוכן ADK backend, כששניהם פועלים ב-Cloud Run ה-Codelab הזה מדגים איך לפרוס אפליקציה דו-שכבתית ב-Cloud Run, שכוללת קצה קדמי של Gradio ובק-אנד של ADK Agent, עם דגש על הטמעה של תקשורת מאובטחת ומאומתת בין שירותים. |
2025-09-29 |
|
Codelab
Gemini
|
איך פורסים אפליקציית צ'אטבוט של FastAPI ב-Cloud Run באמצעות Gemini ב-Codelab הזה תלמדו איך לפרוס אפליקציית צ'אט בוט של FastAPI ב-Cloud Run. |
2025-04-02 |
|
פונקציות Cloud Run
Codelab
LLMs
|
איך לארח מודל LLM ב-sidecar עבור פונקציית Cloud Run בשיעור הזה תלמדו איך לארח מודל gemma3:4b ב-sidecar עבור פונקציית Cloud Run. |
2025-03-27 |
|
קהילה
אבטחה
|
קריאה מאובטחת לשירות Cloud Run מכל מקום במאמר הזה מופיעה דוגמה לקוד Python שמקבל אסימון זהות כדי לקרוא בצורה מאובטחת לשירות Cloud Run מאומת מכל סביבה. בדוגמה הזו נעשה שימוש ב-Application Default Credentials (ADC) כדי לאמת את הקריאה. |
2025-10-15 |
|
מודלים של AI
קהילה
RAG
|
AI ללא שרת: הטמעה של Gemma באמצעות Cloud Run במאמר הזה מוסבר איך להוסיף את מודל EmbeddingGemma לקונטיינר ולפרוס אותו ב-Cloud Run עם מעבדי GPU, ואז להשתמש בו כדי ליצור אפליקציית RAG. |
2025-09-24 |
|
קהילה
אבטחה
|
שרשרת אמון ל-AI: אבטחת ארכיטקטורת MCP Toolbox ב-Cloud Run במאמר הזה ננתח אפליקציה פשוטה להזמנת חדרים במלון שנבנתה ב-Google Cloud. הוא מדגים מודל אבטחה חזק של אפס אמון באמצעות זהויות שירות, ומראה איך נוצר שרשרת אמון מאובטחת ממשתמש הקצה ועד למסד הנתונים. |
2025-09-03 |
|
מודלים של AI
קהילה
Containerization
Docker
Ollama
RAG
|
AI בלי שרת (serverless): Qwen3 Embeddings עם Cloud Run במאמר הזה מוסבר איך לפרוס את מודל ה-Embedding Qwen3 ב-Cloud Run עם מעבדי GPU. במאמר מוסבר גם על קונטיינריזציה באמצעות Docker ו-Ollama, ומוצגת דוגמה לשימוש בהם באפליקציית RAG. |
2025-08-20 |
|
ארכיטקטורה
קהילה
LLMs
|
עדיין אורזים מודלים של AI בקונטיינרים? במקום זאת, אפשר לעשות את זה ב-Cloud Run במאמר הזה אנחנו מציעים ארכיטקטורה יעילה יותר וניתנת להרחבה להפעלת מודלים גדולים של שפה (LLM) ב-Cloud Run. הארכיטקטורה הזו מבוססת על הפרדה בין קובצי המודל לבין קונטיינר האפליקציה, ושימוש ב-Cloud Storage FUSE במקום זאת. |
2025-08-11 |
|
מודלים של AI
קהילה
|
יצירת גנרטור פודקאסטים מבוסס-AI באמצעות Gemini ו-Cloud Run במאמר הזה מוסבר איך ליצור כלי ליצירת פודקאסטים מבוסס-AI ללא שרת, שמשתמש ב-Gemini לסיכום תוכן וב-Cloud Run. בדוגמה הזו מוצג צינור אוטומטי לעיבוד נתונים ליצירה ולשליחה של תדריכים יומיים של אודיו מפידים של RSS. |
2025-08-11 |
|
קהילה
MCP
|
הפעלת שרתי MCP באמצעות Google Cloud Run במאמר הזה נסביר מה המטרה של פרוטוקול הקשר של המודל (MCP) ונספק מדריך להגדרה ולפריסה של שרת MCP ב-Cloud Run כדי לחשוף משאבים ככלים לאפליקציות AI. |
2025-07-09 |
|
קהילה
מודלים של למידת מכונה
Monitoring
|
פריסה ומעקב אחרי מודלים של ML באמצעות Cloud Run – קל משקל, ניתן להתאמה וחסכוני במאמר הזה מוסבר איך לפרוס מודל למידת מכונה ב-Cloud Run, לעקוב אחרי הביצועים שלו ולשנות את גודל המודל באופן אוטומטי. כדי לעשות את זה, משתמשים במערכת קלה למעקב עם שירותי Google Cloud כדי לעקוב אחרי הביצועים ולשלוט בעלויות. |
2025-05-29 |
|
מודלים של AI
AI Studio
קהילה
LLMs
|
הטמעה של Gemma ישירות מ-AI Studio ב-Cloud Run במאמר הזה מופיע מדריך מפורט שמסביר איך לקחת מודל Gemma מ-AI Studio, להתאים את הקוד שלו לייצור ולפרוס אותו כאפליקציית אינטרנט מבוססת-קונטיינר ב-Cloud Run. |
2025-05-29 |
|
ADK
Agents
קהילה
MCP
|
שלושת מרכיבי הארכיטקטורה של הסוכן: ADK, MCP ו-Cloud Run במאמר הזה נסביר איך לבנות ארכיטקטורה של סוכן AI על ידי הגדרת תהליך עבודה של Agent Development Kit (ADK) שמתקשר עם שרת Model Context Protocol (MCP) שמתארח ב-Cloud Run כדי לנהל הזמנות של טיסות. |
2025-05-27 |
|
A2A
Agents
קהילה
Frameworks
תרחישים לדוגמה
|
הסבר על פרוטוקול Agent2Agent (A2A) עם תרחיש לדוגמה של עוזר קניות ב-Cloud Run במאמר הזה נסביר על פרוטוקול Agent2Agent (A2A) ונדגים את השימוש בו באפליקציית קנייה אישית. אפליקציית Cloud Run מכילה כמה סוכני AI, שנבנו באמצעות מסגרות שונות, והם משתפים פעולה ביניהם כדי למלא הזמנה של משתמש. |
2025-05-15 |
|
מודלים של AI
אוטומציה
CI/CD
קהילה
GitHub
|
אוטומציה של פריסת מודלים של ML באמצעות GitHub Actions ו-Cloud Run במאמר הזה מוסבר איך ליצור צינור CI/CD באמצעות GitHub Actions כדי להפוך לאוטומטיות את הבנייה והפריסה של מודלים של למידת מכונה כשירותים מבוססי-קונטיינר ב-Cloud Run. |
2025-05-08 |
|
קהילה
LLMs
אבטחה
|
פיתוח פתרונות AI ריבוניים באמצעות Google Cloud – Cloud Run במאמר הזה מוסבר איך ליצור ולפרוס פתרון AI ריבוני ב-Google Cloud באמצעות Sovereign Controls by Partners. בדוגמאות מופעל מודל Gemma ב-Cloud Run, כדי להבטיח את מיקום הנתונים ועמידה בתקנות האירופאיות. |
2025-04-03 |
|
קהילה
LLMs
|
From Zero to Deepseek on Cloud Run during my morning commute במאמר הזה מוסבר איך לפרוס במהירות את מודל Deepseek R1 ב-Cloud Run עם מעבדי GPU באמצעות Ollama במהלך נסיעה בבוקר. במאמר הזה נסביר על נושאים מתקדמים כמו הטמעת המודל במאגר, בדיקות A/B עם פיצול תנועה והוספת ממשק משתמש לאינטרנט עם מאגר sidecar. |
2025-02-11 |
|
קהילה
LLMs
Ollama
|
איך מריצים (כל) מודל שפה גדול (LLM) בקוד פתוח באמצעות Ollama ב-Google Cloud Run [הוראות מפורטות] במאמר הזה מוסבר איך לארח כל מודל שפה גדול (LLM) בקוד פתוח, כמו Gemma 2, ב-Google Cloud Run באמצעות Ollama. במאמר מוסבר גם איך ליצור קטגוריה של Cloud Storage לשמירת המודל ואיך לבדוק את הפריסה. |
2025-01-20 |
|
קהילה
מודלים של למידת מכונה
|
פריסה של מודלים של למידת מכונה ללא שרת עם מעבדי GPU באמצעות Google Cloud: Cloud Run במאמר הזה מוסבר איך לפרוס מודל של למידת מכונה (ML) עם תמיכה ב-GPU ב-Cloud Run. במאמר מוסבר על כל השלבים, החל מהגדרת הפרויקט והפיכת האפליקציה לקונטיינר, ועד לפריסה אוטומטית באמצעות Cloud Build ובדיקה באמצעות curl ו-JavaScript. |
2025-01-17 |