הרצת הסקת מסקנות של LLM במעבדי GPU ב-Cloud Run באמצעות vLLM
קל לארגן דפים בעזרת אוספים
אפשר לשמור ולסווג תוכן על סמך ההעדפות שלך.
ב-Codelab הבא מוסבר איך להריץ שירות לקצה העורפי שמריץ את vLLM, שהוא מנוע היקש למערכות Production, יחד עם Gemma 2 של Google, שהוא מודל עם 2 מיליארד פרמטרים שעבר כוונון להוראות.
[[["התוכן קל להבנה","easyToUnderstand","thumb-up"],["התוכן עזר לי לפתור בעיה","solvedMyProblem","thumb-up"],["סיבה אחרת","otherUp","thumb-up"]],[["התוכן קשה להבנה","hardToUnderstand","thumb-down"],["שגיאות בקוד לדוגמה או במידע","incorrectInformationOrSampleCode","thumb-down"],["חסרים לי פרטים או דוגמאות","missingTheInformationSamplesINeed","thumb-down"],["בעיה בתרגום","translationIssue","thumb-down"],["סיבה אחרת","otherDown","thumb-down"]],["עדכון אחרון: 2026-03-05 (שעון UTC)."],[],[]]