Vertex AI unterstützt eine ausgewählte Liste von Partner- und Open-Source-Modellen als verwaltete Modelle. Diese Modelle können mit Vertex AI als Model as a Service (MaaS) verwendet werden und werden als verwaltete API angeboten. Wenn Sie ein verwaltetes Modell verwenden, senden Sie Ihre Anfragen weiterhin an Vertex AI-Endpunkte. Verwaltete Modelle sind serverlos, sodass Sie keine Infrastruktur bereitstellen oder verwalten müssen.
Verwaltete Modelle können mithilfe von Model Garden gefunden werden. Sie können Modelle auch mit Model Garden bereitstellen. Weitere Informationen finden Sie unter KI-Modelle in Model Garden entdecken.
Partnermodelle
Die folgenden Partnermodelle werden als verwaltete APIs im Vertex AI Model Garden (MaaS) angeboten:
| Modellname | Modalität | Beschreibung | Kurzanleitung |
|---|---|---|---|
| Claude Opus 4.5 | Sprache, Vision | Claude Opus 4.5 ist die nächste Generation des intelligentesten Modells von Anthropic und branchenführend in den Bereichen Programmierung, Agenten, Computernutzung und Unternehmensworkflows. | Modellkarte |
| Claude Sonnet 4.5 | Sprache, Vision | Das mittelgroße Modell von Anthropic für die Unterstützung von KI-Agenten in der realen Welt mit Funktionen für die Programmierung, Computernutzung, Cybersicherheit und die Arbeit mit Office-Dateien wie Tabellenkalkulationen. | Modellkarte |
| Claude Opus 4.1 | Sprache, Vision | Ein Branchenführer für Programmierung. Sie bietet eine nachhaltige Leistung bei langwierigen Aufgaben, die konzentrierte Anstrengung und Tausende von Schritten erfordern. Dadurch wird das Spektrum der Aufgaben, die KI-Agenten lösen können, erheblich erweitert. Ideal für die Nutzung in zukunftsweisenden Agentenprodukten und ‑funktionen. | Modellkarte |
| Claude Haiku 4.5 | Sprache, Vision | Claude Haiku 4.5 bietet eine Leistung, die fast an die von Frontier-Modellen heranreicht, und das für eine Vielzahl von Anwendungsfällen. Es ist eines der besten Modelle für die Programmierung weltweit – mit der richtigen Geschwindigkeit und den richtigen Kosten für kostenlose Produkte und Nutzererfahrungen mit hohem Volumen. | Modellkarte |
| Claude Opus 4 | Sprache, Vision | Claude Opus 4 bietet eine nachhaltige Leistung bei langwierigen Aufgaben, die konzentrierten Aufwand und Tausende von Schritten erfordern. Dadurch wird das Spektrum der Aufgaben, die KI-Agents lösen können, erheblich erweitert. | Modellkarte |
| Claude Sonnet 4 | Sprache, Vision | Das mittelgroße Modell von Anthropic mit überlegener Intelligenz für den umfangreichen Einsatz, z. B. in den Bereichen Programmierung, eingehende Recherche und KI-Agenten. | Modellkarte |
| Anthropic Claude 3.5 Sonnet v2 | Sprache, Vision | Das aktualisierte Claude 3.5 Sonnet ist ein hochmodernes Modell für reale Softwareentwicklungsaufgaben und für von KI-Agenten zu übernehmende Aufgaben. Claude 3.5 Sonnet bietet diese Verbesserungen zum gleichen Preis und mit der gleichen Geschwindigkeit wie sein Vorgänger. | Modellkarte |
| Claude 3.5 Haiku von Anthropic | Sprache, Vision | Claude 3.5 Haiku, die nächste Generation des schnellsten und kostengünstigsten Modells von Anthropic, eignet sich optimal für Anwendungsfälle, bei denen es auf Geschwindigkeit und Kosteneinsparungen ankommt. | Modellkarte |
| Claude 3 Haiku von Anthropic | Sprache | Das schnellste Vision- und Textmodell von Anthropic, das nahezu sofortige Antworten auf einfache Anfragen liefert und dabei menschliche Interaktionen nachahmt. | Modellkarte |
| Claude 3.5 Sonnet von Anthropic | Sprache | Claude 3.5 Sonnet übertrifft Claude 3 Opus von Anthropic in einer Vielzahl von Bewertungen von Anthropic mit der Geschwindigkeit und den Kosten des Mid-Tier-Modells von Anthropic, Claude 3 Sonnet. | Modellkarte |
| Jamba 1.5 Large (Vorschau) | Sprache | Jamba 1.5 Large von AI21 Labs wurde für Antworten mit überlegener Qualität, hohen Durchsatz und wettbewerbsfähige Preise im Vergleich zu anderen Modellen seiner Größenklasse entwickelt. | Modellkarte |
| Jamba 1.5 Mini (Vorschau) | Sprache | Jamba 1.5 Mini von AI21 Labs bietet ein gutes Gleichgewicht zwischen Qualität, Durchsatz und niedrigen Kosten. | Modellkarte |
| Mistral Medium 3 | Sprache | Mistral Medium 3 ist ein vielseitiges Modell, das für eine Vielzahl von Aufgaben entwickelt wurde, darunter Programmierung, mathematisches Denken, das Verstehen langer Dokumente, Zusammenfassung und Dialog. | Modellkarte |
| Mistral OCR (25.05) | Sprache, Vision | Mistral OCR (25.05) ist eine OCR-API (Optical Character Recognition, optische Zeichenerkennung) für das Dokumentverständnis. Das Modell erfasst jedes Element von Dokumenten, z. B. Medien, Text, Tabellen und Gleichungen. | Modellkarte |
| Mistral Small 3.1 (25.03) | Sprache | Mistral Small 3.1 (25.03) ist die aktuelle Version des Small-Modells von Mistral mit multimodalen Funktionen und einer erweiterten Kontextlänge. | Modellkarte |
| Mistral Large (24.11) | Sprache | Mistral Large (24.11) ist die nächste Version des Modells Mistral Large (24.07) mit verbesserten Funktionen für logisches Denken und Funktionsaufrufe. | Modellkarte |
| Codestral 2 | Sprache, Code | Codestral 2 ist ein von Mistral speziell für die Codegenerierung entwickeltes Modell, das speziell für die hochpräzise Vervollständigung von FIM (Fill-in-the-Middle) entwickelt wurde. Es unterstützt Entwickler beim Schreiben von Code und bei der Interaktion mit Code über einen gemeinsamen API-Endpunkt für Anweisungen und Vervollständigungen. | Modellkarte |
| Codestral (25.01) | Code | Ein hochmodernes Modell, das für die Codegenerierung entwickelt wurde, einschließlich Fill-in-the-Middle und Codevervollständigung. | Modellkarte |
Offene Modelle
Die folgenden offenen Modelle werden als verwaltete APIs in Vertex AI Model Garden (MaaS) angeboten:
| Modellname | Modalität | Beschreibung | Kurzanleitung |
|---|---|---|---|
| DeepSeek-OCR | Sprache, Vision | Ein umfassendes OCR-Modell (Optical Character Recognition, optische Zeichenerkennung), das komplexe Dokumente analysiert und versteht. Sie eignet sich hervorragend für anspruchsvolle OCR-Aufgaben. | Modellkarte |
| DeepSeek R1 (0528) | Sprache | Die aktuelle Version des DeepSeek R1-Modells von DeepSeek. | Modellkarte |
| DeepSeek-V3.1 | Sprache | Das Hybridmodell von DeepSeek, das sowohl den Thinking-Modus als auch den Nicht-Thinking-Modus unterstützt. | Modellkarte |
| gpt-oss 120B | Sprache | Ein 120B-Modell, das bei Aufgaben zur logischen Ableitung eine hohe Leistung bietet. | Modellkarte |
| gpt-oss 20B | Sprache | Ein 20B-Modell, das für Effizienz und Bereitstellung auf Consumer- und Edge-Hardware optimiert ist. | Modellkarte |
| Kimi K2 Thinking | Sprache | Ein Open-Source-Thinking-Agent-Modell, das schrittweise Schlussfolgerungen zieht und Tools verwendet, um komplexe Probleme zu lösen. | Modellkarte |
| Llama 3.1 | Sprache |
Eine Sammlung mehrsprachiger LLMs, die für mehrsprachige Dialoganwendungsfälle optimiert sind und viele der verfügbaren Open-Source- und geschlossenen Chatmodelle bei gängigen Branchenbenchmarks übertreffen. Llama 3.1 405B ist allgemein verfügbar. Llama 3.1 8B und Llama 3.1 70B sind in der Vorabversion verfügbar. |
Modellkarte |
| Llama 3.2 (Vorabversion) | Sprache, Vision | Ein mittelgroßes multimodales Modell mit 90 Milliarden Parametern, das Bildanalyse wie die Analyse von Diagrammen und Grafiken sowie die Bilduntertitelung unterstützt. | Modellkarte |
| Llama 3.3 | Sprache | Llama 3.3 ist ein reines Textmodell mit 70 Milliarden Parametern, das auf Anweisungen abgestimmt ist und im Vergleich zu Llama 3.1 70B und Llama 3.2 90B eine verbesserte Leistung bei reinen Textanwendungen bietet. Außerdem erreicht Llama 3.3 70B bei einigen Anwendungen die Leistung von Llama 3.1 405B. | Modellkarte |
| Llama 4 Maverick 17B-128E | Sprache, Vision | Das größte und leistungsstärkste Llama 4-Modell mit Funktionen für Programmierung, Reasoning und Bilder. Llama 4 Maverick 17B-128E ist ein multimodales Modell, das die MoE-Architektur (Mixture of Experts) und Early Fusion verwendet. | Modellkarte |
| Llama 4 Scout 17B-16E | Sprache, Vision | Llama 4 Scout 17B-16E liefert für seine Größenklasse erstklassige Ergebnisse und übertrifft frühere Llama-Generationen sowie andere offene und proprietäre Modelle bei mehreren Benchmarks. Llama 4 Scout 17B-16E ist ein multimodales Modell, das die MoE-Architektur (Mixture of Experts) und Early Fusion verwendet. | Modellkarte |
| MiniMax M2 | Sprache, Code | Für Agent- und codebezogene Aufgaben konzipiert, mit starken Fähigkeiten bei der Planung und Ausführung komplexer Tool-Aufrufe. | Modellkarte |
| Qwen3 235B | Sprache | Ein Modell mit offenem Gewicht und der Fähigkeit zum „hybriden Denken“, um zwischen methodischem Denken und schnellen Gesprächen zu wechseln. | Modellkarte |
| Qwen3 Coder | Sprache, Code | Ein Open-Weight-Modell, das für anspruchsvolle Softwareentwicklungsaufgaben entwickelt wurde. | Modellkarte |
| Qwen3-Next-80B Instruct | Sprache, Code | Ein Modell aus der Qwen3-Next-Modellfamilie, das auf die Ausführung bestimmter Befehle spezialisiert ist. | Modellkarte |
| Qwen3-Next-80B Thinking | Sprache, Code | Ein Modell aus der Modellfamilie Qwen3-Next, das auf komplexe Problemlösung und tiefes logisches Denken spezialisiert ist. | Modellkarte |
Nächste Schritte
- Weitere Informationen zu offenen Vertex AI-Modellen für MaaS
- Informationen zum Aufrufen von APIs für offene Modelle