Llama ist eine Sammlung offener Modelle, die von Meta entwickelt wurden und die Sie in Vertex AI optimieren und bereitstellen können. Llama bietet vortrainierte und anhand von Anleitungen abgestimmte generative Text- und multimodale Modelle.
Llama 4
Die Llama 4-Modellfamilie ist eine Sammlung multimodaler Modelle, die die MoE-Architektur (Mixture of Experts) verwenden. Bei der Verwendung der MoE-Architektur können Modelle mit sehr vielen Parametern für jeden Eingabewert einen Teil dieser Parameter aktivieren, was zu effizienteren Inferenzen führt. Außerdem verwendet Llama 4 die frühe Fusion, bei der Text- und Bildinformationen aus den ersten Verarbeitungsphasen integriert werden. So können Llama 4-Modelle komplexe, nuancierte Beziehungen zwischen Text und Bildern effektiver erfassen. Model Garden in Vertex AI bietet zwei Llama 4-Modelle: Llama 4 Scout und Llama 4 Maverick.
Weitere Informationen finden Sie auf der Modellkarte Llama 4 in Model Garden oder im Blogpost Llama 4 in Vertex AI.
Llama 4 Maverick
Llama 4 Maverick ist das größte und leistungsstärkste Llama 4-Modell und bietet branchenführende Funktionen für Codierung, Schlussfolgerung und Bildbenchmarks. Es umfasst 17 Milliarden aktive Parameter von insgesamt 400 Milliarden Parametern mit 128 Experten. Llama 4 Maverick verwendet abwechselnd dichte und MoE-Ebenen, wobei jedes Token einen gemeinsamen Experten sowie einen der 128 gerouteten Experten aktiviert. Sie können das Modell als vortrainiertes (PT) Modell oder als ‑ mit FP8-Unterstützung ‑ ‑Anweisung optimiertes (IT) Modell verwenden. Das Modell wurde mit 200 Sprachen vorab trainiert und durch eine optimierte Pipeline nach dem Training für hochwertige Chatinteraktionen optimiert.
Llama 4 Maverick ist multimodal und hat eine Kontextlänge von 1 Million. Sie eignet sich für erweiterte Bilduntertitel, Analysen, präzises Bildverständnis, visuelle Fragen und Antworten, kreative Textgenerierung, KI-Assistenten für allgemeine Zwecke und ausgefeilte Chatbots, die eine hohe Intelligenz und Bildwahrnehmung erfordern.
Llama 4 Scout
Llama 4 Scout liefert mit einem großen Kontextfenster von 10 Millionen Tokens Spitzenergebnisse für seine Größenklasse. Es schneidet bei mehreren Benchmarks besser ab als frühere Llama-Generationen und andere offene und proprietäre Modelle. Es enthält 17 Milliarden aktive Parameter von insgesamt 109 Milliarden Parametern mit 16 Experten und ist als vortrainiertes (PT) oder anhand von Anweisungen optimiertes (IT) Modell verfügbar. Llama 4 Scout eignet sich für Abrufaufgaben in langen Kontexten und Aufgaben, die eine Argumentation über große Mengen an Informationen erfordern, z. B. die Zusammenfassung mehrerer großer Dokumente, die Analyse umfangreicher Nutzerinteraktionsprotokolle für die Personalisierung und die Argumentation in großen Codebasen.
Llama 3.3
Llama 3.3 ist ein anweisungensoptimiertes Modell mit 70 Billionen Parametern, das bei Verwendung für reine Textanwendungen eine bessere Leistung als Llama 3.1 70B und Llama 3.2 90B bietet. Bei einigen Anwendungen erreicht Llama 3.3 70B sogar fast die Leistung von Llama 3.1 405B.
Weitere Informationen finden Sie auf der Modellkarte Llama 3.3 in Model Garden.
Llama 3.2
Mit Llama 3.2 können Entwickler die neuesten generativen KI-Modelle und ‑Anwendungen erstellen und bereitstellen, die die Funktionen von Llama nutzen, um neue Ideen zu entwickeln, z. B. Bildreasoning. Llama 3.2 ist außerdem für Anwendungen auf Geräten besser zugänglich. In der folgenden Liste sind die Funktionen von Llama 3.2 aufgeführt:
- Bietet eine privatere und personalisiertere KI-Nutzung mit Verarbeitung auf dem Gerät für kleinere Modelle.
- Bietet Modelle, die effizienter sind, eine geringere Latenz haben und eine bessere Leistung bieten. Sie eignen sich daher für eine Vielzahl von Anwendungen.
- Basiert auf dem Llama-Stack, der das Erstellen und Bereitstellen von Anwendungen vereinfacht. Llama Stack ist eine standardisierte Schnittstelle zum Erstellen kanonischer Toolchain-Komponenten und Agent-Anwendungen.
- Unterstützt Vision-Aufgaben mit einer neuen Modellarchitektur, die Bild-Encoder-Darstellungen in das Sprachmodell einbindet.
Die Modelle 1B und 3B sind schlanke Modelle für die reine Textverarbeitung, die Anwendungsfälle auf dem Gerät unterstützen, z. B. die mehrsprachige Abfrage von lokalem Wissen, Zusammenfassungen und Umformulierungen.
Die Llama 11B- und 90B-Modelle sind kleine und mittelgroße multimodale Modelle mit Bildreasoning. So können sie beispielsweise visuelle Daten aus Diagrammen analysieren, um genauere Antworten zu geben, und Details aus Bildern extrahieren, um Textbeschreibungen zu generieren.
Weitere Informationen finden Sie auf der Modellkarte Llama 3.2 in Model Garden.
Hinweise
Bei der Verwendung von 11B und 90B gibt es keine Einschränkungen beim Senden von Prompts, die nur aus Text bestehen. Wenn Sie jedoch ein Bild in Ihren Prompt aufnehmen, muss es sich am Anfang des Prompts befinden und Sie dürfen nur ein Bild hinzufügen. Sie können beispielsweise keinen Text und dann ein Bild einfügen.
Llama 3.1
Die Llama 3.1-Sammlung mehrsprachiger Large Language Models (LLMs) ist eine Sammlung vortrainierter und anweisungsorientierter generativer Modelle in den Größen 8B, 70B und 405B (Text-in/Text-Ausgang). Die Llama 3.1-Anweisungen abgestimmten Textmodelle (8B, 70B, 405B) sind für mehrsprachige Dialoganwendungsfälle optimiert und übertreffen viele der verfügbaren Open-Source- und geschlossenen Chatmodelle im Vergleich zu gängigen Branchen-Benchmarks.
Weitere Informationen finden Sie auf der Llama 3.1-Modellkarte in Model Garden.
Llama 3
Die anweisungsoptimierten Llama 3-Modelle sind eine Sammlung von LLMs, die für Dialoganwendungsfälle optimiert sind. Llama 3-Modelle schneiden bei gängigen Branchenbenchmarks besser ab als viele der verfügbaren Open-Source-Chatmodelle.
Weitere Informationen finden Sie auf der Llama 3-Modellkarte in Model Garden.
Llama 2
Die Llama 2-LLMs sind eine Sammlung vortrainierter und fein abgestimmter generativer Textmodelle mit einer Größe von 7 B bis 70 B Parametern.
Weitere Informationen finden Sie auf der Modellkarte Llama 2 in Model Garden.
Code Llama
Die Code Llama-Modelle von Meta sind für Codesynthese, -verständnis und -anweisungen konzipiert.
Weitere Informationen finden Sie auf der Modellkarte Code Lama in Model Garden.
Llama Guard 3
Llama Guard 3 baut auf den Funktionen von Llama Guard 2 auf und fügt drei neue Kategorien hinzu: Verleumdung, Wahlen und Missbrauch des Code Interpreters. Darüber hinaus ist dieses Modell mehrsprachig und hat ein Prompt-Format, das mit Llama 3- oder späteren Modellen übereinstimmt.
Weitere Informationen finden Sie auf der Modellkarte Llama Guard in Model Garden.
Ressourcen
Weitere Informationen zu Model Garden finden Sie unter KI-Modelle in Model Garden entdecken.