MiniMax-Modelle

MiniMax-Modelle sind für die Verwendung als verwaltete APIs und selbst bereitgestellte Modelle in Vertex AI verfügbar. Sie können Ihre Antworten streamen, um die vom Endnutzer wahrgenommene Latenz zu reduzieren. Eine gestreamte Antwort verwendet vom Server gesendete Ereignisse (SSE, Server-Sent Events), um die Antwort schrittweise zu streamen.

Verwaltete MiniMax-Modelle

MiniMax-Modelle bieten vollständig verwaltete und serverlose Modelle als APIs. Wenn Sie ein MiniMax-Modell für Vertex AI verwenden möchten, senden Sie eine Anfrage direkt an den API-Endpunkt von Vertex AI. Wenn Sie MiniMax-Modelle als verwaltete API verwenden, müssen Sie keine Infrastruktur bereitstellen oder verwalten.

Die folgenden Modelle sind von MiniMax zur Verwendung in Vertex AI verfügbar. Rufen Sie die zugehörige Model Garden-Modellkarte auf, um auf ein MiniMax-Modell zuzugreifen.

MiniMax M2

MiniMax M2 ist ein Modell von MiniMax, das für agentenbezogene und codebezogene Aufgaben entwickelt wurde. Sie wurde für End-to-End-Entwicklungs-Workflows entwickelt und bietet leistungsstarke Funktionen für die Planung und Ausführung komplexer Tool-Aufgaben. Das Modell ist für ein ausgewogenes Verhältnis von Leistung, Kosten und Inferenzgeschwindigkeit optimiert.

Zur MiniMax M2-Modellkarte

MiniMax-Modelle verwenden

Für verwaltete Modelle können Sie curl-Befehle verwenden, um Anfragen mit den folgenden Modellnamen an den Vertex AI-Endpunkt zu senden:

  • Verwenden Sie für MiniMax M2 minimax-m2-maas.

Informationen zum Ausführen von Streaming- und Nicht-Streaming-Aufrufen für MiniMax-Modelle finden Sie unter Open-Model-APIs aufrufen.

So verwenden Sie ein selbst bereitgestelltes Vertex AI-Modell:

  1. Rufen Sie die Model Garden-Konsole auf.
  2. Suchen Sie das entsprechende Vertex AI-Modell.
  3. Klicken Sie auf Aktivieren und füllen Sie das bereitgestellte Formular aus, um die erforderlichen Lizenzen für die kommerzielle Nutzung zu erhalten.

Weitere Informationen zum Bereitstellen und Verwenden von Partnermodellen finden Sie unter Partnermodell bereitstellen und Vorhersageanfragen stellen .

Regionale Verfügbarkeit von MiniMax-Modellen

MiniMax-Modelle sind in den folgenden Regionen verfügbar:

Modell Regionen
MiniMax M2
  • global
    • Maximale Ausgabe: 196.608
    • Kontextlänge: 196.608

Nächste Schritte

Informationen zum Aufrufen von APIs für offene Modelle