Für Übersetzungsaufgaben bietet generative KI in Vertex AI zwei spezielle Übersetzungsmodelle aus der Cloud Translation API:
Translation LLM: Das neueste Übersetzungsangebot von Google, das auf einem LLM basiert und höchste Qualität bietet. Bietet Übersetzungen von höchster Qualität bei angemessenen Latenzen (ca. dreimal schneller als Gemini 2.0 Flash).
NMÜ-Modell (neuronale maschinelle Übersetzung) von Cloud Translation: Das erstklassige Echtzeitübersetzungsangebot von Google mit einer Latenz von etwa 100 ms. Es bietet die höchste Qualität aller Modelle, die bei vergleichbaren Latenzen getestet wurden, und die Qualität wird kontinuierlich verbessert. NMT kann Latenzen erreichen, die bis zu 20-mal schneller sind als bei Gemini 2.0 Flash.
Wichtige Vorteile und Unterscheidungsmerkmale des Übersetzungs-LLM
- Unübertroffene Übersetzungsqualität: Translation LLM bietet die höchste Übersetzungsqualität und erzielt bei Benchmarks im Vergleich zu anderen Modellen eine deutlich höhere Leistung. Das Translation LLM formuliert Sätze viel eher um, damit sie in der Zielsprache natürlicher klingen, anstatt weniger natürliche „Wort-für-Wort“-Übersetzungen zu liefern, die oft in anderen Übersetzungsmodellen zu finden sind.
- Hervorragendes Verhältnis zwischen Qualität und Latenz: Das Translation LLM bietet LLM-basierte Übersetzungen mit einer deutlich geringeren Latenz als Gemini 2.0 Flash. Das Translation LLM hat zwar eine höhere Latenz als das NMÜ-Modell, liefert aber in der Regel qualitativ hochwertigere Antworten für eine Vielzahl von Anwendungen.
Vergleich der Modellfunktionen
Funktion | Übersetzungs-LLM (basierend auf Gemini) | NMÜ-Modell |
---|---|---|
Beschreibung | Ein auf Übersetzungen spezialisiertes Large Language Model, das auf Gemini basiert und für Übersetzungen optimiert wurde. Verfügbar mit Generative AI in Vertex AI und der Cloud Translation – Advanced API. | Das NMT-Modell (Neural Machine Translation) von Google ist über die APIs Cloud Translation Advanced und Cloud Translation Basic verfügbar . Für Einfachheit und Skalierbarkeit optimiert. |
Qualität | Übersetzung in höchster Qualität: Übertrifft NMÜ, Gemini 2.0 Flash und Gemini 2.5 Pro in Bezug auf die Qualität. Sätze werden eher umgeschrieben, um einen natürlichen Fluss zu erreichen. Deutliche Fehlerreduzierung | Mittlere bis hohe Qualität, je nach Sprachpaar. Eines der leistungsstärksten Echtzeit-NMÜ-Modelle für viele Sprach- und Domänenkombinationen. |
Latenz | Die Latenz ist deutlich besser als bei Gemini 2.0 Flash, aber immer noch langsamer als bei NMT. | Schnellste Echtzeit-Übersetzung. Niedrige Latenz, geeignet für Chat- und Echtzeitanwendungen. Bis zu 20-mal geringere Latenz als bei Gemini 2.0 Flash |
Sprachunterstützung | Zu den unterstützten Sprachen gehören Deutsch, Arabisch, Chinesisch, Tschechisch, Niederländisch, Englisch, Französisch, Hindi, Indonesisch, Italienisch, Japanisch, Koreanisch, Polnisch, Portugiesisch, Russisch, Spanisch, Thailändisch, Türkisch, Ukrainisch und Vietnamesisch. Eine vollständige Liste finden Sie unter Unterstützte Sprachen. | Unterstützte Sprachen sind unter anderem Kantonesisch, Fidschianisch und Balinesisch. Übersetzungen aus einer beliebigen Sprache in eine beliebige andere Sprache in der Liste der unterstützten Sprachen sind möglich. Eine vollständige Liste finden Sie unter Unterstützte Sprachen. |
Anpassung | Unterstützung für erweiterte Glossare, überwachte Feinabstimmung in Vertex AI für domänen- und kundenspezifische Anpassungen sowie adaptive Übersetzung für die Echtzeit-Stilanpassung mit wenigen Beispielen. | Unterstützung für Glossare zur Steuerung der Terminologie und zum Trainieren benutzerdefinierter Modelle mit AutoML Translation in der Cloud Translation Advanced API. |
Übersetzungsfunktionen | HTML-Übersetzung | HTML-, Batch- und Übersetzung formatierter Dokumente |
API-Integration | Cloud Translation – Advanced API, Vertex AI API | Cloud Translation – Basic API, Cloud Translation – Advanced API, Vertex AI API |
Nutzung
In diesem Abschnitt wird gezeigt, wie Sie mit Vertex AI Studio Text schnell von einer Sprache in eine andere übersetzen. Sie können das Übersetzungs-LLM oder das NMÜ-Modell verwenden, um Text mithilfe der Google Cloud Console oder API zu übersetzen. Die von den einzelnen Modellen unterstützten Sprachen können variieren. Bevor Sie Übersetzungen anfordern, prüfen Sie, ob das von Ihnen verwendete Modell Ihre Ausgangs- und Zielsprachen unterstützt.
Konsole
Rufen Sie im Bereich „Vertex AI“ der Google Cloud Console die Seite Text übersetzen in Vertex AI Studio auf.
Wählen Sie im Bereich Ausführungseinstellungen ein Übersetzungsmodell im Feld Modell aus.
Wenn Sie die Modelleinstellungen ändern möchten, z. B. die Temperatur, maximieren Sie Erweitert.
Legen Sie die Ausgangs- und Zielsprachen fest.
Geben Sie in das Eingabefeld den Text ein, den Sie übersetzen möchten.
Klicken Sie auf Senden.
Klicken Sie auf
Code abrufen, um den Code oder den curl-Befehl abzurufen, mit dem gezeigt wird, wie Sie Übersetzungen anfordern.
Hinweis: In Vertex AI Studio können Sie mit dem Translation LLM Beispielübersetzungen bereitstellen, um die Modellantworten besser auf Ihren Stil, Ihren Ton und Ihre Branchendomain zuzuschneiden. Das Modell verwendet Ihre Beispiele als Few-Shot-Kontext, bevor Ihr Text übersetzt wird.
API
Wählen Sie das Modell für Ihre Übersetzungen aus.
Übersetzungs-LLM
Verwenden Sie die Vertex AI API und das Übersetzungs-LLM, um Text zu übersetzen.
REST
Ersetzen Sie diese Werte in den folgenden Anfragedaten:
- PROJECT_NUMBER_OR_ID: Die numerische oder alphanumerische ID Ihres Google Cloud -Projekts
- LOCATION: Der Standort, an dem Sie diesen Vorgang ausführen möchten.
Beispiel:
us-central1
. - SOURCE_LANGUAGE_CODE: Der Sprachcode des Eingabetexts. Legen Sie einen der unter adaptive Übersetzung aufgeführten Sprachcodes fest.
- TARGET_LANGUAGE_CODE: die Zielsprache, in die der Eingabetext übersetzt werden soll. Legen Sie einen der unter adaptive Übersetzung aufgeführten Sprachcodes fest.
- SOURCE_TEXT: Text in der Ausgangssprache, der übersetzt werden soll.
- MIME_TYPE (optional): Das Format des Quelltexts, z. B.
text/html
odertext/plain
. Standardmäßig ist der MIME-Typ auftext/plain
festgelegt.
HTTP-Methode und URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/cloud-translate-text:predict
JSON-Text anfordern:
{ "instances": [ { "source_language_code": "SOURCE_LANGUAGE_CODE", "target_language_code": "TARGET_LANGUAGE_CODE", "contents": [ "SOURCE_TEXT" ], "mimeType": "MIME_TYPE", "model": "projects/PROJECT_ID/locations/LOCATION/models/general/translation-llm" } ] }
Wenn Sie die Anfrage senden möchten, maximieren Sie eine der folgenden Optionen:
Sie sollten eine JSON-Antwort ähnlich wie diese erhalten:
{ "predictions": [ { "translations": [ { "translatedText": "TRANSLATED_TEXT", "model": "projects/PROJECT_ID/locations/LOCATION/models/general/translation-llm" } ] } ] }
Node.js
Bevor Sie dieses Beispiel anwenden, folgen Sie den Node.js-Einrichtungsschritten in der Vertex AI-Kurzanleitung zur Verwendung von Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Node.js API.
Richten Sie zur Authentifizierung bei Vertex AI Standardanmeldedaten für Anwendungen ein. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
async function translate() { const request = { instances: [{ source_language_code: SOURCE_LANGUAGE_CODE, target_language_code: TARGET_LANGUAGE_CODE, contents: [SOURCE_TEXT], model: "projects/PROJECT_ID/locations/LOCATION/models/general/translation-llm" }] }; const {google} = require('googleapis'); const aiplatform = google.cloud('aiplatform'); const endpoint = aiplatform.predictionEndpoint('projects/PROJECT_ID/locations/LOCATION/publishers/google/models/cloud-translate-text'); const [response] = await endpoint.predict(request) console.log('Translating') console.log(response) }
Python
Bevor Sie dieses Beispiel anwenden, folgen Sie den Python-Einrichtungsschritten in der Vertex AI-Kurzanleitung zur Verwendung von Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Python API.
Richten Sie zur Authentifizierung bei Vertex AI Standardanmeldedaten für Anwendungen ein. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
from google.cloud import aiplatform def translate(): # Create a client client_options = {"api_endpoint": "LOCATION-aiplatform.googleapis.com"} client = aiplatform.gapic.PredictionServiceClient(client_options=client_options) # Initialize the request endpoint_id = f"projects/PROJECT_ID/locations/LOCATION/publishers/google/models/cloud-translate-text" instances=[{ "model": "projects/PROJECT_ID/locations/LOCATION/models/general/translation-llm", "source_language_code": 'SOURCE_LANGUAGE_CODE', "target_language_code": 'TARGET_LANGUAGE_CODE', "contents": ["SOURCE_TEXT"], }] # Make the request response = client.predict(instances=instances, endpoint=endpoint_id) # Handle the response print(response)
NMÜ
Verwenden Sie die Cloud Translation API und das NMÜ-Modell zum Übersetzen von Text.
REST
Ersetzen Sie diese Werte in den folgenden Anfragedaten:
- PROJECT_NUMBER_OR_ID: Die numerische oder alphanumerische ID Ihres Google Cloud -Projekts.
- SOURCE_LANGUAGE: (Optional) der Sprachcode des Eingabetexts. Die unterstützten Sprachcodes finden Sie unter Sprachunterstützung.
- TARGET_LANGUAGE: die Zielsprache, in die der Eingabetext übersetzt werden soll. Legen Sie einen der unterstützten Sprachcodes fest.
- SOURCE_TEXT: Zu übersetzender Text.
HTTP-Methode und URL:
POST https://translation.googleapis.com/v3/projects/PROJECT_ID:translateText
JSON-Text anfordern:
{ "sourceLanguageCode": "SOURCE_LANGUAGE", "targetLanguageCode": "TARGET_LANGUAGE", "contents": ["SOURCE_TEXT1", "SOURCE_TEXT2"] }
Wenn Sie die Anfrage senden möchten, maximieren Sie eine der folgenden Optionen:
Sie sollten eine JSON-Antwort ähnlich wie diese erhalten:
{ "translations": [ { "translatedText": "TRANSLATED_TEXT1" }, { "translatedText": "TRANSLATED_TEXT2" } ] }
Node.js
Bevor Sie dieses Beispiel anwenden, folgen Sie den Node.js-Einrichtungsschritten in der Vertex AI-Kurzanleitung zur Verwendung von Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Node.js API.
Richten Sie zur Authentifizierung bei Vertex AI Standardanmeldedaten für Anwendungen ein. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
Python
Bevor Sie dieses Beispiel anwenden, folgen Sie den Python-Einrichtungsschritten in der Vertex AI-Kurzanleitung zur Verwendung von Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Python API.
Richten Sie zur Authentifizierung bei Vertex AI Standardanmeldedaten für Anwendungen ein. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
Benutzerdefinierte Übersetzungen
Passen Sie die Antworten des Übersetzungs-LLM an, indem Sie Ihre eigenen Beispielübersetzungen bereitstellen. Benutzerdefinierte Übersetzungen funktionieren nur mit dem Übersetzungs-LLM.
Sie können eine benutzerdefinierte Übersetzung über die Vertex AI Studio-Konsole oder API mit einem Unterschied anfordern. Die Console unterstützt benutzerdefinierte Übersetzungen nur, wenn Sie Beispiele in einer TMX- oder TSV-Datei bereitstellen. Die API unterstützt benutzerdefinierte Übersetzungen nur, wenn Sie Beispiele (bis zu fünf Satzpaare) inline als Teil der Übersetzungsanfrage angeben.
Datenanforderungen
Wenn Sie Beispielübersetzungen in einer Datei für die Google Cloud -Konsole bereitstellen, müssen die Beispiele als Segmentpaare in einer TMX- oder TSV-Datei geschrieben werden. Jedes Paar enthält ein Segment der Ausgangssprache und das übersetzte Gegenstück. Weitere Informationen finden Sie in der Cloud Translation-Dokumentation unter Beispielübersetzungen vorbereiten.
Fügen Sie spezifische Beispiele aus einer Vielzahl von Szenarien hinzu, um möglichst genaue Ergebnisse zu erhalten. Sie müssen mindestens fünf Satzpaare, aber nicht mehr als 10.000 Paare einbeziehen. Außerdem darf ein Segmentpaar maximal 512 Zeichen lang sein.
Konsole
Rufen Sie im Bereich „Vertex AI“ der Google Cloud Console die Seite Text übersetzen in Vertex AI Studio auf.
Konfigurieren Sie im Bereich Ausführungseinstellungen Ihre Übersetzungseinstellungen.
- Wählen Sie im Feld Modell die Option Übersetzungs-LLM aus.
- Wenn Sie die Temperatur ändern möchten, maximieren Sie Erweitert.
Klicken Sie auf Beispiele hinzufügen.
- Wählen Sie eine lokale Datei oder eine Datei aus Cloud Storage aus. Vertex AI Studio bestimmt die Ausgangs- und Zielsprachen anhand Ihrer Datei.
- Wählen Sie die Anzahl von Beispielen aus, die das Modell verwenden soll, bevor eine Antwort generiert wird.
Die Anzahl der ausgewählten Beispiele wird auf die Zeichenbeschränkung von 3.000 Eingabezeichen pro Anfrage angerechnet.
Geben Sie in das Eingabefeld den Text ein, den Sie übersetzen möchten.
Klicken Sie auf Senden.
Vertex AI wählt automatisch die von Ihnen angegebene Anzahl von Referenzsätzen aus, die Ihrer Eingabe am ähnlichsten sind. Das Übersetzungsmodell identifiziert Muster aus Ihren Beispielen und wendet diese Muster dann beim Generieren einer Antwort an.
Das Ausgabelimit pro Anfrage beträgt 3.000 Zeichen. Jedweder Text jenseits dieses Limits wird gelöscht.
Klicken Sie auf
Code abrufen, um den Code oder den curl-Befehl abzurufen, mit dem gezeigt wird, wie Sie Übersetzungen anfordern.
API
Wenn Sie benutzerdefinierte Übersetzungen anfordern möchten, fügen Sie Ihrer Übersetzungsanfrage bis zu fünf Referenzsatzpaare hinzu. Das Übersetzungsmodell verwendet alle diese, um Muster aus Ihren Beispielen zu identifizieren. Diese Muster werden dann beim Generieren einer Antwort angewendet.
REST
Ersetzen Sie diese Werte in den folgenden Anfragedaten:
- PROJECT_NUMBER_OR_ID: Die numerische oder alphanumerische ID Ihres Google Cloud -Projekts
- LOCATION: Der Standort, an dem Sie diesen Vorgang ausführen möchten.
Beispiel:
us-central1
. - REFERENCE_SOURCE: Ein Satz in der Ausgangssprache, der Teil eines Referenzsatzpaars ist.
- REFERENCE_TARGET: Ein Satz in der Zielsprache, der Teil eines Referenzsatzpaars ist.
- SOURCE_LANGUAGE: Der Sprachcode des Eingabetexts.
- TARGET_LANGUAGE: die Zielsprache, in die der Eingabetext übersetzt werden soll.
- SOURCE_TEXT: Text in der Ausgangssprache, der übersetzt werden soll.
- MIME_TYPE (optional): Das Format des Quelltexts, z. B.
text/html
odertext/plain
. Standardmäßig ist der MIME-Typ auftext/plain
festgelegt.
HTTP-Methode und URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/translate-llm:predict
JSON-Text anfordern:
{ "instances": [ { "reference_sentence_config": { "reference_sentence_pair_lists": [ { "reference_sentence_pairs": [ { "source_sentence": "REFERENCE_SOURCE_1_1", "target_sentence": "REFERENCE_TARGET_1_1" }, { "source_sentence": "REFERENCE_SOURCE_1_2", "target_sentence": "REFERENCE_SOURCE_1_2" } ] } ], "source_language_code": "SOURCE_LANGUAGE_CODE", "target_language_code": "TARGET_LANGUAGE_CODE" }, "content": [ "SOURCE_TEXT" ], "mimeType": "MIME_TYPE" } ] }
Wenn Sie die Anfrage senden möchten, maximieren Sie eine der folgenden Optionen:
Sie sollten eine JSON-Antwort ähnlich wie diese erhalten:
{ "predictions": [ { "languageCode": "TARGET_LANGUAGE", "translations": [ { "translatedText": "TRANSLATED_TEXT" } ] } ] }
Node.js
Bevor Sie dieses Beispiel anwenden, folgen Sie den Node.js-Einrichtungsschritten in der Vertex AI-Kurzanleitung zur Verwendung von Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Node.js API.
Richten Sie zur Authentifizierung bei Vertex AI Standardanmeldedaten für Anwendungen ein. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
async function translate() { const request = { instances: [{ "reference_sentence_config": { "reference_sentence_pair_lists": [{ "reference_sentence_pairs": [{ "source_sentence": 'SAMPLE_REFERENCE_SOURCE_1', "target_sentence": 'SAMPLE_REFERENCE_TARGET_1' }, "reference_sentence_pairs": { "source_sentence": 'SAMPLE_REFERENCE_SOURCE_2', "target_sentence": 'SAMPLE_REFERENCE_TARGET_2' }] }], "source_language_code": 'SOURCE_LANGUAGE_CODE', "target_language_code": 'TARGET_LANGUAGE_CODE' }, "contents": ["SOURCE_TEXT"] }] }; const {google} = require('googleapis'); const aiplatform = google.cloud('aiplatform'); const endpoint = aiplatform.predictionEndpoint('projects/PROJECT_ID/locations/LOCATION/publishers/google/models/translate-llm'); const [response] = await endpoint.predict(request) console.log('Translating') console.log(response) }
Python
Bevor Sie dieses Beispiel anwenden, folgen Sie den Python-Einrichtungsschritten in der Vertex AI-Kurzanleitung zur Verwendung von Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Python API.
Richten Sie zur Authentifizierung bei Vertex AI Standardanmeldedaten für Anwendungen ein. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
from google.cloud import aiplatform from google.protobuf.json_format import MessageToDict def translate(): # Create a client client_options = {"api_endpoint": "LOCATION-aiplatform.googleapis.com"} client = aiplatform.gapic.PredictionServiceClient(client_options=client_options) # Initialize the request endpoint_id = f"projects/PROJECT_ID/locations/LOCATION/publishers/google/models/translate-llm" instances=[{ "reference_sentence_config": { "reference_sentence_pair_lists": [{ "reference_sentence_pairs": [{ "source_sentence": 'SAMPLE_REFERENCE_SOURCE_1', "target_sentence": 'SAMPLE_REFERENCE_TARGET_1' }, { "source_sentence": 'SAMPLE_REFERENCE_SOURCE_2', "target_sentence": 'SAMPLE_REFERENCE_TARGET_2' }] }], "source_language_code": 'SOURCE_LANGUAGE_CODE', "target_language_code": 'TARGET_LANGUAGE_CODE' }, "content": ["SOURCE_TEXT"] }] # Make the request response = client.predict( endpoint=endpoint_id, instances=instances, ) # Handle the response print(response) # The predictions are a google.protobuf.Value representation of the model's predictions. predictions = MessageToDict(response._pb)['predictions'] for prediction in predictions: print(prediction['translations'])
Sie können die Cloud Translation API auch verwenden, um ein Dataset zu erstellen und Ihre Beispielsatzpaare zu importieren. Wenn Sie die Cloud Translation API zum Anfordern von Übersetzungen verwenden, können Sie Ihr Dataset einschließen, um Antworten anzupassen. Das Dataset bleibt bestehen und kann mit mehreren Übersetzungsanfragen wiederverwendet werden. Weitere Informationen finden Sie in der Cloud Translation-Dokumentation unter Adaptive Übersetzungen anfordern.
Unterstützte Sprachen
Übersetzungs-LLM
Mit dem Übersetzungs-LLM können Sie in jede und aus jeder der folgenden Sprachen übersetzen.
Sprache | Sprachcode |
---|---|
Arabisch | ar |
Bengalisch | bn |
Bulgarisch | bg |
Katalanisch | ca |
Chinesisch (vereinfacht) | zh-CN |
Kroatisch | hr |
Tschechisch | cs |
Dänisch | da |
Niederländisch | nl |
Englisch | en |
Estnisch | et |
Finnisch | fi |
Französisch | fr |
Deutsch | de |
Griechisch | el |
Gujarati | gu |
Hebräisch | he |
Hindi | hi |
Ungarisch | hu |
Isländisch | is |
Indonesisch | id |
Italienisch | it |
Japanisch | ja |
Kannada | kn |
Koreanisch | ko |
Lettisch | lv |
Litauisch | lt |
Malayalam | ml |
Marathi | mr |
Norwegisch | no |
Persisch | fa |
Polnisch | pl |
Portugiesisch | pt |
Panjabi | pa |
Rumänisch | ro |
Russisch | ru |
Slowakisch | sk |
Slowenisch | sl |
Spanisch | es |
Swahili | sw |
Schwedisch | sv |
Tamil | ta |
Telugu | te |
Thailändisch | th |
Türkisch | tr |
Ukrainisch | uk |
Urdu | ur |
Vietnamesisch | vi |
Zulu | zu |
NMÜ
Informationen dazu, welche Sprachen vom NMÜ-Modell von Cloud Translation unterstützt werden, finden Sie in der folgenden Dokumentation: