Text übersetzen

Auf dieser Seite erfahren Sie, wie Sie mit Vertex AI Studio Text schnell von einer Sprache in eine andere übersetzen. Translation in Vertex AI Studio bietet die Wahl zwischen Gemini und zwei speziellen Übersetzungsmodellen, darunter das NMÜ-Modell (Neural Machine Translation) von Cloud Translation und ein optimiertes LLM für Übersetzungen (auch als Übersetzungs-LLM bezeichnet).

Wenn Sie das Übersetzungs-LLM verwenden, können Sie die Antworten mithilfe von Beispielübersetzungen anpassen, sodass die Antworten besser Ihrem Stil, Ihrem Ton und Ihrer Branchendomain entsprechen. Das Modell verwendet Ihre Beispiele als Few-Shot-Kontext, bevor Ihr Text übersetzt wird. In Vertex AI Studio funktioniert diese Anpassung nur mit dem Übersetzungs-LLM. Sie können beispielsweise keine Beispiele übergeben, wenn Sie Gemini oder das NMÜ-Modell verwenden.

Unterstützte Sprachen

Die von den einzelnen Modellen unterstützten Sprachen können variieren. Bevor Sie Übersetzungen anfordern, prüfen Sie, ob das von Ihnen verwendete Modell Ihre Ausgangs- und Zielsprachen unterstützt.

Übersetzungs-LLM

Beim Übersetzungs-LLM können Sie in jedes und aus jedem der folgenden Sprachpaare übersetzen:

  • Chinesisch (vereinfacht) <-> Englisch
  • Französisch <-> Englisch
  • Deutsch <-> Englisch
  • Italienisch <-> Englisch
  • Japanisch <-> Englisch
  • Koreanisch <-> Englisch
  • Portugiesisch <-> Englisch
  • Spanisch <-> Englisch

Gemini und NMÜ

Informationen dazu, welche Sprachen Gemini und das NMÜ-Modell unterstützen, finden Sie in der folgenden Dokumentation:

Text übersetzen

Verwenden Sie das Übersetzungs-LLM, Gemini- oder NMÜ-Modell, um Text mithilfe der Google Cloud Console oder API zu übersetzen.

Console

  1. Rufen Sie im Bereich „Cloud Translation“ der Google Cloud Console die Seite Text übersetzen in Vertex AI Studio auf.

    Zu Vertex AI Studio

  2. Wählen Sie im Bereich Ausführungseinstellungen ein Übersetzungsmodell im Feld Modell aus.

  3. Wenn Sie die Modelleinstellungen ändern möchten, z. B. die Temperatur, maximieren Sie Erweitert.

  4. Legen Sie die Ausgangs- und Zielsprachen fest.

  5. Geben Sie den zu übersetzenden Text in das Eingabefeld ein.

  6. Klicken Sie auf Senden.

  7. Klicken Sie auf Code abrufen, um den Code oder den curl-Befehl abzurufen, mit dem gezeigt wird, wie Sie Übersetzungen anfordern.

API

Wählen Sie das Modell für Ihre Übersetzungen aus.

Übersetzungs-LLM

Verwenden Sie die Vertex AI API und Übersetzungs-LLM, um Text zu übersetzen.

REST

Ersetzen Sie diese Werte in den folgenden Anfragedaten:

  • PROJECT_NUMBER_OR_ID: Die numerische oder alphanumerische ID Ihres Google Cloud-Projekts
  • LOCATION: Der Standort, an dem Sie diesen Vorgang ausführen möchten. Beispiel: us-central1.
  • SOURCE_LANGUAGE_CODE: Der Sprachcode des Eingabetexts. Legen Sie einen der unter adaptive Übersetzung aufgeführten Sprachcodes fest.
  • TARGET_LANGUAGE_CODE: die Zielsprache, in die der Eingabetext übersetzt werden soll. Legen Sie einen der unter adaptive Übersetzung aufgeführten Sprachcodes fest.
  • SOURCE_TEXT: Text in der Ausgangssprache, der übersetzt werden soll.

HTTP-Methode und URL:

POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/cloud-translate-text:predict

JSON-Text anfordern:

"instances": [{
  "source_language_code": "SOURCE_LANGUAGE_CODE",
  "target_language_code": "TARGET_LANGUAGE_CODE",
  "contents": ["SOURCE_TEXT"],
  "model": "projects/PROJECT_ID/locations/LOCATION/models/general/translation-llm"
}]

Wenn Sie die Anfrage senden möchten, maximieren Sie eine der folgenden Optionen:

Sie sollten eine JSON-Antwort ähnlich wie diese erhalten:

{
  "translations": [
    {
      "translatedText": "TRANSLATED_TEXT"
    }
  ],
  "languageCode": "TARGET_LANGUAGE"
}

Node.js

Folgen Sie der Einrichtungsanleitung für Node.js in der Cloud Translation-Kurzanleitung zur Verwendung von Clientbibliotheken, bevor Sie dieses Beispiel anwenden. Weitere Informationen finden Sie in der Referenzdokumentation zu Cloud Translation Node.js API.

Richten Sie die Standardanmeldedaten für Anwendungen ein, um sich bei Cloud Translation zu authentifizieren. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.

async function translate() {
  const request = {
    instances: [{
      source_language_code: SOURCE_LANGUAGE_CODE,
      target_language_code: TARGET_LANGUAGE_CODE,
      contents: [SOURCE_TEXT],
      model: "projects/PROJECT_ID/locations/LOCATION/models/general/translation-llm"
    }]
  };
  const {google} = require('googleapis');
  const aiplatform = google.cloud('aiplatform');
  const endpoint = aiplatform.predictionEndpoint('projects/PROJECT_ID/locations/LOCATION/publishers/google/models/cloud-translate-text');

  const [response] = await endpoint.predict(request)
  console.log('Translating')
  console.log(response)
}
      

Python

Folgen Sie der Einrichtungsanleitung für Python in der Cloud Translation-Kurzanleitung zur Verwendung von Clientbibliotheken, bevor Sie dieses Beispiel anwenden. Weitere Informationen finden Sie in der Referenzdokumentation zu Cloud Translation Python API.

Richten Sie die Standardanmeldedaten für Anwendungen ein, um sich bei Cloud Translation zu authentifizieren. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.

from google.cloud import aiplatform

def translate():
  # Create a client
  endpoint = aiplatform.Endpoint('projects/PROJECT_ID/locations/LOCATION/publishers/google/models/cloud-translate-text')
  # Initialize the request
  instances=[{
      "source_language_code": 'SOURCE_LANGUAGE_CODE',
      "target_language_code": 'TARGET_LANGUAGE_CODE',
      "contents": ["SOURCE_TEXT"],
      "model": "projects/PROJECT_ID/locations/LOCATION/models/general/translation-llm"
  }]
  # Make the request
  response = endpoint.predict(instances=instances)
  # Handle the response
  print(response)
      

Gemini

Verwenden Sie die Vertex AI API und Gemini zum Übersetzen von Text.

Sie können Gemini-Antworten über offene Prompts und Prompt Engineering weiter anpassen.

REST

Ersetzen Sie diese Werte in den folgenden Anfragedaten:

  • PROJECT_NUMBER_OR_ID: Die numerische oder alphanumerische ID Ihres Google Cloud-Projekts.
  • LOCATION: Der Standort, an dem die Anfrage verarbeitet werden soll. Folgende Optionen sind verfügbar:

    Klicken, um verfügbare Regionen zu maximieren

    • us-central1
    • us-west4
    • northamerica-northeast1
    • us-east4
    • us-west1
    • asia-northeast3
    • asia-southeast1
    • asia-northeast1
  • MODEL_ID: Die ID des Modells, z. B. gemini-1.0-pro-002.
  • SOURCE_LANGUAGE_CODE: Die Sprache des Eingabetexts.
  • TARGET_LANGUAGE_CODE: die Zielsprache, in die der Eingabetext übersetzt werden soll.
  • SOURCE_TEXT: Zu übersetzender Text.
  • TEMPERATURE: Die Temperatur wird für die Probenahme während der Antwortgenerierung verwendet. Dies passiert, wenn topP und topK angewendet werden. Die Temperatur bestimmt den Grad der Zufälligkeit bei der Tokenauswahl. Niedrigere Temperaturen eignen sich gut für Prompts, die eine weniger offene oder kreative Antwort erfordern, während höhere Temperaturen zu vielfältigeren oder kreativeren Ergebnissen führen können. Eine Temperatur von 0 bedeutet, dass immer die Tokens mit der höchsten Wahrscheinlichkeit ausgewählt werden. In diesem Fall sind die Antworten auf einen bestimmten Prompt größtenteils deterministisch, aber eine gewisse Variation ist dennoch möglich.

    Wenn das Modell eine zu allgemeine oder zu kurze Antwort zurückgibt, oder wenn das Modell eine Fallback-Antwort ausgibt, versuchen Sie, die Temperatur zu erhöhen.

  • TOP_P: Der Wert „Top-P“ ändert, wie das Modell Tokens für die Ausgabe auswählt. Die Tokens werden von den wahrscheinlichsten (siehe „Top-K“) bis zu den unwahrscheinlichsten Werten ausgewählt, bis die Summe ihrer Wahrscheinlichkeiten dem „Top-P“-Wert entspricht. Beispiel: Wenn die Tokens A, B und C eine Wahrscheinlichkeit von 0,3, 0,2 und 0,1 haben und der „Top-P“-Wert 0.5 ist, wählt das Modell anhand der Temperatur entweder A oder B als das nächste Token und C als Kandidaten ausschließen.

    Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an.

  • TOP_K: Der Wert „Top-K“ ändert, wie das Modell Tokens für die Ausgabe auswählt. Ein „Top-K“ von 1 bedeutet, dass das nächste ausgewählte Token unter den Tokens im Modell-Vokabular (auch als gierige Decodierung bezeichnet) am wahrscheinlichsten ist, während ein „Top-K“ von3 bedeutet, dass das nächste Token mithilfe der Temperatur aus den drei wahrscheinlichsten Tokens ausgewählt wird.

    Für jeden Tokenauswahlschritt werden die „Top-K“-Tokens mit den höchsten Wahrscheinlichkeiten abgetastet. Anschließend werden Tokens weiter auf der Grundlage von „Top-P“ gefiltert, wobei das endgültige Token mithilfe von Temperaturproben ausgewählt wird.

    Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an.

  • MAX_OUTPUT_TOKENS: Maximale Anzahl an Tokens, die in der Antwort generiert werden können. Ein Token besteht aus etwa vier Zeichen. 100 Tokens entsprechen etwa 60–80 Wörtern.

    Geben Sie kürzere Werte für kürzere Antworten und höhere Werte für längere Antworten an.

  • SAFETY_CATEGORY: Die Sicherheitskategorie, für die ein Schwellenwert konfiguriert wird. Unter anderem sind folgende Werte zulässig:

    Zum Maximieren von Sicherheitskategorien klicken

    • HARM_CATEGORY_SEXUALLY_EXPLICIT
    • HARM_CATEGORY_HATE_SPEECH
    • HARM_CATEGORY_HARASSMENT
    • HARM_CATEGORY_DANGEROUS_CONTENT
  • THRESHOLD: Der Schwellenwert für das Blockieren von Antworten, die basierend auf der Wahrscheinlichkeit zur angegebenen Sicherheitskategorie gehören könnten. Unter anderem sind folgende Werte zulässig:

    Zum Maximieren der Grenzwerte für die Blockierung klicken

    • BLOCK_NONE
    • BLOCK_ONLY_HIGH
    • BLOCK_MEDIUM_AND_ABOVE (Standard)
    • BLOCK_LOW_AND_ABOVE
    BLOCK_LOW_AND_ABOVE blockiert am meisten, während BLOCK_ONLY_HIGH am wenigsten blockiert.

HTTP-Methode und URL:

POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/MODEL_ID:streamGenerateContent

JSON-Text anfordern:

{
  "contents": [
    {
      "role": "user",
      "parts": [
        {
        "text": "SOURCE_LANGUAGE_CODE: SOURCE_TEXT\nTARGET_LANGUAGE_CODE:"
        }
      ]
    }
  ],
  "generation_config": {
    "temperature": TEMPERATURE,
    "topP": TOP_P,
    "topK": TOP_K,
    "candidateCount": 1,
    "maxOutputTokens": MAX_OUTPUT_TOKENS
  }
  "safetySettings": [
    {
      "category": "SAFETY_CATEGORY",
      "threshold": "THRESHOLD"
    }
  ]
}

Wenn Sie die Anfrage senden möchten, maximieren Sie eine der folgenden Optionen:

Sie sollten einen erfolgreichen Statuscode (2xx) und eine leere Antwort als Ausgabe erhalten.

Node.js

Folgen Sie der Einrichtungsanleitung für Node.js in der Cloud Translation-Kurzanleitung zur Verwendung von Clientbibliotheken, bevor Sie dieses Beispiel anwenden. Weitere Informationen finden Sie in der Referenzdokumentation zu Cloud Translation Node.js API.

Richten Sie die Standardanmeldedaten für Anwendungen ein, um sich bei Cloud Translation zu authentifizieren. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.

const {VertexAI} = require('@google-cloud/vertexai');

// Initialize Vertex with your Cloud project and location
const vertex_ai = new VertexAI({project: 'PROJECT_ID', location: 'LOCATION'});
const model = 'gemini-1.0-pro';

// Instantiate the models
const generativeModel = vertex_ai.preview.getGenerativeModel({
  model: model,
  generationConfig: {
    'candidate_count': 1,
    'max_output_tokens': MAX_OUTPUT_TOKENS,
    'temperature': TEMPERATURE,
    'top_p': TOP_P,
    'top_k': TOP_K,
  },
  safetySettings: [
    {
        'category': 'HARM_CATEGORY_HATE_SPEECH',
        'threshold': 'BLOCK_MEDIUM_AND_ABOVE'
    },
    {
        'category': 'HARM_CATEGORY_DANGEROUS_CONTENT',
        'threshold': 'BLOCK_MEDIUM_AND_ABOVE'
    },
    {
        'category': 'HARM_CATEGORY_SEXUALLY_EXPLICIT',
        'threshold': 'BLOCK_MEDIUM_AND_ABOVE'
    },
    {
        'category': 'HARM_CATEGORY_HARASSMENT',
        'threshold': 'BLOCK_MEDIUM_AND_ABOVE'
    }
  ],
});


async function generateContent() {
  const req = {
    contents: [
      {role: 'user', parts: [{text: `SOURCE_LANGUAGE_CODE: TEXT
TARGET_LANGUAGE_CODE:`}]}
    ],
  };

  const streamingResp = await generativeModel.generateContentStream(req);

  for await (const item of streamingResp.stream) {
    process.stdout.write('stream chunk: ' + JSON.stringify(item) + '\n');
  }

  process.stdout.write('aggregated response: ' + JSON.stringify(await streamingResp.response));
}

generateContent();
      

Python

Folgen Sie der Einrichtungsanleitung für Python in der Cloud Translation-Kurzanleitung zur Verwendung von Clientbibliotheken, bevor Sie dieses Beispiel anwenden. Weitere Informationen finden Sie in der Referenzdokumentation zu Cloud Translation Python API.

Richten Sie die Standardanmeldedaten für Anwendungen ein, um sich bei Cloud Translation zu authentifizieren. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.

import base64
import vertexai
from vertexai.generative_models import GenerativeModel, Part, FinishReason
import vertexai.preview.generative_models as generative_models

def generate():
  vertexai.init(project="PROJECT_ID", location="LOCATION")
  model = GenerativeModel("gemini-1.0-pro")
  responses = model.generate_content(
      ["""SOURCE_LANGUAGE_CODE: TEXT
TARGET_LANGUAGE_CODE:"""],
      generation_config=generation_config,
      safety_settings=safety_settings,
  )

  print(responses)


generation_config = {
    "candidate_count": 1,
    "max_output_tokens": MAX_OUTPUT_TOKENS,
    "temperature": TEMPERATURE,
    "top_p": TOP_P,
    "top_k": TOP_K,
}

safety_settings = {
    generative_models.HarmCategory.HARM_CATEGORY_HATE_SPEECH: generative_models.HarmBlockThreshold.BLOCK_MEDIUM_AND_ABOVE,
    generative_models.HarmCategory.HARM_CATEGORY_DANGEROUS_CONTENT: generative_models.HarmBlockThreshold.BLOCK_MEDIUM_AND_ABOVE,
    generative_models.HarmCategory.HARM_CATEGORY_SEXUALLY_EXPLICIT: generative_models.HarmBlockThreshold.BLOCK_MEDIUM_AND_ABOVE,
    generative_models.HarmCategory.HARM_CATEGORY_HARASSMENT: generative_models.HarmBlockThreshold.BLOCK_MEDIUM_AND_ABOVE,
}

generate()
      

NMÜ

Verwenden Sie die Cloud Translation API und das NMÜ-Modell zum Übersetzen von Text.

REST

Ersetzen Sie diese Werte in den folgenden Anfragedaten:

  • PROJECT_NUMBER_OR_ID: Die numerische oder alphanumerische ID Ihres Google Cloud-Projekts.
  • SOURCE_LANGUAGE: (Optional) der Sprachcode des Eingabetexts. Die unterstützten Sprachcodes finden Sie unter Sprachunterstützung.
  • TARGET_LANGUAGE: die Zielsprache, in die der Eingabetext übersetzt werden soll. Legen Sie einen der unterstützten Sprachcodes fest.
  • SOURCE_TEXT: Zu übersetzender Text.

HTTP-Methode und URL:

POST https://translation.googleapis.com/v3/projects/PROJECT_ID:translateText

JSON-Text anfordern:

{
  "sourceLanguageCode": "SOURCE_LANGUAGE",
  "targetLanguageCode": "TARGET_LANGUAGE",
  "contents": ["SOURCE_TEXT1", "SOURCE_TEXT2"]
}

Wenn Sie die Anfrage senden möchten, maximieren Sie eine der folgenden Optionen:

Sie sollten eine JSON-Antwort ähnlich wie diese erhalten:

{
  "translations": [
    {
      "translatedText": "TRANSLATED_TEXT1"
    },
    {
      "translatedText": "TRANSLATED_TEXT2"
    }
  ]
}

Node.js

Folgen Sie der Einrichtungsanleitung für Node.js in der Cloud Translation-Kurzanleitung zur Verwendung von Clientbibliotheken, bevor Sie dieses Beispiel anwenden. Weitere Informationen finden Sie in der Referenzdokumentation zu Cloud Translation Node.js API.

Richten Sie die Standardanmeldedaten für Anwendungen ein, um sich bei Cloud Translation zu authentifizieren. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.

/**
 * TODO(developer): Uncomment these variables before running the sample.
 */
// const projectId = 'YOUR_PROJECT_ID';
// const location = 'global';
// const text = 'text to translate';

// Imports the Google Cloud Translation library
const {TranslationServiceClient} = require('@google-cloud/translate');

// Instantiates a client
const translationClient = new TranslationServiceClient();

async function translateText() {
  // Construct request
  const request = {
    parent: `projects/${projectId}/locations/${location}`,
    contents: [text],
    mimeType: 'text/plain', // mime types: text/plain, text/html
    sourceLanguageCode: 'en',
    targetLanguageCode: 'sr-Latn',
  };

  // Run request
  const [response] = await translationClient.translateText(request);

  for (const translation of response.translations) {
    console.log(`Translation: ${translation.translatedText}`);
  }
}

translateText();

Python

Folgen Sie der Einrichtungsanleitung für Python in der Cloud Translation-Kurzanleitung zur Verwendung von Clientbibliotheken, bevor Sie dieses Beispiel anwenden. Weitere Informationen finden Sie in der Referenzdokumentation zu Cloud Translation Python API.

Richten Sie die Standardanmeldedaten für Anwendungen ein, um sich bei Cloud Translation zu authentifizieren. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.

# Imports the Google Cloud Translation library
from google.cloud import translate


# Initialize Translation client
def translate_text(
    text: str = "YOUR_TEXT_TO_TRANSLATE", project_id: str = "YOUR_PROJECT_ID"
) -> translate.TranslationServiceClient:
    """Translating Text."""

    client = translate.TranslationServiceClient()

    location = "global"

    parent = f"projects/{project_id}/locations/{location}"

    # Translate text from English to French
    # Detail on supported types can be found here:
    # https://cloud.google.com/translate/docs/supported-formats
    response = client.translate_text(
        request={
            "parent": parent,
            "contents": [text],
            "mime_type": "text/plain",  # mime types: text/plain, text/html
            "source_language_code": "en-US",
            "target_language_code": "fr",
        }
    )

    # Display the translation for each input text provided
    for translation in response.translations:
        print(f"Translated text: {translation.translated_text}")

    return response

Benutzerdefinierte Übersetzungen

Passen Sie die Antworten des Übersetzungs-LLM an, indem Sie Ihre eigenen Beispielübersetzungen bereitstellen. Benutzerdefinierte Übersetzungen funktionieren nur mit dem Übersetzungs-LLM.

Sie können eine benutzerdefinierte Übersetzung über die Vertex AI Studio-Konsole oder API mit einem Unterschied anfordern. Die Console unterstützt benutzerdefinierte Übersetzungen nur, wenn Sie Beispiele in einer TMX- oder TSV-Datei bereitstellen. Die API unterstützt benutzerdefinierte Übersetzungen nur, wenn Sie Beispiele (bis zu fünf Satzpaare) inline als Teil der Übersetzungsanfrage angeben.

Datenanforderungen

Wenn Sie Beispielübersetzungen in einer Datei für die Google Cloud Console bereitstellen, müssen die Beispiele als Segmentpaare in einer TMX- oder TSV-Datei geschrieben werden. Jedes Paar enthält ein Segment der Ausgangssprache und das übersetzte Gegenstück. Weitere Informationen finden Sie in der Cloud Translation-Dokumentation unter Beispielübersetzungen vorbereiten.

Fügen Sie spezifische Beispiele aus einer Vielzahl von Szenarien hinzu, um möglichst genaue Ergebnisse zu erhalten. Sie müssen mindestens fünf Satzpaare, aber nicht mehr als 10.000 Paare einbeziehen. Außerdem darf ein Segmentpaar maximal 512 Zeichen lang sein.

Console

  1. Rufen Sie im Bereich „Cloud Translation“ der Google Cloud Console die Seite Text übersetzen in Vertex AI Studio auf.

    Zu Vertex AI Studio

  2. Konfigurieren Sie im Bereich Ausführungseinstellungen Ihre Übersetzungseinstellungen.

    1. Wählen Sie im Feld Modell die Option Übersetzungs-LLM aus.
    2. Wenn Sie die Temperatur ändern möchten, maximieren Sie Erweitert.
  3. Klicken Sie auf Beispiele hinzufügen.

    1. Wählen Sie eine lokale Datei oder eine Datei aus Cloud Storage aus. Vertex AI Studio bestimmt die Ausgangs- und Zielsprachen anhand Ihrer Datei.
    2. Wählen Sie die Anzahl von Beispielen aus, die das Modell verwenden soll, bevor eine Antwort generiert wird.

    Die Anzahl der ausgewählten Beispiele wird auf die Zeichenbeschränkung von 3.000 Eingabezeichen pro Anfrage angerechnet.

  4. Geben Sie den zu übersetzenden Text in das Eingabefeld ein.

  5. Klicken Sie auf Senden.

    Cloud Translation wählt automatisch die von Ihnen angegebene Anzahl von Referenzsätzen aus, die Ihrer Eingabe am ähnlichsten sind. Das Übersetzungsmodell identifiziert Muster aus Ihren Beispielen und wendet diese Muster dann beim Generieren einer Antwort an.

    Das Ausgabelimit pro Anfrage beträgt 3.000 Zeichen. Jedweder Text jenseits dieses Limits wird gelöscht.

  6. Klicken Sie auf Code abrufen, um den Code oder den curl-Befehl abzurufen, mit dem gezeigt wird, wie Sie Übersetzungen anfordern.

API

Wenn Sie benutzerdefinierte Übersetzungen anfordern möchten, fügen Sie Ihrer Übersetzungsanfrage bis zu fünf Referenzsatzpaare hinzu. Das Übersetzungsmodell verwendet alle diese, um Muster aus Ihren Beispielen zu identifizieren. Diese Muster werden dann beim Generieren einer Antwort angewendet.

REST

Ersetzen Sie diese Werte in den folgenden Anfragedaten:

  • PROJECT_NUMBER_OR_ID: Die numerische oder alphanumerische ID Ihres Google Cloud-Projekts
  • LOCATION: Der Standort, an dem Sie diesen Vorgang ausführen möchten. Beispiel: us-central1.
  • REFERENCE_SOURCE: Ein Satz in der Ausgangssprache, der Teil eines Referenzsatzpaars ist.
  • REFERENCE_TARGET: Ein Satz in der Zielsprache, der Teil eines Referenzsatzpaars ist.
  • SOURCE_LANGUAGE: Der Sprachcode des Eingabetexts.
  • TARGET_LANGUAGE: die Zielsprache, in die der Eingabetext übersetzt werden soll.
  • SOURCE_TEXT: Text in der Ausgangssprache, der übersetzt werden soll.

HTTP-Methode und URL:

POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/translate-llm:predict

JSON-Text anfordern:

"instances": [{
  "reference_sentence_config": {
    "reference_sentence_pair_lists": [
      {
        "reference_sentence_pairs": [{
          "source_sentence": "REFERENCE_SOURCE_1_1",
          "target_sentence": "REFERENCE_TARGET_1_1"
        },
        {
          "source_sentence": "REFERENCE_SOURCE_1_2",
          "target_sentence": "REFERENCE_SOURCE_1_2"
        }]
      }
    ],
    "source_language_code": "SOURCE_LANGUAGE_CODE",
    "target_language_code": "TARGET_LANGUAGE_CODE"
  },
  "contents": ["SOURCE_TEXT"]
}]

Wenn Sie die Anfrage senden möchten, maximieren Sie eine der folgenden Optionen:

Sie sollten eine JSON-Antwort ähnlich wie diese erhalten:

{
  "translations": [
    {
      "translatedText": "TRANSLATED_TEXT"
    }
  ],
  "languageCode": "TARGET_LANGUAGE"
}

Node.js

Folgen Sie der Einrichtungsanleitung für Node.js in der Cloud Translation-Kurzanleitung zur Verwendung von Clientbibliotheken, bevor Sie dieses Beispiel anwenden. Weitere Informationen finden Sie in der Referenzdokumentation zu Cloud Translation Node.js API.

Richten Sie die Standardanmeldedaten für Anwendungen ein, um sich bei Cloud Translation zu authentifizieren. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.

async function translate() {
  const request = {
    instances: [{
        "reference_sentence_config": {
          "reference_sentence_pair_lists": [{
            "reference_sentence_pairs": [{
              "source_sentence": 'SAMPLE_REFERENCE_SOURCE_1',
              "target_sentence": 'SAMPLE_REFERENCE_TARGET_1'
            },
            "reference_sentence_pairs": {
              "source_sentence": 'SAMPLE_REFERENCE_SOURCE_2',
              "target_sentence": 'SAMPLE_REFERENCE_TARGET_2'
            }]
          }],
          "source_language_code": 'SOURCE_LANGUAGE_CODE',
          "target_language_code": 'TARGET_LANGUAGE_CODE'
        },
        "contents": ["SOURCE_TEXT"]
    }]
  };
  const {google} = require('googleapis');
  const aiplatform = google.cloud('aiplatform');
  const endpoint = aiplatform.predictionEndpoint('projects/PROJECT_ID/locations/LOCATION/publishers/google/models/translate-llm');

  const [response] = await endpoint.predict(request)
  console.log('Translating')
  console.log(response)
}
  

Python

Folgen Sie der Einrichtungsanleitung für Python in der Cloud Translation-Kurzanleitung zur Verwendung von Clientbibliotheken, bevor Sie dieses Beispiel anwenden. Weitere Informationen finden Sie in der Referenzdokumentation zu Cloud Translation Python API.

Richten Sie die Standardanmeldedaten für Anwendungen ein, um sich bei Cloud Translation zu authentifizieren. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.

from google.cloud import aiplatform

def translate():
  # Create a client
  endpoint = aiplatform.Endpoint('projects/PROJECT_ID/locations/LOCATION/publishers/google/models/translate-llm')
  # Initialize the request
  instances=[{
      "reference_sentence_config": {
        "reference_sentence_pair_lists": [{
          "reference_sentence_pairs": [{
            "source_sentence": 'SAMPLE_REFERENCE_SOURCE_1',
            "target_sentence": 'SAMPLE_REFERENCE_TARGET_1'
          },
          "reference_sentence_pairs": {
            "source_sentence": 'SAMPLE_REFERENCE_SOURCE_2',
            "target_sentence": 'SAMPLE_REFERENCE_TARGET_2'
          }]
        }],
        "source_language_code": 'SOURCE_LANGUAGE_CODE',
        "target_language_code": 'TARGET_LANGUAGE_CODE'
      },
      "contents": ["SOURCE_TEXT"]
  }]
  # Make the request
  response = endpoint.predict(instances=instances)
  # Handle the response
  print(response)
  

Sie können die Cloud Translation API auch verwenden, um ein Dataset zu erstellen und Ihre Beispielsatzpaare zu importieren. Wenn Sie die Cloud Translation API zum Anfordern von Übersetzungen verwenden, können Sie Ihr Dataset einschließen, um Antworten anzupassen. Das Dataset bleibt bestehen und kann mit mehreren Übersetzungsanfragen wiederverwendet werden. Weitere Informationen finden Sie in der Cloud Translation-Dokumentation unter Adaptive Übersetzungen anfordern.