Traduci testo

Questa pagina mostra come utilizzare Vertex AI Studio per tradurre rapidamente un testo da una lingua all'altra. Translation in Vertex AI Studio offre la scelta tra Gemini e due modelli di traduzione specializzati, che includono il modello Cloud Translation Neural Machine Translation (NMT) e un LLM ottimizzato per le traduzioni (chiamato anche LLM di traduzione).

Quando utilizzi l'LLM di traduzione, puoi personalizzare le risposte fornendo traduzioni di esempio in modo che le risposte corrispondano più fedelmente al tuo stile, al tuo tono e al tuo dominio di settore. Il modello utilizza i tuoi esempi come contesto few-shot prima di tradurre il testo. In Vertex AI Studio, questa personalizzazione funziona solo con l'LLM di traduzione; ad esempio, non è possibile trasmettere esempi quando utilizzi Gemini o il modello NMT.

Lingue supportate

Le lingue supportate da ogni modello possono variare. Prima di richiedere la traduzione, verifica che il modello che stai utilizzando supporti la tua lingua di origine e di destinazione.

Traduzione LLM

Per l'LLM di traduzione, puoi tradurre da e verso una qualsiasi delle seguenti coppie di lingue:

  • Cinese (semplificato) <-> Inglese
  • Francese <-> Inglese
  • Tedesco <-> Inglese
  • Italiano <-> Inglese
  • Giapponese <-> Inglese
  • Coreano <-> Inglese
  • Portoghese <-> Inglese
  • Spagnolo <-> Inglese

Gemini e NMT

Per informazioni sulle lingue supportate dai modelli Gemini e NMT, consulta la seguente documentazione:

Traduci testo

Utilizza il modello di traduzione LLM, Gemini o NMT per tradurre il testo utilizzando l'API o la console Google Cloud.

Console

  1. Nella sezione Cloud Translation della console Google Cloud, vai alla pagina Traduci testo in Vertex AI Studio.

    Vai a Vertex AI Studio

  2. Nel riquadro Impostazioni esecuzione, seleziona un modello di traduzione nel campo Modello.

  3. Per modificare le impostazioni del modello (ad esempio la temperatura), espandi Avanzate.

  4. Imposta le lingue di origine e di destinazione.

  5. Nel campo di immissione, inserisci il testo da tradurre.

  6. Fai clic su Invia.

  7. Per visualizzare il codice o il comando curl che mostra come richiedere la traduzione, fai clic su Genera codice.

API

Seleziona il modello da utilizzare per le traduzioni.

Traduzione LLM

Utilizza l'API Vertex AI e l'LLM di traduzione per tradurre un testo.

REST

Prima di utilizzare i dati della richiesta, effettua le seguenti sostituzioni:

  • PROJECT_NUMBER_OR_ID: l'ID numerico o alfanumerico del tuo progetto Google Cloud
  • LOCATION: la località in cui vuoi eseguire questa operazione. Ad esempio, us-central1.
  • SOURCE_LANGUAGE_CODE: il codice lingua del testo di input. Imposta uno dei codici lingua elencati nella traduzione adattiva.
  • TARGET_LANGUAGE_CODE: la lingua di destinazione in cui tradurre il testo di input. Imposta uno dei codici lingua elencati nella traduzione adattiva.
  • SOURCE_TEXT: testo nella lingua di origine da tradurre.

Metodo HTTP e URL:

POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/cloud-translate-text:predict

Corpo JSON della richiesta:

"instances": [{
  "source_language_code": "SOURCE_LANGUAGE_CODE",
  "target_language_code": "TARGET_LANGUAGE_CODE",
  "contents": ["SOURCE_TEXT"],
  "model": "projects/PROJECT_ID/locations/LOCATION/models/general/translation-llm"
}]

Per inviare la richiesta, espandi una di queste opzioni:

Dovresti ricevere una risposta JSON simile alla seguente:

{
  "translations": [
    {
      "translatedText": "TRANSLATED_TEXT"
    }
  ],
  "languageCode": "TARGET_LANGUAGE"
}

Node.js

Prima di provare questo esempio, segui le istruzioni di configurazione di Node.js riportate nella guida rapida di Cloud Translation sull'utilizzo delle librerie client. Per maggiori informazioni, consulta la documentazione di riferimento dell'API Cloud Translation Node.js.

Per eseguire l'autenticazione in Cloud Translation, configura le Credenziali predefinite dell'applicazione. Per maggiori informazioni, consulta Configurare l'autenticazione per un ambiente di sviluppo locale.

async function translate() {
  const request = {
    instances: [{
      source_language_code: SOURCE_LANGUAGE_CODE,
      target_language_code: TARGET_LANGUAGE_CODE,
      contents: [SOURCE_TEXT],
      model: "projects/PROJECT_ID/locations/LOCATION/models/general/translation-llm"
    }]
  };
  const {google} = require('googleapis');
  const aiplatform = google.cloud('aiplatform');
  const endpoint = aiplatform.predictionEndpoint('projects/PROJECT_ID/locations/LOCATION/publishers/google/models/cloud-translate-text');

  const [response] = await endpoint.predict(request)
  console.log('Translating')
  console.log(response)
}
      

Python

Prima di provare questo esempio, segui le istruzioni di configurazione di Python riportate nella guida rapida di Cloud Translation sull'utilizzo delle librerie client. Per maggiori informazioni, consulta la documentazione di riferimento dell'API Cloud Translation Python.

Per eseguire l'autenticazione in Cloud Translation, configura le Credenziali predefinite dell'applicazione. Per maggiori informazioni, consulta Configurare l'autenticazione per un ambiente di sviluppo locale.

from google.cloud import aiplatform

def translate():
  # Create a client
  endpoint = aiplatform.Endpoint('projects/PROJECT_ID/locations/LOCATION/publishers/google/models/cloud-translate-text')
  # Initialize the request
  instances=[{
      "source_language_code": 'SOURCE_LANGUAGE_CODE',
      "target_language_code": 'TARGET_LANGUAGE_CODE',
      "contents": ["SOURCE_TEXT"],
      "model": "projects/PROJECT_ID/locations/LOCATION/models/general/translation-llm"
  }]
  # Make the request
  response = endpoint.predict(instances=instances)
  # Handle the response
  print(response)
      

Gemini

Utilizza l'API Vertex AI e Gemini per tradurre il testo.

Puoi personalizzare ulteriormente le risposte Gemini attraverso prompt aperti e prompt engineering.

REST

Prima di utilizzare i dati della richiesta, effettua le seguenti sostituzioni:

  • PROJECT_NUMBER_OR_ID: l'ID numerico o alfanumerico del tuo progetto Google Cloud.
  • LOCATION: la località in cui elaborare la richiesta. Le opzioni disponibili sono le seguenti:

    Fai clic per espandere le regioni disponibili

    • us-central1
    • us-west4
    • northamerica-northeast1
    • us-east4
    • us-west1
    • asia-northeast3
    • asia-southeast1
    • asia-northeast1
  • MODEL_ID: l'ID del modello, ad esempio gemini-1.0-pro-002
  • SOURCE_LANGUAGE_CODE: la lingua del testo di input.
  • TARGET_LANGUAGE_CODE: la lingua di destinazione in cui tradurre il testo di input.
  • SOURCE_TEXT: il testo da tradurre.
  • TEMPERATURE: la temperatura viene utilizzata per il campionamento durante la generazione delle risposte, che si verifica quando vengono applicati topP e topK. La temperatura controlla il grado di casualità nella selezione dei token. Le temperature più basse sono ideali per prompt che richiedono una risposta meno creativa o meno aperta, mentre le temperature più alte possono portare a risultati più diversificati o creativi. Una temperatura pari a 0 significa che vengono sempre selezionati i token con la probabilità più alta. In questo caso, le risposte per un determinato messaggio sono per lo più deterministiche, ma è comunque possibile una piccola variazione.

    Se il modello restituisce una risposta troppo generica, troppo breve o fornisce una risposta di riserva, prova ad aumentare la temperatura.

  • TOP_P: Top-P cambia il modo in cui il modello seleziona i token per l'output. I token vengono selezionati dal più probabile (vedi top-K) al meno probabile finché la somma delle loro probabilità equivale al valore top-P. Ad esempio, se i token A, B e C hanno una probabilità di 0,3, 0,2 e 0,1 e il valore di top-P è 0.5, il modello selezionerà A o B come token successivo utilizzando la temperatura ed esclude C come candidato.

    Specifica un valore più basso per risposte meno casuali e un valore più alto per risposte più casuali.

  • TOP_K: Top-K cambia il modo in cui il modello seleziona i token per l'output. Un top-K pari a 1 indica che il token successivo selezionato è il più probabile tra tutti i token nel vocabolario del modello (detta anche decodifica greedy), mentre un top-K pari a 3 indica che il token successivo viene selezionato tra i tre token più probabili utilizzando la temperatura.

    Per ogni fase di selezione dei token, vengono campionati i token top-K con le probabilità più elevate. Quindi, i token vengono ulteriormente filtrati in base a top-P e il token finale viene selezionato utilizzando il campionamento con temperatura.

    Specifica un valore più basso per risposte meno casuali e un valore più alto per risposte più casuali.

  • MAX_OUTPUT_TOKENS: numero massimo di token che è possibile generare nella risposta. Un token equivale a circa quattro caratteri. 100 token corrispondono a circa 60-80 parole.

    Specifica un valore più basso per risposte più brevi e un valore più alto per risposte potenzialmente più lunghe.

  • SAFETY_CATEGORY: la categoria di sicurezza per cui configurare una soglia. I valori accettati includono:

    Fai clic per espandere le categorie di sicurezza

    • HARM_CATEGORY_SEXUALLY_EXPLICIT
    • HARM_CATEGORY_HATE_SPEECH
    • HARM_CATEGORY_HARASSMENT
    • HARM_CATEGORY_DANGEROUS_CONTENT
  • THRESHOLD: la soglia per il blocco delle risposte che potrebbero appartenere alla categoria di sicurezza specificata in base alla probabilità. I valori accettati includono:

    Fai clic per espandere le soglie di blocco

    • BLOCK_NONE
    • BLOCK_ONLY_HIGH
    • BLOCK_MEDIUM_AND_ABOVE (valore predefinito)
    • BLOCK_LOW_AND_ABOVE
    BLOCK_LOW_AND_ABOVE blocca di più, mentre BLOCK_ONLY_HIGH lo blocca meno.

Metodo HTTP e URL:

POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/MODEL_ID:streamGenerateContent

Corpo JSON della richiesta:

{
  "contents": [
    {
      "role": "user",
      "parts": [
        {
        "text": "SOURCE_LANGUAGE_CODE: SOURCE_TEXT\nTARGET_LANGUAGE_CODE:"
        }
      ]
    }
  ],
  "generation_config": {
    "temperature": TEMPERATURE,
    "topP": TOP_P,
    "topK": TOP_K,
    "candidateCount": 1,
    "maxOutputTokens": MAX_OUTPUT_TOKENS
  }
  "safetySettings": [
    {
      "category": "SAFETY_CATEGORY",
      "threshold": "THRESHOLD"
    }
  ]
}

Per inviare la richiesta, espandi una di queste opzioni:

Dovresti ricevere un codice di stato riuscito (2xx) e una risposta vuota.

Node.js

Prima di provare questo esempio, segui le istruzioni di configurazione di Node.js riportate nella guida rapida di Cloud Translation sull'utilizzo delle librerie client. Per maggiori informazioni, consulta la documentazione di riferimento dell'API Cloud Translation Node.js.

Per eseguire l'autenticazione in Cloud Translation, configura le Credenziali predefinite dell'applicazione. Per maggiori informazioni, consulta Configurare l'autenticazione per un ambiente di sviluppo locale.

const {VertexAI} = require('@google-cloud/vertexai');

// Initialize Vertex with your Cloud project and location
const vertex_ai = new VertexAI({project: 'PROJECT_ID', location: 'LOCATION'});
const model = 'gemini-1.0-pro';

// Instantiate the models
const generativeModel = vertex_ai.preview.getGenerativeModel({
  model: model,
  generationConfig: {
    'candidate_count': 1,
    'max_output_tokens': MAX_OUTPUT_TOKENS,
    'temperature': TEMPERATURE,
    'top_p': TOP_P,
    'top_k': TOP_K,
  },
  safetySettings: [
    {
        'category': 'HARM_CATEGORY_HATE_SPEECH',
        'threshold': 'BLOCK_MEDIUM_AND_ABOVE'
    },
    {
        'category': 'HARM_CATEGORY_DANGEROUS_CONTENT',
        'threshold': 'BLOCK_MEDIUM_AND_ABOVE'
    },
    {
        'category': 'HARM_CATEGORY_SEXUALLY_EXPLICIT',
        'threshold': 'BLOCK_MEDIUM_AND_ABOVE'
    },
    {
        'category': 'HARM_CATEGORY_HARASSMENT',
        'threshold': 'BLOCK_MEDIUM_AND_ABOVE'
    }
  ],
});


async function generateContent() {
  const req = {
    contents: [
      {role: 'user', parts: [{text: `SOURCE_LANGUAGE_CODE: TEXT
TARGET_LANGUAGE_CODE:`}]}
    ],
  };

  const streamingResp = await generativeModel.generateContentStream(req);

  for await (const item of streamingResp.stream) {
    process.stdout.write('stream chunk: ' + JSON.stringify(item) + '\n');
  }

  process.stdout.write('aggregated response: ' + JSON.stringify(await streamingResp.response));
}

generateContent();
      

Python

Prima di provare questo esempio, segui le istruzioni di configurazione di Python riportate nella guida rapida di Cloud Translation sull'utilizzo delle librerie client. Per maggiori informazioni, consulta la documentazione di riferimento dell'API Cloud Translation Python.

Per eseguire l'autenticazione in Cloud Translation, configura le Credenziali predefinite dell'applicazione. Per maggiori informazioni, consulta Configurare l'autenticazione per un ambiente di sviluppo locale.

import base64
import vertexai
from vertexai.generative_models import GenerativeModel, Part, FinishReason
import vertexai.preview.generative_models as generative_models

def generate():
  vertexai.init(project="PROJECT_ID", location="LOCATION")
  model = GenerativeModel("gemini-1.0-pro")
  responses = model.generate_content(
      ["""SOURCE_LANGUAGE_CODE: TEXT
TARGET_LANGUAGE_CODE:"""],
      generation_config=generation_config,
      safety_settings=safety_settings,
  )

  print(responses)


generation_config = {
    "candidate_count": 1,
    "max_output_tokens": MAX_OUTPUT_TOKENS,
    "temperature": TEMPERATURE,
    "top_p": TOP_P,
    "top_k": TOP_K,
}

safety_settings = {
    generative_models.HarmCategory.HARM_CATEGORY_HATE_SPEECH: generative_models.HarmBlockThreshold.BLOCK_MEDIUM_AND_ABOVE,
    generative_models.HarmCategory.HARM_CATEGORY_DANGEROUS_CONTENT: generative_models.HarmBlockThreshold.BLOCK_MEDIUM_AND_ABOVE,
    generative_models.HarmCategory.HARM_CATEGORY_SEXUALLY_EXPLICIT: generative_models.HarmBlockThreshold.BLOCK_MEDIUM_AND_ABOVE,
    generative_models.HarmCategory.HARM_CATEGORY_HARASSMENT: generative_models.HarmBlockThreshold.BLOCK_MEDIUM_AND_ABOVE,
}

generate()
      

NMT

Utilizza l'API Cloud Translation e il modello NMT per tradurre un testo.

REST

Prima di utilizzare i dati della richiesta, effettua le seguenti sostituzioni:

  • PROJECT_NUMBER_OR_ID: l'ID numerico o alfanumerico del tuo progetto Google Cloud.
  • SOURCE_LANGUAGE: (facoltativo) il codice lingua del testo di input. Per i codici lingua supportati, consulta la pagina Supporto delle lingue.
  • TARGET_LANGUAGE: la lingua di destinazione in cui tradurre il testo di input. Imposta uno dei codici lingua supportati.
  • SOURCE_TEXT: il testo da tradurre.

Metodo HTTP e URL:

POST https://translation.googleapis.com/v3/projects/PROJECT_ID:translateText

Corpo JSON della richiesta:

{
  "sourceLanguageCode": "SOURCE_LANGUAGE",
  "targetLanguageCode": "TARGET_LANGUAGE",
  "contents": ["SOURCE_TEXT1", "SOURCE_TEXT2"]
}

Per inviare la richiesta, espandi una di queste opzioni:

Dovresti ricevere una risposta JSON simile alla seguente:

{
  "translations": [
    {
      "translatedText": "TRANSLATED_TEXT1"
    },
    {
      "translatedText": "TRANSLATED_TEXT2"
    }
  ]
}

Node.js

Prima di provare questo esempio, segui le istruzioni di configurazione di Node.js riportate nella guida rapida di Cloud Translation sull'utilizzo delle librerie client. Per maggiori informazioni, consulta la documentazione di riferimento dell'API Cloud Translation Node.js.

Per eseguire l'autenticazione in Cloud Translation, configura le Credenziali predefinite dell'applicazione. Per maggiori informazioni, consulta Configurare l'autenticazione per un ambiente di sviluppo locale.

/**
 * TODO(developer): Uncomment these variables before running the sample.
 */
// const projectId = 'YOUR_PROJECT_ID';
// const location = 'global';
// const text = 'text to translate';

// Imports the Google Cloud Translation library
const {TranslationServiceClient} = require('@google-cloud/translate');

// Instantiates a client
const translationClient = new TranslationServiceClient();

async function translateText() {
  // Construct request
  const request = {
    parent: `projects/${projectId}/locations/${location}`,
    contents: [text],
    mimeType: 'text/plain', // mime types: text/plain, text/html
    sourceLanguageCode: 'en',
    targetLanguageCode: 'sr-Latn',
  };

  // Run request
  const [response] = await translationClient.translateText(request);

  for (const translation of response.translations) {
    console.log(`Translation: ${translation.translatedText}`);
  }
}

translateText();

Python

Prima di provare questo esempio, segui le istruzioni di configurazione di Python riportate nella guida rapida di Cloud Translation sull'utilizzo delle librerie client. Per maggiori informazioni, consulta la documentazione di riferimento dell'API Cloud Translation Python.

Per eseguire l'autenticazione in Cloud Translation, configura le Credenziali predefinite dell'applicazione. Per maggiori informazioni, consulta Configurare l'autenticazione per un ambiente di sviluppo locale.

# Imports the Google Cloud Translation library
from google.cloud import translate


# Initialize Translation client
def translate_text(
    text: str = "YOUR_TEXT_TO_TRANSLATE", project_id: str = "YOUR_PROJECT_ID"
) -> translate.TranslationServiceClient:
    """Translating Text."""

    client = translate.TranslationServiceClient()

    location = "global"

    parent = f"projects/{project_id}/locations/{location}"

    # Translate text from English to French
    # Detail on supported types can be found here:
    # https://cloud.google.com/translate/docs/supported-formats
    response = client.translate_text(
        request={
            "parent": parent,
            "contents": [text],
            "mime_type": "text/plain",  # mime types: text/plain, text/html
            "source_language_code": "en-US",
            "target_language_code": "fr",
        }
    )

    # Display the translation for each input text provided
    for translation in response.translations:
        print(f"Translated text: {translation.translated_text}")

    return response

Traduzioni personalizzate

Personalizza le risposte dell'LLM di traduzione fornendo le tue traduzioni di esempio. Le traduzioni personalizzate funzionano solo con l'LLM di traduzione.

Puoi richiedere una traduzione personalizzata tramite la console o l'API Vertex AI Studio, con una differenza. La console supporta traduzioni personalizzate solo se fornisci esempi in un file TMX o TSV. L'API supporta le traduzioni personalizzate solo se si forniscono esempi (fino a 5 coppie di frasi) incorporati come parte della richiesta di traduzione.

Requisiti dei dati

Se fornisci traduzioni di esempio in un file per la console Google Cloud, gli esempi devono essere scritti come coppie di segmenti in un file TMX o TSV. Ogni coppia include un segmento della lingua di origine e la relativa controparte tradotta. Per ulteriori informazioni, consulta la sezione Preparare traduzioni di esempio nella documentazione di Cloud Translation.

Per ottenere risultati più precisi, includi esempi specifici da un'ampia gamma di scenari. Devi includere almeno cinque coppie di frasi,ma non più di 10.000 coppie. Inoltre, una coppia di segmenti può contenere al massimo 512 caratteri.

Console

  1. Nella sezione Cloud Translation della console Google Cloud, vai alla pagina Traduci testo in Vertex AI Studio.

    Vai a Vertex AI Studio

  2. Nel riquadro Esegui impostazioni, configura le impostazioni di traduzione.

    1. Nel campo Modello, seleziona Translation LLM.
    2. Per modificare la temperatura, espandi Avanzate.
  3. Fai clic su Aggiungi esempi.

    1. Seleziona un file locale o un file da Cloud Storage. Vertex AI Studio determina i linguaggi di origine e di destinazione dal file.
    2. Seleziona il numero di esempi da utilizzare per il modello prima di generare una risposta.

    Il numero di esempi selezionati viene conteggiato ai fini del limite di caratteri di input per richiesta di 3000.

  4. Nel campo di immissione, inserisci il testo da tradurre.

  5. Fai clic su Invia.

    Cloud Translation seleziona automaticamente il numero specificato di frasi di riferimento più simili all'input. Il modello di traduzione identifica i pattern degli esempi e li applica quando genera una risposta.

    Il limite di output per richiesta è di 3000 caratteri. Qualsiasi testo oltre questo limite viene eliminato.

  6. Per ottenere il codice o il comando curl che mostra come richiedere traduzioni, fai clic su Ottieni codice.

API

Per richiedere traduzioni personalizzate, includi fino a cinque coppie di frasi di riferimento nella richiesta di traduzione. Il modello di traduzione li utilizza tutti per identificare i pattern dagli esempi, quindi li applica quando genera una risposta.

REST

Prima di utilizzare i dati della richiesta, effettua le seguenti sostituzioni:

  • PROJECT_NUMBER_OR_ID: l'ID numerico o alfanumerico del tuo progetto Google Cloud
  • LOCATION: la località in cui vuoi eseguire questa operazione. Ad esempio, us-central1.
  • REFERENCE_SOURCE: una frase nella lingua di origine che fa parte di una coppia di frasi di riferimento.
  • REFERENCE_TARGET: una frase nella lingua di destinazione che fa parte di una coppia di frasi di riferimento.
  • SOURCE_LANGUAGE: il codice lingua del testo di input.
  • TARGET_LANGUAGE: la lingua di destinazione in cui tradurre il testo di input.
  • SOURCE_TEXT: testo nella lingua di origine da tradurre.

Metodo HTTP e URL:

POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/translate-llm:predict

Corpo JSON della richiesta:

"instances": [{
  "reference_sentence_config": {
    "reference_sentence_pair_lists": [
      {
        "reference_sentence_pairs": [{
          "source_sentence": "REFERENCE_SOURCE_1_1",
          "target_sentence": "REFERENCE_TARGET_1_1"
        },
        {
          "source_sentence": "REFERENCE_SOURCE_1_2",
          "target_sentence": "REFERENCE_SOURCE_1_2"
        }]
      }
    ],
    "source_language_code": "SOURCE_LANGUAGE_CODE",
    "target_language_code": "TARGET_LANGUAGE_CODE"
  },
  "contents": ["SOURCE_TEXT"]
}]

Per inviare la richiesta, espandi una di queste opzioni:

Dovresti ricevere una risposta JSON simile alla seguente:

{
  "translations": [
    {
      "translatedText": "TRANSLATED_TEXT"
    }
  ],
  "languageCode": "TARGET_LANGUAGE"
}

Node.js

Prima di provare questo esempio, segui le istruzioni di configurazione di Node.js riportate nella guida rapida di Cloud Translation sull'utilizzo delle librerie client. Per maggiori informazioni, consulta la documentazione di riferimento dell'API Cloud Translation Node.js.

Per eseguire l'autenticazione in Cloud Translation, configura le Credenziali predefinite dell'applicazione. Per maggiori informazioni, consulta Configurare l'autenticazione per un ambiente di sviluppo locale.

async function translate() {
  const request = {
    instances: [{
        "reference_sentence_config": {
          "reference_sentence_pair_lists": [{
            "reference_sentence_pairs": [{
              "source_sentence": 'SAMPLE_REFERENCE_SOURCE_1',
              "target_sentence": 'SAMPLE_REFERENCE_TARGET_1'
            },
            "reference_sentence_pairs": {
              "source_sentence": 'SAMPLE_REFERENCE_SOURCE_2',
              "target_sentence": 'SAMPLE_REFERENCE_TARGET_2'
            }]
          }],
          "source_language_code": 'SOURCE_LANGUAGE_CODE',
          "target_language_code": 'TARGET_LANGUAGE_CODE'
        },
        "contents": ["SOURCE_TEXT"]
    }]
  };
  const {google} = require('googleapis');
  const aiplatform = google.cloud('aiplatform');
  const endpoint = aiplatform.predictionEndpoint('projects/PROJECT_ID/locations/LOCATION/publishers/google/models/translate-llm');

  const [response] = await endpoint.predict(request)
  console.log('Translating')
  console.log(response)
}
  

Python

Prima di provare questo esempio, segui le istruzioni di configurazione di Python riportate nella guida rapida di Cloud Translation sull'utilizzo delle librerie client. Per maggiori informazioni, consulta la documentazione di riferimento dell'API Cloud Translation Python.

Per eseguire l'autenticazione in Cloud Translation, configura le Credenziali predefinite dell'applicazione. Per maggiori informazioni, consulta Configurare l'autenticazione per un ambiente di sviluppo locale.

from google.cloud import aiplatform

def translate():
  # Create a client
  endpoint = aiplatform.Endpoint('projects/PROJECT_ID/locations/LOCATION/publishers/google/models/translate-llm')
  # Initialize the request
  instances=[{
      "reference_sentence_config": {
        "reference_sentence_pair_lists": [{
          "reference_sentence_pairs": [{
            "source_sentence": 'SAMPLE_REFERENCE_SOURCE_1',
            "target_sentence": 'SAMPLE_REFERENCE_TARGET_1'
          },
          "reference_sentence_pairs": {
            "source_sentence": 'SAMPLE_REFERENCE_SOURCE_2',
            "target_sentence": 'SAMPLE_REFERENCE_TARGET_2'
          }]
        }],
        "source_language_code": 'SOURCE_LANGUAGE_CODE',
        "target_language_code": 'TARGET_LANGUAGE_CODE'
      },
      "contents": ["SOURCE_TEXT"]
  }]
  # Make the request
  response = endpoint.predict(instances=instances)
  # Handle the response
  print(response)
  

Puoi anche utilizzare l'API Cloud Translation per creare un set di dati e importare le tue coppie di frasi di esempio. Quando utilizzi l'API Cloud Translation per richiedere le traduzioni, puoi includere il set di dati per personalizzare le risposte. Il set di dati rimane e può essere riutilizzato con più richieste di traduzione. Per ulteriori informazioni, consulta la sezione Richiedere traduzioni adattive nella documentazione di Cloud Translation.