Preguntas frecuentes sobre la API de Gemini

En este documento, se proporcionan respuestas a las preguntas frecuentes sobre la API de Gemini, organizadas en las siguientes categorías:

Comparaciones de modelos

¿Cuál es la diferencia entre PaLM y Gemini?

Los modelos de Gemini están diseñados para aplicaciones multimodales. Los modelos de Gemini aceptan prompts que incluyen, por ejemplo, imágenes y texto, y, luego, muestran una respuesta de texto. Gemini también admite las llamadas a función, lo que permite a los desarrolladores pasar una descripción de una función y, luego, el modelo muestra una función y los parámetros que mejor coinciden con la descripción. Luego, los desarrolladores pueden llamar a esa función en APIs y servicios externos.

Los modelos PaLM 2 tienen disponibilidad general (DG). Los modelos PaLM 2 están diseñados para aplicaciones de lenguaje y tienen un buen rendimiento en casos de uso como resúmenes y generación de texto. PaLM 2 también ofrece compatibilidad total con los servicios de MLOps en Vertex AI, como la comparación en paralelo y la supervisión de modelos, que no están disponibles con Gemini.

Con Vertex AI Studio, puedes personalizar los modelos de Gemini y PaLM 2 con controles de datos completos y aprovechar la seguridad, la seguridad, la asistencia de cumplimiento y administración de datos de Google Cloud. Los mensajes y los datos de ajuste para Gemini y PaLM 2 nunca se usan para entrenar ni mejorar nuestros modelos de base.

¿Por qué elegirías PaLM en lugar de Gemini?

Para los casos de uso que requieren salida de texto de forma exclusiva (como resumen del texto, generación de texto y preguntas y respuestas), los modelos PaLM 2 pueden proporcionar respuestas con la suficiente calidad.

Los modelos de Gemini son una buena opción para los casos de uso que incluyen entradas multimodales, requieren llamadas a funciones o técnicas complejas de mensajes (como la cadena de pensamiento y el seguimiento de instrucciones complejas).

¿ParLM 2 dejará de estar disponible?

No hay planes para que PaLM 2 deje de estar disponible.

¿Cuál es la diferencia entre Imagen en Vertex AI y la API de Gemini para los casos de uso de Vision?

Imagen es un modelo de visión para la generación, edición, subtitulado y casos de uso de preguntas y respuestas de imágenes. Como parte de tus mensajes, Gemini puede tomar varias imágenes o un video y proporcionar respuestas sobre tus entradas, en las que como Imagen puede tomar solo una imagen de entrada. Gemini no admite la generación de imágenes ni la edición de imágenes.

¿Cuál es la diferencia entre las APIs de Vertex AI Codey y la API de Gemini para casos de uso de codificación?

Las APIs de Codey están diseñadas para la generación, la finalización y el chat de código. Las APIs de Codey funcionan con Gemini y otros modelos desarrollados por Google. Puedes usar las APIs durante todo el ciclo de vida del desarrollo de software si la integras en IDE, flujos de trabajo de CI/CD, paneles y otras aplicaciones. También puedes personalizar los modelos con tu base de código. No recomendamos Gemini 1.0 Pro Vision para generar código.

¿Cómo envío un mensaje al modelo de Gemini 1.0 Pro o Gemini 1.0 Pro Vision?

Existen varios métodos que puedes usar para enviar solicitudes a la API de Gemini. Por ejemplo, puedes usar la consola de Google Cloud, un SDK de lenguaje de programación o la API de REST para enviar solicitudes a gemini-1.0-pro (Gemini 1.0 Pro) o gemini-1.0-pro-vision (Gemini 1.0 Pro Vision).

Para comenzar, consulta Prueba la API de Gemini.

¿El ajuste está disponible para Gemini?

Puedes ajustar la versión 002 de la versión estable de Gemini 1.0 Pro (gemini-1.0-pro-002). Para obtener más información, consulta Descripción general del ajuste de modelos para Gemini.

Seguridad y uso de los datos

¿Por qué se bloquean mis respuestas?

Generative AI en Vertex AI usa filtros de seguridad para evitar respuestas potencialmente dañinas. Puedes ajustar este umbral de filtro de seguridad. Para obtener más información, consulta IA responsable.

¿Cómo se usan mis datos de entrada?

Google garantiza que sus equipos cumplan con nuestro compromiso de privacidad de IA y AA mediante prácticas sólidas de administración de datos, que incluyen revisiones de los datos que Google Cloud usa para el desarrollo de sus productos. Para obtener más información, consulta IA generativa y administración de datos.

¿Almacenas los datos en caché?

Google puede almacenar en caché las entradas y salidas de un cliente para los modelos de Gemini, de modo que acelera las respuestas a las instrucciones posteriores del cliente. El contenido almacenado en caché se almacena por hasta 24 horas. De forma predeterminada, el almacenamiento en caché de datos está habilitado para cada proyecto de Google Cloud. La misma configuración de caché para un proyecto de Google Cloud se aplica a todas las regiones. Puedes usar los siguientes comandos curl para obtener el estado de almacenamiento en caché, inhabilitar o volver a habilitar el almacenamiento en caché. Para obtener más información, consulta Predicción en la página de IA generativa y administración de datos. Cuando inhabilitas o vuelves a habilitar el almacenamiento en caché, el cambio se aplica a todas las regiones de Google Cloud. Si deseas obtener más información sobre el uso de Identity and Access Management para otorgar los permisos necesarios y habilitar o inhabilitar el almacenamiento en caché, consulta Control de acceso de Vertex AI con la IAM. Expande las siguientes secciones para aprender a obtener la configuración actual de la caché, inhabilitar el almacenamiento en caché y habilitar el almacenamiento en caché.

Obtén los parámetros de configuración actuales del almacenamiento en caché

Ejecuta el siguiente comando para determinar si el almacenamiento en caché está habilitado o inhabilitado en un proyecto. Para ejecutar este comando, un usuario debe tener uno de los siguientes roles: roles/aiplatform.viewer, roles/aiplatform.user o roles/aiplatform.admin.

PROJECT_ID=PROJECT_ID
# Setup project_id
$ gcloud config set project PROJECT_ID

# GetCacheConfig
$ curl -X GET -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" -H "Content-Type: application/json" https://us-central1-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID/cacheConfig

# Response if caching is enabled (caching is enabled by default).
{
  "name": "projects/PROJECT_ID/cacheConfig"
}

# Response if caching is disabled.
{
  "name": "projects/PROJECT_ID/cacheConfig"
  "disableCache": true
}
    

Inhabilitar memoria caché

Ejecuta el siguiente comando curl para habilitar el almacenamiento en caché en un proyecto de Google Cloud. Para ejecutar este comando, un usuario debe tener el rol de administrador de Vertex AI, roles/aiplatform.admin.

PROJECT_ID=PROJECT_ID
# Setup project_id
$ gcloud config set project PROJECT_ID

# Setup project_id.
$ gcloud config set project ${PROJECT_ID}

# Opt-out of caching.
$ curl -X PATCH -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" -H "Content-Type: application/json" https://us-central1-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID/cacheConfig -d '{
  "name": "projects/PROJECT_ID/cacheConfig",
  "disableCache": true
}'

# Response.
{
  "name": "projects/PROJECT_ID/locations/us-central1/projects/PROJECT_ID/cacheConfig/operations/${OPERATION_ID}",
  "done": true,
  "response": {
    "@type": "type.googleapis.com/google.protobuf.Empty"
  }
}
    

Habilita el almacenamiento en caché

Si inhabilitaste el almacenamiento en caché para un proyecto de Google Cloud y deseas volver a habilitarlo, ejecuta el siguiente comando curl. Para ejecutar este comando, un usuario debe tener el rol de administrador de Vertex AI, roles/aiplatform.admin.

PROJECT_ID=PROJECT_ID
LOCATION_ID="us-central1"
# Setup project_id
$ gcloud config set project PROJECT_ID

# Setup project_id.
$ gcloud config set project ${PROJECT_ID}

# Opt in to caching.
$ curl -X PATCH     -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" -H "Content-Type: application/json" https://us-central1-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID/cacheConfig -d '{
  "name": "projects/PROJECT_ID/cacheConfig",
  "disableCache": false
}'

# Response.
{
  "name": "projects/PROJECT_ID/locations/us-central1/projects/PROJECT_ID/cacheConfig/operations/${OPERATION_NUMBER}",
  "done": true,
  "response": {
    "@type": "type.googleapis.com/google.protobuf.Empty"
  }
}
    

Migración

¿Cómo migro Gemini en Google AI Studio a Vertex AI Studio?

La migración a la plataforma de Vertex AI de Google Cloud ofrece un conjunto de herramientas de MLOps que optimizan el uso, la implementación y la supervisión de los modelos de IA para lograr eficiencia y confiabilidad. Para migrar tu trabajo a Vertex AI, importa y sube tus datos actuales a Vertex AI Studio y usa la API de Vertex AI Gemini. Para obtener más información, consulta Migra de Gemini en Google AI a Vertex AI.

¿Cómo cambio de PaML 2 a la API de Gemini de Vertex AI como modelo subyacente?

No es necesario que realices cambios importantes en la arquitectura de tus aplicaciones cuando cambies de modelos de PaLM a los de Gemini. Desde la perspectiva de la API, cambiar de un modelo a otro requiere cambiar una sola línea de código o actualizar el SDK. Para obtener más información, consulta Migra de la API de PaLM a la API de Vertex AI Gemini.

Debido a que las respuestas pueden variar entre modelos, te recomendamos que realices pruebas con instrucciones para comparar las respuestas de los modelos de PaLM y Gemini a fin de verificar que las respuestas cumplan con tus expectativas.

Disponibilidad y precios

¿En qué ubicaciones está disponible Gemini?

Gemini 1.0 Pro y Gemini 1.0 Pro Vision están disponibles en las regiones de Asia, EE.UU. y Europa. Para obtener más información, consulta IA generativa en ubicaciones de Vertex AI.

¿Existe un nivel de evaluación gratuito para la API de Gemini de Vertex AI?

Comunícate con tu representante de Google Cloud para obtener más información.

¿Cuáles son los precios de la API de Gemini de Vertex AI?

La información de precios de los modelos de Gemini está disponible en la sección Multimodal de los Precios de Generative AI en Vertex AI.

¿Cómo obtengo acceso a Gemini Ultra?

Comunícate con tu representante de cuenta de Google para solicitar acceso.

Cuotas

¿Cómo resuelvo un error de cuota (429) cuando realizo solicitudes a la API?

Hay una demanda excesiva o la solicitud superó tu cuota por proyecto. Verifica que tu porcentaje de solicitudes sea menor que la cuota de tu proyecto. Para ver las cuotas de tus proyectos, ve a la página Cuotas de la consola de Google Cloud. Para obtener más información, consulta Generation AI en Vertex AI sobre cuotas y límites de Vertex AI.

¿Cómo aumento las cuotas de mi proyecto para Gemini?

Puedes solicitar un aumento desde la consola de Google Cloud. Para obtener más información, consulta Generation AI en Vertex AI sobre cuotas y límites de Vertex AI.