Questions fréquentes sur l'API Gemini

Ce document fournit des réponses aux questions fréquentes sur l'API Gemini, organisées en catégories :

Comparaison de modèles

Quelle est la différence entre PaLM et Gemini ?

Les modèles Gemini sont conçus pour les applications multimodales. Les modèles Gemini acceptent des requêtes qui incluent, par exemple, du texte et des images, puis renvoient une réponse textuelle. Gemini est également compatible avec les appels de fonction, qui permettent aux développeurs de transmettre une description d'une fonction, puis le modèle renvoie une fonction et des paramètres qui correspondent le mieux à la description. Les développeurs peuvent ensuite appeler cette fonction dans les API et les services externes.

Les modèles PaLM 2 sont en disponibilité générale (DG). Les modèles PaLM 2 sont conçus pour les applications de langage et fonctionnent bien pour les cas d'utilisation tels que la synthèse et la génération de texte. PaLM 2 offre également une assistance complète pour les services MLOps sur Vertex AI, tels que la comparaison automatique et la surveillance des modèles, qui ne sont pas disponibles avec Genmini.

Avec Vertex AI Studio, vous pouvez personnaliser les modèles Gemini et PaLM 2 avec des contrôles complets des données, et profiter de la sécurité, de la confidentialité et de la gouvernance et de la conformité des données de Google Cloud. Les requêtes et les réglages de données pour Maven et PaLM 2 ne sont jamais utilisés pour entraîner ou améliorer nos modèles de fondation.

Pourquoi opter pour PaLM plutôt que Gemini ?

Pour les cas d'utilisation nécessitant exclusivement une entrée de texte (synthèse textuelle, génération de texte et Questions/Réponses), les modèles PaLM 2 peuvent fournir des réponses de haute qualité.

Les modèles Gemini conviennent aux cas d'utilisation qui incluent des entrées multimodales, nécessitent des appels de fonctions ou des techniques de requêtes complexes (comme la chaîne de pensée et les instructions complexes qui suivent).

PaLM 2 est-il obsolète ?

Nous ne prévoyons pas d'arrêter PaLM 2.

Quelle est la différence entre Imagen sur Vertex AI et l'API Gemini pour les cas d'utilisation de la vision ?

Imagen est un modèle de vision pour les cas d'utilisation de génération d'images, de modification, de sous-titrage et de Questions/Réponses. Dans le cadre de vos requêtes, Gemini peut prendre plusieurs images ou une vidéo et fournir des réponses à vos entrées, tandis qu'Imagen ne peut prendre qu'une seule image d'entrée. Gemini n'est pas compatible avec la génération ou la modification d'images.

Quelle est la différence entre les API Codey Vertex AI et API pour les cas d'utilisation de codage ?

Les API Codey sont conçues pour la génération de code, la complétion de code et le chat de code. Les API Codey sont fournies par Gemini et d'autres modèles développés par Google. Vous pouvez utiliser les API tout au long du cycle de développement logiciel en les intégrant à des IDE, à des workflows CI/CD, à des tableaux de bord et à d'autres applications. Vous pouvez également personnaliser les modèles avec votre codebase. Nous ne recommandons pas Gemini 1.0 Pro Vision pour la génération de code.

Comment envoyer une requête au modèle Gemini 1.0 Pro ou Gemini 1.0 Pro Vision ?

Il existe plusieurs méthodes vous permettant d'envoyer des requêtes à l'API Gemini. Vous pouvez, par exemple, utiliser la console Google Cloud, un SDK de langage de programmation ou l'API REST pour envoyer des requêtes à gemini-1.0-pro (Gemini 1.0 Pro) ou à gemini-1.0-pro-vision (Gemini 1.0 Pro Vision).

Pour commencer, consultez la page Essayer l'API Gemini.

L'optimisation est-elle disponible pour Gemini ?

Vous pouvez affiner la version 002 de la version stable de Gemini 1.0 Pro (gemini-1.0-pro-002). Pour en savoir plus, consultez la page Présentation du réglage de modèle pour Gemini.

Sécurité et utilisation des données

Pourquoi mes réponses sont-elles bloquées ?

L'IA générative sur Vertex AI utilise des filtres de sécurité pour empêcher les réponses potentiellement dangereuses. Vous pouvez ajuster ce seuil de filtre de sécurité. Pour en savoir plus, consultez la page IA responsable.

Comment mes données d'entrée sont-elles utilisées ?

Google s'assure que ses équipes respectent nos engagements en matière de confidentialité de l'IA et du ML grâce à des pratiques solides de gouvernance des données, qui incluent l'examen des données utilisées par Google Cloud dans le développement de ses produits. Pour en savoir plus, consultez la page IA générative et gouvernance des données

Mettez-vous en cache mes données ?

Google peut mettre en cache les entrées et les sorties d'un client pour les modèles Gemini afin d'accélérer les réponses aux requêtes ultérieures du client. Les contenus mis en cache sont stockés pendant 24 heures au maximum. Par défaut, la mise en cache des données est activée pour chaque projet Google Cloud. Les mêmes paramètres de cache pour un projet Google Cloud s'appliquent à toutes les régions. Vous pouvez utiliser les commandes curl suivantes pour obtenir l'état de la mise en cache, désactiver la mise en cache ou la réactiver. Pour en savoir plus, consultez la section Prédiction de la page "IA générative" et "Gouvernance des données". Lorsque vous désactivez ou réactivez la mise en cache, la modification s'applique à toutes les régions Google Cloud. Pour en savoir plus sur l'utilisation de Cloud Identity and Access Management pour accorder les autorisations requises pour activer ou désactiver la mise en cache, consultez la page Contrôle des accès avec Vertex AI avec IAM. Développez les sections suivantes pour savoir comment obtenir le paramètre de cache actuel, désactiver la mise en cache et activer la mise en cache.

Obtenir le paramètre de mise en cache actuel

Exécutez la commande suivante pour déterminer si la mise en cache est activée ou désactivée pour un projet. Pour exécuter cette commande, un utilisateur doit disposer de l'un des rôles suivants: roles/aiplatform.viewer, roles/aiplatform.user ou roles/aiplatform.admin.

PROJECT_ID=PROJECT_ID
# Setup project_id
$ gcloud config set project PROJECT_ID

# GetCacheConfig
$ curl -X GET -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" -H "Content-Type: application/json" https://us-central1-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID/cacheConfig

# Response if caching is enabled (caching is enabled by default).
{
  "name": "projects/PROJECT_ID/cacheConfig"
}

# Response if caching is disabled.
{
  "name": "projects/PROJECT_ID/cacheConfig"
  "disableCache": true
}
    

Désactiver la mise en cache

Exécutez la commande curl suivante pour activer la mise en cache pour un projet Google Cloud. Pour exécuter cette commande, un utilisateur doit disposer du rôle d'administrateur Vertex AI, roles/aiplatform.admin.

PROJECT_ID=PROJECT_ID
# Setup project_id
$ gcloud config set project PROJECT_ID

# Setup project_id.
$ gcloud config set project ${PROJECT_ID}

# Opt-out of caching.
$ curl -X PATCH -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" -H "Content-Type: application/json" https://us-central1-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID/cacheConfig -d '{
  "name": "projects/PROJECT_ID/cacheConfig",
  "disableCache": true
}'

# Response.
{
  "name": "projects/PROJECT_ID/locations/us-central1/projects/PROJECT_ID/cacheConfig/operations/${OPERATION_ID}",
  "done": true,
  "response": {
    "@type": "type.googleapis.com/google.protobuf.Empty"
  }
}
    

Activer la mise en cache

Si vous avez désactivé la mise en cache pour un projet Google Cloud et que vous souhaitez la réactiver, exécutez la commande curl suivante. Pour exécuter cette commande, un utilisateur doit disposer du rôle d'administrateur Vertex AI, roles/aiplatform.admin.

PROJECT_ID=PROJECT_ID
LOCATION_ID="us-central1"
# Setup project_id
$ gcloud config set project PROJECT_ID

# Setup project_id.
$ gcloud config set project ${PROJECT_ID}

# Opt in to caching.
$ curl -X PATCH     -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" -H "Content-Type: application/json" https://us-central1-aiplatform.googleapis.com/v1beta1/projects/PROJECT_ID/cacheConfig -d '{
  "name": "projects/PROJECT_ID/cacheConfig",
  "disableCache": false
}'

# Response.
{
  "name": "projects/PROJECT_ID/locations/us-central1/projects/PROJECT_ID/cacheConfig/operations/${OPERATION_NUMBER}",
  "done": true,
  "response": {
    "@type": "type.googleapis.com/google.protobuf.Empty"
  }
}
    

Migration

Comment migrer Gemini de Google AI Studio vers Vertex AI Studio ?

La migration vers la plate-forme Vertex AI de Google Cloud propose une suite d'outils MLOps qui simplifient l'utilisation, le déploiement et la surveillance des modèles d'IA pour plus d'efficacité et de fiabilité. Pour migrer votre travail vers Vertex AI, importez vos données existantes dans Vertex AI Studio et utilisez l'API Gemini de Vertex AI. Pour en savoir plus, consultez la page Migrer de Gemini sur Google AI vers Vertex AI.

Comment passer de PaLM 2 à l'API Vertex AI Gemini en tant que modèle sous-jacent ?

Vous n'avez pas besoin de modifier l'architecture majeure de vos applications lorsque vous passez des modèles PaLM aux modèles Gemini. Du point de vue de l'API, le passage d'un modèle à un autre nécessite la modification d'une seule ligne de code ou la mise à jour du SDK. Pour en savoir plus, consultez la page Migrer de l'API PaLM vers l'API Vertex AI Gemini.

Étant donné que les réponses peuvent varier entre les modèles, nous vous recommandons d'effectuer des tests rapides pour comparer les réponses des modèles PaLM et Gemini afin de vérifier que les réponses répondent à vos attentes.

Disponibilité et prix

Dans quels pays le programme Gemini est-il disponible ?

Gemini 1.0 Pro et Gemini 1.0 Pro Vision sont disponibles en Asie, aux États-Unis et en Europe. Pour en savoir plus, consultez la page IA générative dans les emplacements Vertex AI.

Existe-t-il un niveau d'évaluation gratuit pour l'API Vertex AI Gemini ?

Contactez votre responsable de compte Google Cloud pour en savoir plus.

Quels sont les tarifs de l'API Vertex AI Gemini ?

Les informations tarifaires des modèles Gemini sont disponibles dans la section Multimodale de la page Tarifs pour l'IA générative sur Vertex AI.

Comment accéder à Gemini Ultra ?

Contactez votre responsable de compte Google pour demander l'accès.

Quotas

Comment résoudre une erreur de quota (429) lorsque j'effectue des requêtes API ?

Il y a une demande excessive ou la requête a dépassé votre quota par projet. Vérifiez que votre taux de demandes est inférieur au quota associé à votre projet. Pour afficher les quotas de projet, accédez à la page Quotas de la console Google Cloud. Pour en savoir plus, consultez la page Quotas et limites de l'IA générative sur Vertex AI.

Comment puis-je augmenter les quotas de mon projet pour Gemini ?

Vous pouvez demander une augmentation depuis la console Google Cloud. Pour en savoir plus, consultez la page Quotas et limites de l'IA générative sur Vertex AI.