Google AI Edge

IA intégrée à l'appareil pour les applications mobiles, Web et intégrées

IA générative, exécutée sur l'appareil

API MediaPipe LLM Inference

Exécutez des LLM entièrement sur l'appareil et effectuez un large éventail de tâches, comme générer du texte, récupérer des informations en langage naturel et résumer des documents. L'API est compatible avec plusieurs grands modèles de langage texte-vers-texte, ce qui vous permet d'appliquer les derniers modèles d'IA générative sur l'appareil à vos applications et produits. En savoir plus

API Torch Generative

Créez des LLM hautes performances dans PyTorch, puis convertissez-les pour qu'ils s'exécutent sur l'appareil à l'aide de l'environnement d'exécution TensorFlow Lite (TFLite). En savoir plus

Gemini Nano

Accédez à notre modèle Gemini le plus efficace pour les tâches sur l'appareil via Android AICore. Bientôt disponible dans Chrome.

Pourquoi déployer le ML sur des appareils de périphérie ?

Icône Compteur de vitesse

Tardive

Bénéficiez d'un traitement multimédia en temps réel simple, rapide et sans intervention du serveur.

Icône en forme de cadenas

Confidentialité

Effectuez des inférences en local, sans que les données sensibles ne quittent l'appareil.

Pas d'argent

Coût

Utilisez les ressources de calcul sur l'appareil et faites des économies sur les coûts de serveur.

Aucune connexion Wi-Fi

Disponibilité de la lecture hors connexion

Aucune connexion réseau. Aucun problème.