Google AI Edge

On-Device-KI für mobile, Web- und eingebettete Anwendungen

Generative AI, läuft auf dem Gerät

MediaPipe LLM Inference API

Sie können LLMs vollständig auf dem Gerät ausführen und eine Vielzahl von Aufgaben erledigen, z. B. Text generieren, Informationen in natürlicher Sprache abrufen und Dokumente zusammenfassen. Die API bietet integrierte Unterstützung für mehrere Large Language Models (Text-zu-Text), sodass Sie die neuesten generativen KI-Modelle auf dem Gerät auf Ihre Apps und Produkte anwenden können. Weitere Informationen

Generative Torch API

Erstellen Sie leistungsstarke LLMs in PyTorch und konvertieren Sie sie dann zur Ausführung mit der TensorFlow Lite-Laufzeit (TFLite) auf dem Gerät. Weitere Informationen

Zwillinge Nano

Über Android AICore können Sie auf unser effizientes Gemini-Modell für Aufgaben auf dem Gerät zugreifen. Bald in Chrome verfügbar.

Warum sollten Sie ML auf Edge-Geräten bereitstellen?

Tacho

Latenz

Dank der einfachen und schnellen Medienverarbeitung in Echtzeit kannst du den Umweg des Servers überspringen.

Schloss-Symbol

Datenschutz

Führen Sie Inferenzen lokal durch, ohne dass sensible Daten das Gerät verlassen.

Kein Geld

Kosten

Nutzen Sie Rechenressourcen auf dem Gerät und sparen Sie Serverkosten.

Kein WLAN

Verfügbarkeit von Offlineinhalten

Keine Netzwerkverbindung? Kein Problem.