Google AI Edge

هوش مصنوعی روی دستگاه برای موبایل، وب و برنامه های جاسازی شده

راه حل های روی دستگاه از مدل ها تا خطوط لوله

تسریع استقرار ML، بهینه سازی خطوط لوله و دسترسی آسان به LLM های قدرتمند

MediaPipe

وظایف مشترک بینایی، صوتی و زبانی را با استفاده از خطوط لوله ارائه شده انجام دهید یا خودتان بسازید. شامل مدل هایی برای بسیاری از موارد استفاده، و پشتیبانی از انواع LLM های محبوب.

بیشتر بدانید

TensorFlow Lite

استقرار مدل‌هایی که در هر چارچوبی برای موبایل، وب و تعبیه‌شده نوشته شده‌اند.

بیشتر بدانید

جمینی نانو

از طریق Android AICore به کارآمدترین مدل Gemini ما برای کارهای روی دستگاه دسترسی داشته باشید. به زودی برای کروم.

بیشتر بدانید

کاوشگر مدل

مدل های ML را برای عیب یابی سریع و یافتن اهداف بهینه سازی تجسم کنید.

بیشتر بدانید

یک پشته سرتاسری که دارای اجزای سطح بالا و پایین است

چه خبر از I/O؟

PyTorch در TFLite

با ابزارهای داخلی جدید، به راحتی مدل های PyTorch را به TensorFlow Lite تبدیل کنید.

بیشتر بدانید

Torch Generative API

معماری های LLM خود را به TensorFlow Lite بیاورید.

بیشتر بدانید

مدل های بزرگتر در وب

جدیدترین نسخه ما از MediaPipe LLM Inference API اکنون از مدل های بزرگتر در وب پشتیبانی می کند، تا Gemma 7B در int8، با اجازه سخت افزار.

بیشتر بدانید

LoRA در MediaPipe

تنظیم دقیق مدل‌های LLM با استفاده از وزن‌های LoRA برای بهبود دقت با کمترین تأثیر بر روی ردپای مدل.

بیشتر بدانید

کاوشگر مدل

با تجسم مدل قدرتمند، تبدیل، کمی سازی و اشکال زدایی را سرعت بخشید.

بیشتر بدانید