Borda de IA do Google

IA no dispositivo para aplicativos incorporados, da Web e para dispositivos móveis

IA generativa em execução no dispositivo

API MediaPipe LLM Inference

Execute os LLMs no dispositivo e realize diversas tarefas, como gerar texto, extrair informações em formato de linguagem natural e resumir documentos. A API oferece suporte integrado a vários modelos de linguagem grandes de texto para texto para que você possa aplicar os modelos de IA generativa mais recentes no dispositivo aos seus apps e produtos. Saiba mais

API Torch Generative

Crie LLMs de alto desempenho no PyTorch e depois os converta para serem executados no dispositivo usando o ambiente de execução do TensorFlow Lite (TFLite). Saiba mais.

Gemini Nano

Acesse nosso modelo Gemini mais eficiente para tarefas no dispositivo com o Android AICore. Em breve no Chrome.

Por que implantar ML em dispositivos de borda?

Ícone de velocímetro

Demorada

Ignore o tempo de retorno do servidor para processamento de mídia fácil, rápido e em tempo real.

Ícone de bloqueio

Privacidade

Faça inferências no local, sem que dados sensíveis saiam do dispositivo.

Sem dinheiro

Custo

Use os recursos de computação no dispositivo e economize com o servidor.

Sem Wi-Fi

Disponibilidade off-line

Sem conexão de rede. Não tem problema.