Acerca de la búsqueda vectorial

Memorystore para Redis admite el almacenamiento y la consulta de datos vectoriales. En esta página, se proporciona información sobre la búsqueda de vectores en Memorystore para Redis.

La búsqueda vectorial en Memorystore para Redis es compatible con el framework de código abierto de LLM LangChain. El uso de la búsqueda vectorial con LangChain te permite crear soluciones para los siguientes casos de uso:

  • Generación de aumento de recuperación (RAG)
  • Caché de LLM
  • Motor de recomendaciones
  • Búsqueda semántica
  • Búsqueda de similitud de imágenes

La ventaja de usar Memorystore para almacenar tus datos de IA generativa en comparación con otras bases de datos de Google Cloud es la velocidad de Memorystore. La búsqueda vectorial en Memorystore para Redis aprovecha las consultas de varios subprocesos, lo que da como resultado una alta capacidad de procesamiento de consultas (QPS) con baja latencia.

Memorystore también ofrece dos enfoques de búsqueda distintos para ayudarte a encontrar el equilibrio adecuado entre velocidad y exactitud. La opción HNSW (Hierarchical Navigable Small World) ofrece resultados rápidos y aproximados. Es ideal para conjuntos de datos grandes en los que una coincidencia cercana es suficiente. Si requieres precisión absoluta, el enfoque “plano” produce respuestas exactas, aunque puede llevar un poco más de tiempo procesarlas.

Si quieres optimizar tu aplicación a fin de obtener las velocidades más rápidas de lectura y escritura de datos vectoriales, Memorystore para Redis es probablemente la mejor opción para ti.

Puedes usar la búsqueda vectorial para consultar datos almacenados en tu instancia de Redis. Esta función no está disponible en Memorystore for Redis Cluster.