Un embedding es una representación numérica densa —un vector de varios cientos o miles de números reales— que captura el significado de un trozo de texto, una imagen, un audio o cualquier otro dato. Los embeddings se generan con redes neuronales entrenadas con el objetivo de que elementos semánticamente similares queden cerca en el espacio vectorial: "perro" y "cachorro" tendrán vectores muy parecidos; "perro" y "amortiguador" estarán lejos.
Esa propiedad —que la cercanía en el espacio vectorial refleja similitud semántica— es lo que hace a los embeddings la base de la búsqueda semántica moderna, los sistemas RAG, los recommenders, la deduplicación, la clasificación zero-shot, el clustering temático y el matching entre consultas e ítems. Comparado con la búsqueda por palabras clave tradicional, los embeddings encuentran resultados conceptualmente relacionados aunque no compartan ninguna palabra.
Los modelos de embeddings más usados hoy son comerciales (OpenAI text-embedding-3-small/large, Cohere embed-v3, Voyage voyage-3, Google text-embedding-004) y abiertos (BGE, E5, Nomic Embed, jina-embeddings). Las dimensiones típicas van de 384 a 3072. La elección depende del idioma soportado, del coste por millón de tokens y del rendimiento en benchmarks como MTEB.
En 10Code generamos embeddings para construir RAG sobre documentos corporativos, búsqueda semántica en catálogos, deduplicación de tickets de soporte y clustering de feedback de usuarios. Los almacenamos en pgvector (cuando el volumen lo permite) o en bases vectoriales dedicadas, y aplicamos filtros relacionales combinados con la búsqueda por similitud para mantener respuestas relevantes al contexto del usuario o cliente.
En 10Code llevamos más de una década aplicando estas tecnologías a productos reales. Si quieres comentarnos tu caso, escríbenos y te respondemos personalmente.
Hablar con un ingeniero