Disciplina · Integraciones IA / LLM

Integraciones de IA y LLM en producto

Integramos modelos de lenguaje (GPT, Claude, Gemini, Llama) y otros modelos generativos en producto real, no en demos. RAG sobre la base de conocimiento del cliente, agentes con function calling, evaluación sistemática, controles de coste y latencia, y patrones de UX que la gente entiende de verdad.

  • Más de 30 integraciones en producción con OpenAI, Anthropic, Azure OpenAI y Vertex AI
  • RAG enterprise con pgvector, Qdrant o Pinecone — sin demos que no escalan
  • Function calling, tools y agentes con LangGraph, Mastra o implementaciones propias
  • Evaluación con Ragas / LLM-as-judge y observabilidad de coste y latencia en producción
01 // QUÉ HACE FALTA

El abismo entre demo y producto en IA generativa

Cualquier ingeniero con dos horas puede montar una demo conectada a ChatGPT que parece mágica. Llevar esa demo a producto para 5.000 empleados internos o 500.000 clientes externos es otra liga. Allí aparecen los problemas reales: coste por usuario, latencia P95 inaceptable, alucinaciones, fugas de información confidencial, deriva del modelo en cada release del proveedor, fallos cuando el LLM está caído y ausencia total de evaluación cuantitativa.

Nuestra práctica de IA está construida exactamente sobre esos problemas. Cuando entramos en un proyecto, la primera pregunta no es '¿qué modelo usamos?' sino '¿cómo medimos si funciona?'. Sin métricas no hay producto — hay un PoC vistoso que terminará retirado en seis meses.

02 // RAG

Retrieval-Augmented Generation para conocimiento interno

El patrón más común en empresa es RAG: dar al LLM acceso controlado a la base de conocimiento de la empresa (documentación, manuales, contratos, tickets históricos, base de datos) sin reentrenar el modelo. La calidad del RAG está casi siempre en el pipeline de ingestión, no en el LLM: chunking inteligente (recursivo, por estructura, por semántica), embeddings adecuados al dominio (multilingual, jurídico, médico), búsqueda híbrida BM25 + vectorial con reranker, y un control de citas obligatorio para auditoría.

El almacenamiento depende del volumen: pgvector dentro del PostgreSQL existente para empezar (hasta cientos de miles de chunks sin despeinarse), Qdrant o Weaviate para escala media, Pinecone o Vespa para escala muy alta. Lo decidimos con el cliente — y migramos cuando hace falta, sin atarse a una elección temprana.

03 // AGENTES

Function calling y agentes con responsabilidad

Cuando el caso de uso requiere acción (consultar APIs internas, ejecutar consultas SQL leyendo solo lo permitido, agendar tareas, generar documentos firmables), pasamos de chat a agente. La arquitectura es siempre la misma: herramientas tipadas con esquemas JSON Schema o Zod, validación estricta de outputs del LLM, autorización por rol del usuario antes de ejecutar cada herramienta, y trazabilidad completa de cada paso del agente para auditoría posterior.

Usamos LangGraph o Mastra como capa de orquestación cuando el agente tiene más de tres pasos, y implementaciones propias livianas cuando bastan dos. Evitamos los frameworks 'agente automágico' que esconden la lógica detrás de prompts mágicos: en empresa, lo que no puedes auditar no llega a producción.

04 // EVALUACIÓN Y COSTE

Métricas, evaluación continua y coste bajo control

Toda integración LLM que entregamos viene con su set de evaluación: dataset de preguntas representativas, criterios de calidad (faithfulness, answer relevancy, citation accuracy, latencia P50/P95, coste por interacción), pipeline de evaluación automatizada en CI con Ragas y LLM-as-judge calibrado, y dashboards públicos para el equipo de producto.

El coste se gestiona desde el día uno: caching agresivo de embeddings, cache semántico de respuestas frecuentes, ruteo de modelos por complejidad (Haiku/Mini para tareas triviales, Sonnet/4o para producción, Opus/o1 solo cuando se justifica), límites duros por usuario y por minuto, y observabilidad de coste por feature. No hay sorpresas en la factura.

Cuando el caso lo justifica entrenamos modelos propios — fine-tuning de modelos open (Llama, Mistral, Qwen) o ajustes ligeros vía LoRA — pero solo cuando ya hemos demostrado con modelos cerrados que el caso funciona y que el ahorro lo compensa.

05 // STACK

Tecnologías y herramientas que usamos

No es un catálogo de logos: es la combinación concreta con la que entregamos producto. Elegimos por problema, no por moda.

Proveedores LLM

  • > OpenAI
  • > Anthropic Claude
  • > Google Gemini / Vertex AI
  • > Azure OpenAI
  • > Llama / Mistral / Qwen self-hosted

Orquestación

  • > LangGraph
  • > Mastra
  • > Vercel AI SDK
  • > LiteLLM
  • > Implementaciones propias

Búsqueda y vectores

  • > pgvector
  • > Qdrant
  • > Weaviate
  • > Pinecone
  • > Meilisearch (híbrido)

Evaluación

  • > Ragas
  • > LLM-as-judge calibrado
  • > Promptfoo
  • > Langfuse
  • > Datasets propios

Observabilidad y coste

  • > Langfuse
  • > OpenTelemetry
  • > Helicone
  • > Costes por feature
  • > Rate-limit por usuario
06 // CONFIANZA

Empresas que ya trabajan con nosotros en integraciones ia / llm

Una selección representativa del histórico vinculado a esta disciplina. La lista completa de clientes vive en /clientes.

Logotipo de Insparya — cliente de 10Code Software en Integraciones IA / LLM

Insparya

Asistente clínico interno con RAG médico

Logotipo de Kimitec — cliente de 10Code Software en Integraciones IA / LLM

Kimitec

IA generativa aplicada a agro-tech

Logotipo de IAGT — cliente de 10Code Software en Integraciones IA / LLM

IAGT

Plataforma de inteligencia con LLMs

Logotipo de Humanox — cliente de 10Code Software en Integraciones IA / LLM

Humanox

Asistente interno con búsqueda semántica

Logotipo de Mercedes-Benz — cliente de 10Code Software en Integraciones IA / LLM

Mercedes-Benz

Visión y NLP en sistemas industriales

Logotipo de Metroscopia — cliente de 10Code Software en Integraciones IA / LLM

Metroscopia

Analítica conversacional sobre encuestas

07 // PREGUNTAS

Preguntas frecuentes sobre integraciones ia / llm

Las dudas más concretas que nos plantean los CTOs y direcciones técnicas. Si la tuya no está, escríbenos directamente.

¿Qué modelo de LLM recomendáis?+
Depende del caso. Para empresa con NDA fuerte, Anthropic Claude (Sonnet/Opus) o Azure OpenAI con zero data retention. Para coste bajo en tareas simples, GPT-4o-mini o Claude Haiku. Para soberanía de datos en cloud propio, Llama 3 o Qwen 2.5 self-hosted. Nunca recomendamos un modelo sin medirlo en vuestro caso real.
¿Cómo evitáis las alucinaciones del LLM?+
Tres palancas: RAG con citas obligatorias (si el LLM no puede citar fuente, no responde), validación estructurada de outputs con JSON Schema o Zod, y evaluación continua con LLM-as-judge calibrado contra un dataset etiquetado por experto humano. El cero alucinaciones absoluto no existe; lo que sí existe es producir menos del 1% medido.
¿Mis datos confidenciales acaban entrenando el modelo del proveedor?+
No, si elegimos bien el proveedor y el plan. Anthropic Claude API, OpenAI API enterprise, Azure OpenAI y Google Vertex AI ofrecen contratos con zero data retention y prohibición explícita de uso para entrenamiento. Los firmamos antes de tocar datos reales. Para casos muy sensibles desplegamos modelos open self-hosted en tu propia VPC.
¿Cuánto puede costar mantener una integración LLM en producción?+
Para un asistente interno con 200-500 usuarios activos al día, típicamente entre 200 € y 1.500 € al mes en API + 50-300 € de infraestructura, dependiendo de modelo y volumen de tokens. Para producto público con miles o cientos de miles de usuarios el coste se gestiona con caching, modelo más barato por defecto y fine-tuning. Te damos cifras concretas en la primera reunión.
¿Hacéis fine-tuning de modelos?+
Sí, cuando el caso lo justifica. Fine-tuning supervisado (SFT) o LoRA sobre modelos open (Llama 3.x, Mistral, Qwen) cuando ya hemos demostrado con modelos cerrados que el caso funciona y que el ahorro o el control compensan. Nunca como primera opción — el prompt engineering bien hecho y el RAG resuelven el 80% de los casos.

¿Buscas una respuesta más general? Revisa también el FAQ completo o nuestra página de clientes.

Siguiente Paso

Hablemos de la integración de IA que quieres llevar a producto

Asistente interno, copilot embebido en tu producto, automatización con agentes o evaluación de un caso de uso. Te respondemos en menos de 24 horas laborables con una primera lectura realista.

Iniciar conversación

Respuesta estimada < 24h