RAG y Bases de Conocimiento
Construye sistemas RAG desde cero: chunking, embeddings, bases vectoriales, búsqueda híbrida, reranking y evaluación con RAGAS. Todo en español.
Lo Que Aprenderás
- Explicar cómo RAG resuelve las alucinaciones y limitaciones de conocimiento de los LLMs
- Implementar pipelines de procesamiento de documentos con estrategias de chunking y overlap
- Comparar modelos de embeddings y bases de datos vectoriales para seleccionar las herramientas adecuadas
- Diseñar estrategias de recuperación con búsqueda híbrida, reranking y reescritura de consultas
- Construir pipelines de generación con anclaje, citaciones y control de alucinaciones
- Evaluar sistemas RAG usando métricas RAGAS: faithfulness, relevancia de contexto y relevancia de respuesta
Programa del Curso
El problema que nadie te cuenta sobre los LLMs
Le preguntas a ChatGPT sobre la política de devoluciones de tu empresa. Te responde con total confianza. Y está completamente equivocado.
Eso son las alucinaciones: respuestas que suenan perfectas pero son inventadas. Y no importa qué tan bueno sea el LLM — si no tiene acceso a tu información, va a inventar. Cada vez. El 78% de las Fortune 500 ya usan RAG para resolver exactamente este problema.
RAG (Retrieval-Augmented Generation) conecta los LLMs con tus datos reales. En lugar de inventar, el modelo busca en tu base de conocimiento y responde con información verificable. Con citaciones.
En este curso vas a construir un sistema RAG completo desde cero — no solo entender la teoría, sino armarlo pieza por pieza.
Lo que vas a construir
- Un pipeline de procesamiento que convierte documentos en fragmentos buscables
- Una base de datos vectorial con embeddings multilingües que funcionan en español
- Un sistema de búsqueda híbrida que combina keywords y semántica para encontrar la información correcta
- Un generador con anclaje que produce respuestas confiables con citaciones
- Un pipeline de evaluación con métricas RAGAS para medir calidad objetivamente
Para quién es este curso
- Desarrolladores que quieren agregar RAG a sus aplicaciones
- Ingenieros de datos que necesitan conectar bases de conocimiento con LLMs
- Líderes técnicos evaluando si RAG es la solución para su equipo
- Cualquier profesional técnico que quiere ir más allá de los chatbots genéricos
Requisitos previos
- Familiaridad con APIs y formatos de datos (JSON, CSV)
- Entendimiento básico de qué son los LLMs y cómo funciona el prompting
- Conocimiento básico de Python (recomendado pero no obligatorio)
Preguntas Frecuentes
¿Necesito saber programar para tomar este curso?
No es obligatorio. Los conceptos clave (arquitectura, chunking, recuperación) se explican sin código. Los ejercicios opcionales usan Python, pero entenderás cómo funcionan los sistemas RAG incluso sin programar.
¿Cuál es la diferencia entre RAG y fine-tuning?
RAG recupera información relevante de documentos externos en el momento de la consulta. Fine-tuning cambia permanentemente los pesos del modelo. Este curso cubre RAG porque es más rápido de implementar, más fácil de actualizar y no requiere infraestructura de ML.
¿Qué base de datos vectorial enseña este curso?
El curso es agnóstico de base de datos. Aprenderás los principios que aplican a Supabase pgvector, Pinecone, Weaviate, Qdrant y Chroma. Las comparamos para que elijas la correcta.
¿Puedo usar RAG con cualquier LLM?
Sí. RAG funciona con Claude, ChatGPT, Gemini, Llama, Mistral y cualquier otro LLM. El pipeline de recuperación es independiente del modelo.