Inserir una capa RAG en Mi Proyecto y Mi Experiencia con Cursor Título: DR mía Para el proyecto LangChain-MySQL mostró cómo un agente de LangChain de múltiples etapas le permite hacer preguntas en lenguaje natural a través de MySQL. Las llamadas pesadas y las llamadas repetidas de LLM, sin embargo, hicieron que el sistema fuera lento y propenso a los errores de OpenAI “429 Too Many Requests”. Primero Artículo Primero Artículo What’s new in Part 2: cargar solo los fragmentos de esquema que necesita - columnas, claves, índices - por lo que las prompts se contraen y la latencia cae. Persistent FAISS vector store - ensayos de unidad, integración y mock-DB conectados a CI - captura los casos de esquema-drift y de recogida antes de que lleguen a la producción. Comprehensive test suite Se añadieron relaciones de clave extranjera al vector DB, lo que mejora la representación del esquema y reduce el uso de token. LLM rate‑limit resolution — Antes de sumergirnos, aquí están los dos show-stoppers de la parte 1: Problem 1 — LLM Lost in Table Relationships El LLM no sabe cómo se conectan sus tablas - termina escribiendo cada camino de unión a mano en cada prompt. Problem 2 — Schema Bulk Breaks Rate Limits Dumping el esquema completo de la base de datos en su prompt consume tokens y casi siempre viaja los 429 errores de OpenAI antes de que incluso obtenga una respuesta. Investigación y Solución: What is a Vector Database? a es un almacenamiento de datos especializado diseñado para mantener y consultar (ramas de números) en lugar de líneas y columnas tradicionales. vector database vector representations Integrating the Vector Database Todos los metadatos de esquema de la base de datos - DDL, relaciones PK/FK, información de índice, comentarios - se extraen a documentos ricos, luego se embalan y persisten en FAISS para una búsqueda semántica de velocidad rápida. Why FAISS? LLM sugirió FAISS. Además También puedo utilizar , o - cada uno soporta el almacenamiento incorporado y la recuperación rápida y puede satisfacer los requisitos de este proyecto. Faísca Croma, Cabrera Weaviate (Facebook AI Similarity Search) es una biblioteca de código abierto desarrollada por el grupo Fundamental AI Research de Meta para la búsqueda eficiente de similitudes y el agrupamiento de vectores densos. Faísca What I Store: More Than Just a Table Blueprint? Crucialmente, no solo almaceno detalles básicos de esquema como nombres de tablas y columnas en esta base de datos vectorial. También capturo y almaceno explícitamente información sobre las relaciones de clave extranjera que definen cómo estas tablas se conectan. What is RAG? La generación aumentada de recuperación (RAG) es el patrón de: Recuperar las incorporaciones más relevantes del vector DB, Aumentar la prompt del LLM con ese contexto recuperado, generando la respuesta final. En otras palabras, RAG depende de un vector DB para obtener sólo los bits correctos de conocimiento antes de llamar al LLM. Why They Matter to LLM-Powered Apps? Un vector DB + RAG le permite mantener su "base de conocimientos" fuera de la prompt y sacar sólo lo que se necesita. Piense en el LLM como un estudiante que puede recordar solo unas pocas páginas a la vez.El vector DB es el catálogo de la biblioteca, y RAG es el flujo de trabajo de recoger las páginas exactas necesarias antes de que el estudiante escriba su ensayo. How Vector DB Helps with LLM API Rate Limit? Una base de datos vectorial almacena su esquema como embeddings, cada tabla, columna o relación se convierte en un pedazo de búsqueda.Cuando un usuario hace una pregunta (como “¿Cuántos pacientes visitaron la semana pasada?”), el sistema convierte esa pregunta en un embedding y realiza una búsqueda de similitud. como tal , de , y . top-k most relevant tables patients visits appointments Este contexto enfocado es luego transmitido al LLM, manteniendo las solicitudes pequeñas mientras que todavía proporciona la información que necesita para generar SQL exacto. Retrieval-Augmented Generation Flow (Steps 4 & 5) for the Project Después de implementar la conciencia de clave extranjera en mi base de datos vectorial, los 2 problemas (mencionados anteriormente) se resuelven correctamente. Enlace en GitHub: click here Aquí Demos Estoy cargando una base de datos de muestras - En el entorno de pruebas SACILLA sakila SACILLA SACILLA Cada respuesta contiene tres partes Querido Querido Querer resultados Explicación y y y In the Second Half of This Article, How Do I Steer My AI Coder(s)? En la segunda mitad de este artículo, ¿Cómo controlo mi codificador de IA(s)? Dirigió el proyecto estableciendo metas y haciendo preguntas, el LLM manejó el levantamiento pesado. Destacó los problemas, propuso soluciones y explicó los compromisos, mientras que tomé las decisiones finales sobre qué camino seguir. Algunos consejos para los conductores: Establezca objetivos y prioridades claras, luego deje que el LLM maneje los detalles de la implementación. First, Think Like a Leader: Execute las pruebas, pídale al LLM que debugue cualquier fallo, y a menudo lo encontrará sugiriendo diseños más limpios a mitad de curso. Solid tests are your safety net — but with the LLM acting as your pair programmer, you get instant feedback. Al igual que un gerente humano, la micromanagement daña la eficiencia del equipo. Especifique lo que debe ocurrir, pero confíe en el LLM para decidir cómo. Las advertencias excesivamente restrictivas pueden conducir a diseños extraños o errores ocultos. Además, te atrae a los detalles de la implementación y te agota. Naturalmente, cuando te metes en esta situación, se sentiría mejor escribir código a mano. Avoid Micromanagement: — Si el LLM se desliza o se desliza de la pista, un rápido empujón o aclaración es todo lo que se necesita para volver al curso. No es raro que un LLM pase 20 minutos tratando de arreglar una prueba sin éxito. Sin embargo, solo me toma un minuto para encontrar la causa raíz. Nuestros equipos de robots siempre necesitan directores. Intervene When Needed No se olvide - cada solicitud LLM cuesta dinero. tenga en cuenta esto cuando el LLM está en modo de auto-interrogación. Nuestro Linkedin Aquí Aquí