将 RAG 层插入我的项目和我的 Cursor 体验 博士;博士 我的 对于LangChain-MySQL项目,一个多阶段的LangChain代理可以让您通过MySQL提出自然语言问题,但重量级的提示和重复的LLM呼叫使得系统变得缓慢,容易出现OpenAI“429太多的请求”错误。 first 文章 第一 文章 What’s new in Part 2: 只加载所需的方案块 - 列,键,索引 - 因此提示会缩小,延迟会下降。 Persistent FAISS vector store 将单元、集成和模具-DB 测试连接到 CI 中 - 在它们进入生产之前捕捉到计划驱动和检索边缘案例。 Comprehensive test suite 向 vector DB 添加了外部密钥关系,从而提高了方案表示,并减少了代币的使用。 LLM rate‑limit resolution — 在我们沉浸之前,这里是第1部分的两个表演站点: Problem 1 — LLM Lost in Table Relationships LLM不知道你的桌子是如何连接的 - 你最终在每个提示中用手拼出每条连接路径。 Problem 2 — Schema Bulk Breaks Rate Limits 将完整的数据库方案投放到你的提示中,会消耗代币,并且几乎总是在你得到答案之前,就会错过OpenAI的429个错误。 研究与解决: What is a Vector Database? A 的 是一个专门的数据存储器,旨在持有和查询 (数字序列)而不是传统的行和列。 vector database vector representations Integrating the Vector Database 数据库的所有方案元数据 - DDL、PK/FK 关系、索引信息、评论 - 都被拉入丰富的文档中,然后嵌入并持续在 FAISS 中进行闪电快速的语义搜索。 Why FAISS? LLM 建议 FAISS. 此外 我也可以使用 ,或 每个支持嵌入式存储和快速检索,可以满足这个项目的要求。 法西斯 重心 (Facebook AI 相似性搜索) 是一个由Meta 的基本人工智能研究小组开发的开源库,用于高效的相似性搜索和密集化密集 vector。 法西斯 What I Store: More Than Just a Table Blueprint? 至关重要的是,我不仅仅在这个矢量数据库中存储表和列名等基本的方案细节,我还明确地捕捉和存储有关这些表如何连接的外钥关系的信息。 What is RAG? Retrieval-Augmented Generation(RAG)是以下的模式: 从 vector DB 获取最相关的嵌入, 增加LLM的提示与这个回收的背景, 生成最后的答案。 换句话说,RAG在调用LLM之前依赖于矢量DB来获取正确的知识。 Why They Matter to LLM-Powered Apps? 一个 vector DB + RAG 允许您将您的“知识库”保留在提示之外,并只引入所需的内容。 想想LLM作为一个学生,谁可以记住只有几个页面一次. 矢量DB是图书馆的目录,而RAG是工作流,在学生写他们的论文之前提取所需的确切页面。 How Vector DB Helps with LLM API Rate Limit? 矢量数据库将您的方案存储为嵌入式 - 每个表、列或关系都成为可搜索的部分. 当用户提出一个问题(例如“上周访问了多少患者?”),系统将该问题转换为嵌入式,并执行相似性搜索。 如如 , ,和 . top-k most relevant tables patients visits appointments 这个专注的背景然后传递到LLM,保持提示小,同时仍然提供所需的信息来生成准确的SQL。 Retrieval-Augmented Generation Flow (Steps 4 & 5) for the Project 在我的矢量数据库中实施外钥意识后,上述2个问题(前面提到的)得到正确解决。 GitHub 链接: click 这里 这里 示威 我正在加载样本数据库 - 进入测试环境 撒基拉 sakila 撒基拉 撒基拉 每个答案包括3个部分 查询 查询 想要的结果 解释 是的 是的 是的 In the Second Half of This Article, How Do I Steer My AI Coder(s)? 在本文的下半部分,我如何控制我的AI编码器(s)? 我通过设定目标和提出问题来推动这个项目,法学硕士处理了重型举动,突出了问题,提出了解决方案,并解释了妥协,而我做出了最后的决定,走哪条路。 给司机一些建议: 你是管理员,不是编码员,设置明确的目标和优先事项,然后让LLM处理实施细节。 First, Think Like a Leader: 运行测试,请LLM调试任何失败,你会经常发现它在中间建议更干净的设计。 Solid tests are your safety net — but with the LLM acting as your pair programmer, you get instant feedback. 像人類經理一樣,微型管理損害了團隊的效率。指定需要發生什麼,但相信法學硕士決定如何決定。過度限制提示可能導致奇怪的設計或隱藏的錯誤。 Avoid Micromanagement: 如果法学硕士跑步或走出轨道,一个快速的冲击或澄清是回归课程所需的一切。对于法学硕士来说,花20分钟试图修复测试而没有成功并不罕见。 Intervene When Needed 不要忘记 - 每个LLM请求都花费钱. 当LLM处于自我询问模式时,要注意这一点。 我的LinkedIn 这里 这里