Вметнете RAG слој во Мојот проект и Моето искуство со курсор Др ; Др Мојата За LangChain-MySQL проектот покажа како мулти-фаза LangChain агент ви овозможува да поставувате прашања на природен јазик преку MySQL. Тешки повици и повторени LLM повици, сепак, го направи системот бавен и склони на OpenAI "429 Премногу барања" грешки. Прво статија Прво статија What’s new in Part 2: оптоварува само парчињата на шемата што ви се потребни - колони, клучеви, индекси - така што повиците се намалуваат и латенцијата се намалува. Persistent FAISS vector store – единица, интеграција и mock-DB тестови поврзани со CI – фаќаат случаи на шема-drift и ресетирање пред да стигнат до производството. Comprehensive test suite Додадени се странски клучни односи на векторот DB, што ја подобрува репрезентацијата на шемата и ја намалува употребата на токените. LLM rate‑limit resolution — Пред да се нурнеме, еве ги двата шоу-стопсери од дел 1: Problem 1 — LLM Lost in Table Relationships LLM не знае како вашите табели се поврзуваат - ќе завршите со правопис на секој пат за приклучување со рака во секој повик. Problem 2 — Schema Bulk Breaks Rate Limits Депонирањето на целосната шема на базата на податоци во вашиот повик ги јаде токените и речиси секогаш ги минува 429 грешките на OpenAI пред да добиете одговор. Истражување и решавање: What is a Vector Database? А е специјализирана продавница за податоци дизајнирана за чување и пребарување (редови на броеви) наместо традиционални редови и колони. vector database vector representations Integrating the Vector Database Сите метаподатоци на шемата на базата на податоци – DDL, PK/FK односи, индексни информации, коментари – се повлекуваат во богати документи, а потоа се вградуваат и продолжуваат во FAISS за молња-брзо семантичко пребарување. Why FAISS? LLM предложи FAISS. Покрај тоа Исто така можам да користам или - секој поддржува вградување на складирање и брзо пребарување и може да ги задоволи барањата на овој проект. Фајс Хрватите, Крема Тешко (Facebook AI Similarity Search) е библиотека со отворен код развиена од групата Fundamental AI Research на Мета за ефикасно пребарување на сличностите и групирање на густи вектори. Фајс What I Store: More Than Just a Table Blueprint? Важно е дека не само што ги чувам основните детали за шемата како што се имињата на табелите и колоните во оваа векторска база на податоци, туку и експлицитно ги фаќам и чувам информациите за односите со странски клучеви кои го дефинираат начинот на кој овие табели се поврзуваат. What is RAG? Retrieval-Augmented Generation (RAG) е модел на: Повлекување на најрелевантните вградувања од векторот DB, Зголемување на повикот на LLM со тој преземен контекст, генерирање на конечниот одговор. Со други зборови, RAG зависи од вектор DB да ги собере само вистинските битови на знаење пред да се јавите на LLM. Why They Matter to LLM-Powered Apps? Вектор DB + RAG ви овозможува да ја задржите вашата "база на знаења" надвор од повикот и да го повлечете само она што е потребно. Размислете за LLM како студент кој може да се сеќава само на неколку страници во исто време. вектор DB е каталог на библиотеката, а RAG е работен тек на собирање на точните страници потребни пред студентот да го напише своето есеј. How Vector DB Helps with LLM API Rate Limit? Векторската база на податоци ја зачувува вашата шема како вградувања – секоја табела, колона или однос станува пребарувачки дел. Кога корисникот поставува прашање (како што е „Колку пациенти го посетија минатата недела?“), системот го претвора тоа прашање во вградување и врши пребарување за сличност. Како што , на и . top-k most relevant tables patients visits appointments Овој фокусиран контекст потоа се пренесува на LLM, одржувајќи ги повиците мали додека сеуште обезбедува информациите што треба да генерираат точни SQL. Retrieval-Augmented Generation Flow (Steps 4 & 5) for the Project По имплементацијата на свеста за странски клуч во мојата векторска база на податоци, 2 проблеми (укажани порано) се правилно решени. GitHub линк: click here Овде Демо Јас се вчита примерок база на податоци - Влезете во тестовата средина Сакила sakila Сакила Сакила Секој одговор содржи три дела. Побарувачката Резултати на Query Објаснување Ѕидот Ѕидот Ѕидот In the Second Half of This Article, How Do I Steer My AI Coder(s)? Во втората половина на овој напис, како можам да го контролирам мојот AI кодер(и)? Јас го водел проектот со поставување на цели и поставување на прашања, LLM се справи со тешките подигнување. Тоа ги истакна проблемите, предложи решенија и објасни компромиси, додека јас ги донесе конечните одлуки за кој пат да се следи. Неколку совети за возачите: Поставете јасни цели и приоритети, а потоа дозволете на LLM да се справи со деталите за имплементација. First, Think Like a Leader: Извршете ги тестовите, побарајте од LLM да ги исправи сите неуспеси, и често ќе најдете дека сугерираат чисти дизајни во средината на трката. Solid tests are your safety net — but with the LLM acting as your pair programmer, you get instant feedback. Како човечки менаџер, микро-управувањето ја оштетува ефикасноста на тимот. Одредете што треба да се случи, но верувајте на LLM за да одлучи како. Премногу ограничувачки повици може да доведат до чудни дизајни или скриени грешки. Покрај тоа, тоа ве влече во деталите за имплементација и ве исцрпува. Се разбира, кога ќе влезете во оваа ситуација, подобро би било да напишете код рачно. Avoid Micromanagement: - Ако LLM се одвива или се одвива од патеката, брзо повлекување или разјаснување е се што е потребно за да се врати на курсот. Не е невообичаено за LLM да потроши 20 минути обидувајќи се да го поправи тестот без успех. Intervene When Needed Не заборавајте - секое барање за LLM чини пари. Бидете свесни за ова кога LLM е во режим на само-запрашување. Мојот LinkedIn HERE Овде