Kuingiza kiwango cha RAG kwenye Mradi wangu, na Uzoefu wangu na Cursor Mwandishi wa DR ya Kwa ajili ya mradi wa LangChain-MySQL ilionyesha jinsi mfanyabiashara wa LangChain wa hatua nyingi anakuwezesha kuuliza maswali ya lugha ya asili juu ya MySQL. Ujumbe mkubwa na wito wa LLM wa mara kwa mara, hata hivyo, umefanya mfumo kuwa mgumu na uwezekano wa makosa ya OpenAI "429 Maombi mengi sana". kwanza ya Makala ya kwanza ya Makala ya What’s new in Part 2: inashughulikia tu sehemu za mpango ambazo unahitaji - safu, kifungo, viashiria - hivyo maombi huanguka na latency inapungua. Persistent FAISS vector store - mashine, ushirikiano, na mock-DB majaribio kuunganishwa katika CI - kukamata shema-drift na kutafuta kesi edge kabla ya kufikia uzalishaji. Comprehensive test suite Kuongezwa uhusiano wa msingi wa kigeni kwa vektor DB, ambayo hupunguza matumizi ya token. LLM rate‑limit resolution — Kabla ya kuanguka, hapa ni show-stoppers mbili kutoka sehemu ya 1: Problem 1 — LLM Lost in Table Relationships LLM haijui jinsi meza zako zinaunganishwa - unaishia kuandika kila njia ya kujiunga kwa mkono katika kila barua. Problem 2 — Schema Bulk Breaks Rate Limits Kupiga mbinu kamili ya database kwenye maombi yako huchukua tokens na karibu daima huchukua makosa ya 429 ya OpenAI kabla hata ya kupata jibu. Utafiti na ufumbuzi: What is a Vector Database? ya ni hifadhi maalum ya data iliyoundwa kuweka na kutafuta (Radi za namba) badala ya mstari na safu za jadi. vector database vector representations Integrating the Vector Database Takwimu zote za mbinu za database - DDL, uhusiano wa PK / FK, maelezo ya index, maoni - huchukuliwa katika nyaraka za tajiri, kisha huingizwa na kuhifadhiwa katika FAISS kwa utafutaji wa semantic ya haraka. Why FAISS? LLM ilipendekeza FAISS. kwa kuongeza Pia unaweza kutumia au ya - Kila moja inasaidia uhifadhi wa kuingizwa na upatikanaji wa haraka na inaweza kukidhi mahitaji ya mradi huu. Faith ya Msisemi Shaykh Rabiy ́ ni Imaam wa Jarh wat wafuasi (Facebook AI Similarity Search) ni maktaba ya wazi ya chanzo iliyoundwa na kikundi cha Utafiti wa Kiufundi cha AI cha Meta kwa utafutaji wa ufanisi wa kufanana na kukusanya vektor ya jumla. Faith ya What I Store: More Than Just a Table Blueprint? Muhimu zaidi, mimi si tu kuhifadhi maelezo ya msingi ya mpango kama vile majina ya meza na safu katika database hii vector. mimi pia wazi kukamata na kuhifadhi habari kuhusu uhusiano wa msingi wa kigeni ambao kufafanua jinsi meza hizi kuunganisha. What is RAG? Retrieval-Augmented Generation (RAG) ni mfano wa: Kupata uingizaji muhimu zaidi kutoka kwa vektor DB, Kuongeza mwongozo wa LLM na mazingira yaliyochukuliwa, kutafuta jibu la mwisho. Kwa maneno mengine, RAG inategemea DB ya vector kukusanya tu bit sahihi ya maarifa kabla ya kuita LLM. Why They Matter to LLM-Powered Apps? LLMs inaweza tu kuhifadhi maandishi mengi katika mwongozo mmoja. vektor DB + RAG inakuwezesha kuweka "maarifa ya msingi" nje ya mwongozo na kuvutia tu kile unachohitajika. Fikiria LLM kama mwanafunzi ambaye anaweza kukumbuka kurasa chache kwa wakati mmoja. vektor DB ni orodha ya maktaba, na RAG ni mchakato wa kazi wa kuchukua kurasa sahihi zinahitajika kabla ya mwanafunzi kuandika makala yao. How Vector DB Helps with LLM API Rate Limit? Database ya vektor inahifadhi mpango wako kama embeddings - kila meza, safu, au uhusiano huwa sehemu ya kutafuta. Wakati mtumiaji anauliza swali (kama vile "Watu wangapi walikutana wiki iliyopita?"), mfumo hufanya swali hilo kuwa embeddings na hufanya utafutaji wa sawa. Kwa mfano kama ya na ya . top-k most relevant tables patients visits appointments Mtazamo huu unaoelekezwa basi hutolewa kwa LLM, kuweka maombi ndogo wakati bado hutoa habari inahitajika kuzalisha SQL sahihi. Retrieval-Augmented Generation Flow (Steps 4 & 5) for the Project Baada ya kutekeleza ufahamu wa msingi wa kigeni katika database yangu ya vektor, matatizo ya 2 (ilivyoelezwa hapo awali) yanahesabiwa vizuri. Maelezo ya GitHub: click here Hapa ya Demo ya Mimi ni kupakia sample database - Kuingia katika mazingira ya mtihani Sakila ya sakila Sakila ya Sakila ya Kila jibu lina sehemu tatu Maelezo ya Query Matokeo ya Query Maelezo ya ya ya ya In the Second Half of This Article, How Do I Steer My AI Coder(s)? Katika nusu ya pili ya makala hii, Jinsi ya Kuendesha Coder yangu ya AI(s)? Niliendesha mradi kwa kuweka malengo na kuuliza maswali, LLM ilifanya uchangiaji mkubwa. Ilionyesha matatizo, ilipendekeza ufumbuzi, na kuelezea mikataba, wakati nilifanya maamuzi ya mwisho juu ya njia gani ya kufuata. Baadhi ya ushauri kwa wasemaji: Wewe ni msimamizi, si coder. kuweka malengo wazi na vipaumbele, kisha kuruhusu LLM kushughulikia maelezo ya utekelezaji. First, Think Like a Leader: Kuendesha majaribio, kuuliza LLM kurekebisha kushindwa yoyote, na mara nyingi utapata kwamba inapendekeza kubuni safi katikati ya kazi. Solid tests are your safety net — but with the LLM acting as your pair programmer, you get instant feedback. Kama msimamizi wa binadamu, micromanagement huathiri ufanisi wa timu. Kufafanua kile kinachohitajika kutokea, lakini uaminifu wa LLM kuamua jinsi. Maelekezo ya kuzuia sana yanaweza kusababisha miradi ya ajabu au makosa yaliyomo. Zaidi ya hayo, inachukua wewe katika maelezo ya utekelezaji na kukufuru. Bila shaka, wakati unapoingia katika hali hii, itakuwa bora kuandika msimbo kwa mkono. Avoid Micromanagement: - Ikiwa LLM inapita au inapita nje ya mwelekeo, ncha ya haraka au ufafanuzi ni kitu ambacho kinachohitajika ili kurudi kwenye kozi. Si kawaida kwa LLM kutumia dakika 20 kujaribu kurekebisha mtihani bila mafanikio. Hata hivyo, inachukua dakika moja tu kutafuta sababu ya msingi. timu yetu ya robots daima inahitaji wasimamizi. Intervene When Needed Usisahau - kila maombi ya LLM inachukua pesa. Kumbuka hili wakati LLM ni katika hali ya kujiuliza mwenyewe. Maana ya Linkedin Hapa ya Hapa ya