Malengo makubwa ya lugha (LLMs) ni maarufu sana katika ulimwengu wa programu leo. Wameweka makala mpya, machapisho ya blogu, kozi, na mifano kutoka kwa makampuni ya kuongoza katika sekta yetu, kama vile Meta, Huggingface, Microsoft, nk, ambayo inahitaji sisi kufuata teknolojia mpya kwa karibu. Tumeamua kuandika makala fupi na za habari ili kuanzisha mada hizi na kuwa na up-to-date juu ya teknolojia ya hivi karibuni. mada ya kwanza tutakayofunika itakuwa RAG (Retrieval-Augmented Generation). Tutaunda mfululizo wa makala juu ya mada ambayo tumeamua, na makala tatu tofauti ambazo ni muhimu na kuimarisha kila mmoja. Mfano mkubwa wa lugha umeingia kila kipengele cha maisha yetu. Tunaweza kusema kuwa wamebadilisha uwanja. Hata hivyo, hawana chombo kamili kama tunavyotaka kuitwa. Pia ina hasara kubwa: Ni mwaminifu kwa mafunzo yake. Inaendelea kuwa mwaminifu kwa data iliyoandaliwa. Hawawezi kuingilia mbali na hili. Mfano ambaye alifanya mafunzo mnamo Novemba 2022 hawezi kuwa na uwezo wa kutawala habari, sheria, maendeleo ya teknolojia, nk, ambayo ilionekana mnamo Januari 2023. Kwa mfano, mfano, mfano wa LLM ambaye alifanya mafunzo na kuingia katika huduma mnamo 2021 hawezi kujibu swali kuhusu vita vya Urusi-Ukraine ambavyo vilianza Februari 24, 2022. Hii ni kwa sababu maendeleo yake ilikuwa imekamilika kabla ya tarehe hiyo. Bila shaka, tatizo hili halikuondolewa, na bidhaa mpya, mfumo mpya, ilizinduliwa. Mfumo wa RAG (Retrieval-Augmented Generation) ulionekana kukupa habari za hivi karibuni wakati wowote unahitaji. Katika sehemu nyingine ya makala yetu, hebu tuangalie kwa karibu mfumo uliofanywa na mfano wa LLM na mfumo wa RAG, moja kwa moja, ili kujua. Upatikanaji wa habari katika mifano ya LLM Kanuni ya kazi ya mifano ya lugha kubwa inategemea data iliyofundishwa wakati wa mafunzo, kwa maneno mengine, ujuzi wa static. Hawana uwezo wa kuchukua data ya nje kwa njia yoyote. Ili kutoa mfano, fikiria mtoto. Ikiwa tunakata mawasiliano ya nje ya mtoto huu na kuwafundisha Kiingereza tu, hatuwezi kusikia neno moja la Kichina kutoka kwao. Hii ni kwa sababu tumeongezea mtoto ambaye ni mwepesi katika Kiingereza, sio Kichina. Kwa kupunguza uhusiano wao na ulimwengu wa nje, pia tumepunguza uwezo wao wa kujifunza kutoka vyanzo vya nje. Kama vile mtoto huu, mifano ya LLM pia imewekwa na ujuzi wa msingi lakini imefungwa kwa data ya nje. Kipengele kingine cha mifano ya LLM ni kwamba wao ni sanduku nyeusi. mifano hii haifahamu kikamilifu kwa nini hufanya shughuli ambazo zinafanya. Wao msingi hesabu zao tu juu ya shughuli za kimantiki. Kuuliza mfano wowote wa LLM, "Kwa nini umenipa jibu hili?" Unaweza uwezekano wa kushinikiza sana. Hawana majibu ya maswali kupitia mawazo au utafiti. Neno muhimu hapa ni "kwa nini?" Tunaweza pia kuzingatia kuwa ni bug katika mifano ya LLM. Ili kuelewa zaidi muundo huu, hebu fikiria mfano kutoka katika uwanja wa huduma ya afya. Wakati mtumiaji anauliza, "Mimi nina maumivu katika uso wangu na macho, na kupumzika postnasal kupumzika. Nini cha kufanya?", mfano wa LLM inaweza kujibu, "Maumivu katika uso wangu na macho, na kupumzika postnasal inaweza kuwa dalili ya sinusitis. Tafadhali wasiliana na daktari. Sinusitis ya kupumzika ni matibabu na antibiotics. Mbali na dawa, unaweza kutumia uvutaji wa ngozi kama maji ya bahari au saline kupumzika sinus." Kila kitu inaonekana kawaida hadi kwa hatua hii. Lakini kama sisi kuuliza mfano, "Kwa nini umenipa jibu hili?" baada ya jibu hili, mambo huwa ngumu. Sababu kwa nini mfano alitoa jibu hili ni kwa sababu maneno "maumivu ya uso" na "kioo" mara nyingi ilionekana pamoja na neno "sinusitis" katika data ya mafunzo. mifano hii inapendelea kuhifadhi habari katika kumbukumbu zao kama mfano wa takwimu. Maneno ya kimantiki ni muhimu kwa mifano ya LLM. Kwa sababu haitaki kuhifadhi habari katika kumbukumbu yake kulingana na vyanzo, inatoa jibu la swali na kufurahia watu wengi mara moja, lakini wakati watu wenye asili ya uchunguzi zaidi wanasema kwa mfano, "Kwa nini umewapa jibu hili?", mfano haina kutoa jibu lolote. RAG: Kuunganisha LLMs na mifumo ya kupokea Mfumo wa RAG hutoa ubunifu ikilinganishwa na mifumo iliyojengwa juu ya mifano ya LLM safi. Moja ya hizi ni kwamba wanafanya kazi na habari ya kimya, sio habari ya static kama mifano ya LLM. Kwa maneno mengine, pia wanasoma vyanzo vya nje bila kuwa na kikomo kwa data ambazo zilikuwa zimefundishwa. "r" ya kwanza katika RAG inamaanisha kupata. Jukumu la kipengele cha kupata ni kufanya shughuli za utafutaji. Jenereta ni sehemu ya pili kuu, na jukumu lake ni kuzalisha jibu sahihi kulingana na kurudi kwa data. Katika makala hii, tutashughulikia kwa kifupi kanuni ya uendeshaji wa RAG: Retrieval inachunguza habari kutoka vyanzo vya nje na inachukua nyaraka zinazohusiana na swali la mtumiaji kwa kuharibu kwa vipande vidogo vinavyoitwa "chunks." Inashughulikia vipengele hivi na swali la mtumiaji, na kisha hutoa jibu la ufanisi zaidi kwa kuchunguza kukubalika kati yao. Kazi hii ya kuzalisha jibu inafanywa na "Mwanzo." Tutazungumzia kwa undani katika makala inayofuata katika mfululizo huu. Viungo hivi vya msingi vinavyofanya mifumo ya RAG kuwa muundo imara zaidi. Wamezuia kuingia katika habari ya static kama mifano ya LLM safi. Mifumo ya RAG hutoa faida kubwa, hasa katika maeneo mengi ambayo yanahitaji habari za hivi karibuni. Kwa mfano, unaweza kutaka kuunda mfano wa daktari katika uwanja wa matibabu. Kwa sababu mfano wako utatumikia eneo muhimu, hawatakuwa na habari za zamani au zisizotumika. Dunia ya matibabu, kama vile sekta ya IT, inazidi kuendeleza kila siku, na masomo mapya yanatolewa. Kwa hiyo, mfano wako unatarajiwa kutawala hata masomo ya hivi karibuni. Vinginevyo, una hatari ya kuhatarisha maisha ya binadamu na mfano wa uongo. Katika kesi hizo, mifumo ya RAG inasaidia kuondoa tatizo la habari za zamani kwa kuunganisha na database za nje. Tofauti ya msingi kati ya mifumo ya RAG na mifumo ya LLM ni falsafa ya msingi ya RAG: "Usihifadhi habari, upatikanaji wake wakati unahitaji!" Wakati mifumo ya lugha kubwa safi inahifadhi habari katika kumbukumbu zao na kuzalisha majibu baada ya kuwa mafunzo, mifumo ya RAG inapatikana na habari kwa kutafuta na kupeleleza nje wakati wowote wanahitaji, kulingana na falsafa yao. Kama mwanadamu kutafuta mtandao, hii inashinda moja ya hasara kubwa zaidi ya mifano ya LLM safi: kutegemea kumbukumbu zao. Mfano wa: Mtumiaji: "Mabadiliko ya kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango LLM: "Kwa mujibu wa data ya Desemba 2022, ilikuwa 6.5%." (Hakuna jibu la hivi karibuni) kwa RAG: Inapokea data ya Desemba 2024 kutoka kwa chanzo cha kuaminika au database (Banki ya Dunia, Uchumi wa Biashara, nk). LLM uses this data and responds, "According to Trading Economics, inflation in the United States for December 2024 is announced as 2.9%." Scenario: User: "What is the United States' December 2024 inflation rate?" LLM: "According to December 2022 data, it was 6.5%." (Not an up-to-date answer) RAG: Inapokea data ya Desemba 2024 kutoka kwa chanzo cha kuaminika au database (Banki ya Dunia, Uchumi wa Biashara, nk). LLM inatumia data hii na anatoa jibu, "Kwa mujibu wa Uchumi wa Biashara, ongezeko la kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango cha kiwango Hebu kwa kifupi kulinganisha kile tulichojadiliwa hadi sasa na kuwasilisha katika meza hapa chini. Features LLM (static model) RAG (retrieval-augmented generation) Information Limited to training data Can pull real-time information from external sources Current Level Low High Transparency The source of the decision cannot be disclosed (black box) The source can be cited Taarifa ya Kupunguzwa kwa data ya mafunzo Inaweza kuchukua taarifa ya wakati halisi kutoka vyanzo vya nje Kiwango cha sasa chini ya ya juu Uwazi wa Chanzo cha uamuzi hauwezi kufichuliwa (msitu nyeusi) Chanzo hicho kinaweza kutaja Kwa kifupi, kwa kifupi, wakati mifano ya LLM ni mdogo kwa data ambayo ni mafunzo juu, mifumo ya RAG si tu kujengwa juu ya mfano maalum wa LLM na kuwa na ujuzi wa msingi, lakini pia kuwa na uwezo wa kuchora habari katika muda halisi kutoka vyanzo vya nje. Faida hii inahakikisha kwamba ni daima up-to-date. Hii inamalizia makala ya kwanza katika mfululizo wetu. Katika makala inayofuata, tutashughulikia mambo ya kiufundi zaidi. Kwa marafiki ambao wanataka kupata au kuchunguza mazoezi ya kazi hii, wanaweza kupata viungo kwa repo husika nimeumbwa na Python na maktaba zinazohusiana katika akaunti yangu ya GitHub mwishoni mwa makala. Tunatarajia kukutana na wewe katika makala inayofuata ya mfululizo huu. Msisemi Shaykh Rabiy ́ ni Imaam wa Jarh wat. Kusoma zaidi "Tunataka pia kutambua mchango wa msingi wa makala ya RAG ya 2020 ya Facebook AI, ambayo ilifunua kwa kiasi kikubwa mtazamo wa makala hii." Maelezo ya GitHub Mradi wa Chatbot ya RAG Mpango wa RAG Chatbot