ይህ የብሎግ ልጥፍ የNeo4j ግራፍ ዳታቤዝ እና ቬክተር ዳታቤዝ በመጠቀም የግራፍRAG ወኪል እንዴት እንደሚገነባ በዝርዝር ይገልጻል። ይህ ወኪል ለተጠቃሚ ጥያቄዎች ትክክለኛ እና ተዛማጅ መልሶችን ለመስጠት እና ሃይልን ያጣምራል። በዚህ ምሳሌ፣ LangGraph፣ Llama 3.1 8B ከኦላማ እና GPT-4o ጋር እንጠቀማለን። ሚልቪስ የግራፍ ዳታቤዝ የቬክተር ፍለጋ የባህላዊ መልሶ ማግኛ የተሻሻለ ትውልድ ( ) ሲስተሞች የሚመሰረቱት በ ላይ ብቻ ነው። ተዛማጅ ሰነዶችን ለማውጣት. የኛ አካሄዳችን በይበልጥ የሚሄደው በማካተት በህጋዊ አካላት እና በፅንሰ-ሀሳቦች መካከል ያለውን ግንኙነት ለመያዝ፣ የመረጃውን የበለጠ ግንዛቤን በመስጠት ነው። እነዚህን ሁለት ቴክኒኮች በማጣመር የበለጠ ጠንካራ እና መረጃ ሰጪ RAG ስርዓት መፍጠር እንፈልጋለን። RAG የቬክተር ዳታቤዝ ኒዮ4ጄን የ RAG ወኪል መገንባት ወኪላችን ሶስት ቁልፍ ፅንሰ-ሀሳቦችን ይከተላል፡ ማዘዋወር፣ መመለሻ ዘዴዎች እና ራስን ማስተካከል። እነዚህ መርሆዎች በተከታታይ LangGraph ክፍሎች ይተገበራሉ፡ - የተወሰነ የማዞሪያ ዘዴ በጥያቄው ላይ በመመስረት የቬክተር ዳታቤዝ፣ የእውቀት ግራፍ ወይም የሁለቱም ጥምረት ለመጠቀም ይወስናል። ማዘዋወር - የመነሻ መልሶ ማግኘቱ በቂ ባልሆነበት ሁኔታ ወኪሉ Tavilyን በመጠቀም ወደ ድር ፍለጋ ይመለሳል። መውደቅ - ወኪሉ የራሱን መልሶች ይገመግማል እና ቅዠቶችን ወይም ስህተቶችን ለማስተካከል ይሞክራል. እራስን ማረም እንደሚከተሉት ያሉ ሌሎች አካላት አሉን ። – ሚልቩስን የምንጠቀመው ክፍት ምንጭ እና ከፍተኛ አፈጻጸም ያለው የቬክተር ዳታቤዝ፣ የሰነድ ቁርጥራጮችን ለማከማቸት እና ለማውጣት ከተጠቃሚው ጥያቄ ጋር ላይ ነው። መልሶ ማግኘት በፍቺ ተመሳሳይነት - Neo4j ከተገኙት ሰነዶች የእውቀት ግራፍ ለመገንባት ጥቅም ላይ ይውላል, አውድ በግንኙነቶች እና አካላት ያበለጽጋል. የግራፍ ማሻሻያ – Llama 3.1 8B፣ የአገር ውስጥ LLM፣ መልሶችን ለማመንጨት እና የተገኘውን መረጃ አግባብነት እና ትክክለኛነት ለመገምገም የሚያገለግል ሲሆን GPT-4o ደግሞ በNeo4j የሚጠቀመውን የሳይፈር ቋንቋ ለመፍጠር ይጠቅማል። LLMs ውህደት የ GraphRAG አርክቴክቸር የግራፍRAG ወኪላችን አርክቴክቸር እንደ የስራ ፍሰት ከብዙ ተያያዥ አንጓዎች ጋር ሊታይ ይችላል፡ - ተወካዩ ከሁሉ የተሻለውን የመልሶ ማግኛ ስልት (የቬክተር ፍለጋ፣ የግራፍ ፍለጋ ወይም ሁለቱንም) ለመወሰን በመጀመሪያ ጥያቄውን ይመረምራል። የጥያቄ ማዘዋወር - በማዞሪያው ውሳኔ ላይ በመመስረት, ተዛማጅ ሰነዶች ከ Milvus ተሰርስረዋል, ወይም መረጃ ከ Neo4j ግራፍ ይወጣል. መልሶ ማግኘት - LLM የተገኘውን አውድ በመጠቀም መልስ ያመነጫል። ትውልድ - ተወካዩ የመነጨውን መልስ ለተዛማጅነት፣ ትክክለኛነት እና እምቅ ቅዠቶች ይገመግማል። ግምገማ (አስፈላጊ ከሆነ) - መልሱ አጥጋቢ አይደለም ተብሎ ከታሰበ ተወካዩ ፍለጋውን ሊያሻሽል ወይም ስህተቶችን ለማስተካከል ሊሞክር ይችላል። ማሻሻያ የኤጀንቶች ምሳሌዎች የኤልኤልኤም ወኪሎቻችንን አቅም ለማሳየት ወደ ሁለት የተለያዩ ክፍሎች እንይ እና ። Graph Generation Composite Agent ሙሉው ኮድ በዚህ ልጥፍ ግርጌ ላይ የሚገኝ ቢሆንም፣ እነዚህ ቅንጥቦች እነዚህ ወኪሎች በ LangChain ማዕቀፍ ውስጥ እንዴት እንደሚሠሩ የተሻለ ግንዛቤን ይሰጣሉ። ግራፍ ማመንጨት ይህ አካል የተነደፈው የNeo4jን አቅም በመጠቀም የጥያቄ-መልስ ሂደቱን ለማሻሻል ነው። በNeo4j ግራፍ ዳታቤዝ ውስጥ የተካተተውን እውቀት በመጠቀም ጥያቄዎችን ይመልሳል። እንዴት እንደሚሰራ እነሆ፡- - LLM ከNeo4j ግራፍ ዳታቤዝ ጋር መስተጋብር ለመፍጠር ይፈቅዳል። LLMን በሁለት መንገዶች ይጠቀማል። GraphCypherQAChain - ይህ የኤልኤልኤም ምሳሌ በተጠቃሚው ጥያቄ መሰረት ተዛማጅ መረጃዎችን ከግራፉ ለማውጣት የCypher መጠይቆችን የማመንጨት ሃላፊነት አለበት። cypher_llm - የሳይፈር መጠይቆች በአገባብ ትክክል መሆናቸውን ለማረጋገጥ መረጋገጡን ያረጋግጣል። ማረጋገጫ - አስፈላጊውን አውድ ለማውጣት የተረጋገጡ መጠይቆች በNeo4j ግራፍ ላይ ይፈጸማሉ። አውድ ሰርስሮ ማውጣት – የቋንቋው ሞዴል ለተጠቃሚው ጥያቄ መልስ ለማመንጨት የተገኘውን አውድ ይጠቀማል። መልስ ማመንጨት ### Generate Cypher Query llm = ChatOllama(model=local_llm, temperature=0) # Chain graph_rag_chain = GraphCypherQAChain.from_llm( cypher_llm=llm, qa_llm=llm, validate_cypher=True, graph=graph, verbose=True, return_intermediate_steps=True, return_direct=True, ) # Run question = "agent memory" generation = graph_rag_chain.invoke({"query": question}) ይህ አካል የ RAG ስርዓት ወደ Neo4j እንዲገባ ያስችለዋል፣ ይህም የበለጠ አጠቃላይ እና ትክክለኛ መልሶችን ለመስጠት ይረዳል። የተዋሃደ ወኪል፣ ግራፍ እና ቬክተር 🪄 አስማት የሚሆነው እዚህ ላይ ነው፡ ወኪላችን ሚልቩስ እና ኒዮ 4ጅ ውጤቶችን በማጣመር መረጃውን በተሻለ ሁኔታ ለመረዳት እና ይበልጥ ትክክለኛ እና ግልጽ የሆኑ መልሶችን ለማግኘት ያስችላል። እንዴት እንደሚሰራ እነሆ፡- ጥያቄውን ለመመለስ LLM ከሁለቱም Milvus እና Neo4j አውድ እንዲጠቀም የሚያስተምር ጥያቄን እንገልፃለን። መጠየቂያዎች - ወኪሉ ተዛማጅ መረጃዎችን ከ ሚልቩስ (የቬክተር ፍለጋን በመጠቀም) እና Neo4j (ግራፍ ማመንጨትን በመጠቀም) ያወጣል። መልሶ ማግኘት - 3.1 8ቢ ጥያቄውን በማካሄድ አጭር መልስ ያመነጫል፣ ከቬክተር እና ከግራፍ ዳታቤዝ የተገኘውን ጥምር እውቀት በተቀነባበረ ሰንሰለት በመጠቀም። መልስ ማመንጨት -ላማ ### Composite Vector + Graph Generations cypher_prompt = PromptTemplate( template="""You are an expert at generating Cypher queries for Neo4j. Use the following schema to generate a Cypher query that answers the given question. Make the query flexible by using case-insensitive matching and partial string matching where appropriate. Focus on searching paper titles as they contain the most relevant information. Schema: {schema} Question: {question} Cypher Query:""", input_variables=["schema", "question"], ) # QA prompt qa_prompt = PromptTemplate( template="""You are an assistant for question-answering tasks. Use the following Cypher query results to answer the question. If you don't know the answer, just say that you don't know. Use three sentences maximum and keep the answer concise. If topic information is not available, focus on the paper titles. Question: {question} Cypher Query: {query} Query Results: {context} Answer:""", input_variables=["question", "query", "context"], ) llm = ChatOpenAI(model="gpt-4o", temperature=0) # Chain graph_rag_chain = GraphCypherQAChain.from_llm( cypher_llm=llm, qa_llm=llm, validate_cypher=True, graph=graph, verbose=True, return_intermediate_steps=True, return_direct=True, cypher_prompt=cypher_prompt, qa_prompt=qa_prompt, ) የጥናት ወረቀት ግኝታችንን ለማሳደግ የግራፍ እና የቬክተር ዳታቤዝ ጥንካሬዎችን በማጣመር የፍለጋ ውጤቱን እንይ። Neo4jን በመጠቀም በግራፍ ፍለጋ እንጀምራለን- # Example input data question = "What paper talks about Multi-Agent?" generation = graph_rag_chain.invoke({"query": question}) print(generation) > Entering new GraphCypherQAChain chain... Generated Cypher: cypher MATCH (p:Paper) WHERE toLower(p.title) CONTAINS toLower("Multi-Agent") RETURN p.title AS PaperTitle, p.summary AS Summary, p.url AS URL > Finished chain. {'query': 'What paper talks about Multi-Agent?', 'result': [{'PaperTitle': 'Collaborative Multi-Agent, Multi-Reasoning-Path (CoMM) Prompting Framework', 'Summary': 'In this work, we aim to push the upper bound of the reasoning capability of LLMs by proposing a collaborative multi-agent, multi-reasoning-path (CoMM) prompting framework. Specifically, we prompt LLMs to play different roles in a problem-solving team, and encourage different role-play agents to collaboratively solve the target task. In particular, we discover that applying different reasoning paths for different roles is an effective strategy to implement few-shot prompting approaches in the multi-agent scenarios. Empirical results demonstrate the effectiveness of the proposed methods on two college-level science problems over competitive baselines. Our further analysis shows the necessity of prompting LLMs to play different roles or experts independently.', 'URL': 'https://github.com/amazon-science/comm-prompt'}] የግራፍ ፍለጋ ግንኙነቶችን እና ዲበ ውሂብን በማግኘት የላቀ ነው። በአርእስቶች፣ ደራሲያን ወይም አስቀድሞ የተገለጹ ምድቦች ላይ ተመስርተው ወረቀቶችን በፍጥነት መለየት ይችላል፣ ይህም የመረጃውን የተዋቀረ እይታ ያቀርባል። በመቀጠል፣ ለተለየ እይታ ወደ ቬክተር ፍለጋ እንሸጋገራለን፡ # Example input data question = "What paper talks about Multi-Agent?" # Get vector + graph answers docs = retriever.invoke(question) vector_context = rag_chain.invoke({"context": docs, "question": question}) > The paper discusses "Adaptive In-conversation Team Building for Language Model Agents" and talks about Multi-Agent. It presents a new adaptive team-building paradigm that offers a flexible solution for building teams of LLM agents to solve complex tasks effectively. The approach, called Captain Agent, dynamically forms and manages teams for each step of the task-solving process, utilizing nested group conversations and reflection to ensure diverse expertise and prevent stereotypical outputs. የቬክተር ፍለጋ አውድ እና የትርጉም መመሳሰልን በመረዳት ረገድ ጥሩ ነው። ከጥያቄው ጋር በፅንሰ-ሀሳብ የተገናኙ ወረቀቶችን ሊገልጥ ይችላል፣ ምንም እንኳን የፍለጋ ቃላቶቹን በግልፅ ባይይዙም። በመጨረሻም ሁለቱንም የፍለጋ ዘዴዎች አጣምረናል፡- ይህ የ RAG ወኪላችን ወሳኝ አካል ነው፣ ይህም ሁለቱንም የቬክተር እና የግራፍ ዳታቤዝ መጠቀም ያስችላል። composite_chain = prompt | llm | StrOutputParser() answer = composite_chain.invoke({"question": question, "context": vector_context, "graph_context": graph_context}) print(answer) > The paper "Collaborative Multi-Agent, Multi-Reasoning-Path (CoMM) Prompting Framework" talks about Multi-Agent. It proposes a framework that prompts LLMs to play different roles in a problem-solving team and encourages different role-play agents to collaboratively solve the target task. The paper presents empirical results demonstrating the effectiveness of the proposed methods on two college-level science problems. የግራፍ እና የቬክተር ፍለጋዎችን በማዋሃድ የሁለቱም አቀራረቦችን ጥንካሬዎች እንጠቀማለን። የግራፍ ፍለጋው ትክክለኛነትን ያቀርባል እና የተዋቀሩ ግንኙነቶችን ይዳስሳል, የቬክተር ፍለጋ ደግሞ በፍቺ ግንዛቤ ውስጥ ጥልቀት ይጨምራል. ይህ የተዋሃደ ዘዴ በርካታ ጥቅሞችን ይሰጣል- ፡ በሁለቱም ዘዴዎች ብቻ ሊያመልጡ የሚችሉ ተዛማጅ ወረቀቶችን ያገኛል። የተሻሻለ ማስታወስ -ጽሑፍ፡ ወረቀቶች እርስ በርስ እንዴት እንደሚዛመዱ የበለጠ ግልጽ የሆነ ግንዛቤን ይሰጣል። የተሻሻለ ዐውደ ፡ ከተወሰኑ የቁልፍ ቃል ፍለጋዎች እስከ ሰፊ ፅንሰ-ሃሳባዊ ዳሰሳዎች ከተለያዩ የጥያቄ አይነቶች ጋር መላመድ ይችላል። ተለዋዋጭነት ማጠቃለል በዚህ ብሎግ ልኡክ ጽሁፍ ኒዮ4ጅ እና ሚልቩስን በመጠቀም የግራፍRAG ወኪል እንዴት እንደሚገነባ አሳይተናል። የግራፍ ዳታቤዝ እና ጥንካሬዎችን በማጣመር ይህ ወኪል ለተጠቃሚ ጥያቄዎች ትክክለኛ እና ተገቢ መልሶችን ይሰጣል። የቬክተር ፍለጋ የRAG ወኪላችን አርክቴክቸር፣ የራሱ የሆነ የማዘዋወር፣ የመውደቅ ስልቶች እና ራስን የማረም ችሎታዎች ያለው፣ ጠንካራ እና አስተማማኝ ያደርገዋል። የግራፍ ጄኔሬሽን እና የተዋሃዱ ወኪል ክፍሎች ምሳሌዎች ይህ ወኪል አጠቃላይ እና የተወሳሰቡ መልሶችን ለመስጠት ሁለቱንም የቬክተር እና የግራፍ ዳታቤዝ ውስጥ እንዴት ማግኘት እንደሚችል ያሳያሉ። ይህ መመሪያ አጋዥ እንደሆነ ተስፋ እናደርጋለን እና በራስዎ ፕሮጀክቶች ውስጥ የግራፍ ዳታቤዝ እና የቬክተር ፍለጋን የማጣመር እድሎችን እንዲመለከቱ ያነሳሳዎታል። የአሁኑ ኮድ በ ላይ ይገኛል። GitHub ስለዚህ ርዕስ የበለጠ ለማወቅ፣ በኖቬምበር 7 በNODES 2024 ይቀላቀሉን፣ በማሰብ ችሎታ መተግበሪያዎች፣ የእውቀት ግራፎች እና AI ላይ ያለን ነፃ ምናባዊ ገንቢ ኮንፈረንስ። አሁን ይመዝገቡ!