ይህ የብሎግ ልጥፍ የNeo4j ግራፍ ዳታቤዝ እና ሚልቪስ ቬክተር ዳታቤዝ በመጠቀም የግራፍRAG ወኪል እንዴት እንደሚገነባ በዝርዝር ይገልጻል። ይህ ወኪል ለተጠቃሚ ጥያቄዎች ትክክለኛ እና ተዛማጅ መልሶችን ለመስጠት የግራፍ ዳታቤዝ እና የቬክተር ፍለጋ ሃይልን ያጣምራል። በዚህ ምሳሌ፣ LangGraph፣ Llama 3.1 8B ከኦላማ እና GPT-4o ጋር እንጠቀማለን።
የባህላዊ መልሶ ማግኛ የተሻሻለ ትውልድ ( RAG ) ሲስተሞች የሚመሰረቱት በ ላይ ብቻ ነው።
ወኪላችን ሶስት ቁልፍ ፅንሰ-ሀሳቦችን ይከተላል፡ ማዘዋወር፣ መመለሻ ዘዴዎች እና ራስን ማስተካከል። እነዚህ መርሆዎች በተከታታይ LangGraph ክፍሎች ይተገበራሉ፡
እንደሚከተሉት ያሉ ሌሎች አካላት አሉን ።
የግራፍRAG ወኪላችን አርክቴክቸር እንደ የስራ ፍሰት ከብዙ ተያያዥ አንጓዎች ጋር ሊታይ ይችላል፡
የኤልኤልኤም ወኪሎቻችንን አቅም ለማሳየት ወደ ሁለት የተለያዩ ክፍሎች እንይ Graph Generation
እና Composite Agent
።
ሙሉው ኮድ በዚህ ልጥፍ ግርጌ ላይ የሚገኝ ቢሆንም፣ እነዚህ ቅንጥቦች እነዚህ ወኪሎች በ LangChain ማዕቀፍ ውስጥ እንዴት እንደሚሠሩ የተሻለ ግንዛቤን ይሰጣሉ።
ይህ አካል የተነደፈው የNeo4jን አቅም በመጠቀም የጥያቄ-መልስ ሂደቱን ለማሻሻል ነው። በNeo4j ግራፍ ዳታቤዝ ውስጥ የተካተተውን እውቀት በመጠቀም ጥያቄዎችን ይመልሳል። እንዴት እንደሚሰራ እነሆ፡-
GraphCypherQAChain
- LLM ከNeo4j ግራፍ ዳታቤዝ ጋር መስተጋብር ለመፍጠር ይፈቅዳል። LLMን በሁለት መንገዶች ይጠቀማል።
cypher_llm
- ይህ የኤልኤልኤም ምሳሌ በተጠቃሚው ጥያቄ መሰረት ተዛማጅ መረጃዎችን ከግራፉ ለማውጣት የCypher መጠይቆችን የማመንጨት ሃላፊነት አለበት።
ማረጋገጫ - የሳይፈር መጠይቆች በአገባብ ትክክል መሆናቸውን ለማረጋገጥ መረጋገጡን ያረጋግጣል።
አውድ ሰርስሮ ማውጣት - አስፈላጊውን አውድ ለማውጣት የተረጋገጡ መጠይቆች በNeo4j ግራፍ ላይ ይፈጸማሉ።
መልስ ማመንጨት – የቋንቋው ሞዴል ለተጠቃሚው ጥያቄ መልስ ለማመንጨት የተገኘውን አውድ ይጠቀማል።
### Generate Cypher Query llm = ChatOllama(model=local_llm, temperature=0) # Chain graph_rag_chain = GraphCypherQAChain.from_llm( cypher_llm=llm, qa_llm=llm, validate_cypher=True, graph=graph, verbose=True, return_intermediate_steps=True, return_direct=True, ) # Run question = "agent memory" generation = graph_rag_chain.invoke({"query": question})
ይህ አካል የ RAG ስርዓት ወደ Neo4j እንዲገባ ያስችለዋል፣ ይህም የበለጠ አጠቃላይ እና ትክክለኛ መልሶችን ለመስጠት ይረዳል።
አስማት የሚሆነው እዚህ ላይ ነው፡ ወኪላችን ሚልቩስ እና ኒዮ 4ጅ ውጤቶችን በማጣመር መረጃውን በተሻለ ሁኔታ ለመረዳት እና ይበልጥ ትክክለኛ እና ግልጽ የሆኑ መልሶችን ለማግኘት ያስችላል። እንዴት እንደሚሰራ እነሆ፡-
### Composite Vector + Graph Generations cypher_prompt = PromptTemplate( template="""You are an expert at generating Cypher queries for Neo4j. Use the following schema to generate a Cypher query that answers the given question. Make the query flexible by using case-insensitive matching and partial string matching where appropriate. Focus on searching paper titles as they contain the most relevant information. Schema: {schema} Question: {question} Cypher Query:""", input_variables=["schema", "question"], )
# QA prompt qa_prompt = PromptTemplate( template="""You are an assistant for question-answering tasks. Use the following Cypher query results to answer the question. If you don't know the answer, just say that you don't know. Use three sentences maximum and keep the answer concise. If topic information is not available, focus on the paper titles. Question: {question} Cypher Query: {query} Query Results: {context} Answer:""", input_variables=["question", "query", "context"], ) llm = ChatOpenAI(model="gpt-4o", temperature=0)
# Chain graph_rag_chain = GraphCypherQAChain.from_llm( cypher_llm=llm, qa_llm=llm, validate_cypher=True, graph=graph, verbose=True, return_intermediate_steps=True, return_direct=True, cypher_prompt=cypher_prompt, qa_prompt=qa_prompt, )
የጥናት ወረቀት ግኝታችንን ለማሳደግ የግራፍ እና የቬክተር ዳታቤዝ ጥንካሬዎችን በማጣመር የፍለጋ ውጤቱን እንይ።
Neo4jን በመጠቀም በግራፍ ፍለጋ እንጀምራለን-
# Example input data question = "What paper talks about Multi-Agent?" generation = graph_rag_chain.invoke({"query": question}) print(generation)
> Entering new GraphCypherQAChain chain... Generated Cypher: cypher MATCH (p:Paper) WHERE toLower(p.title) CONTAINS toLower("Multi-Agent") RETURN p.title AS PaperTitle, p.summary AS Summary, p.url AS URL
> Finished chain. {'query': 'What paper talks about Multi-Agent?', 'result': [{'PaperTitle': 'Collaborative Multi-Agent, Multi-Reasoning-Path (CoMM) Prompting Framework', 'Summary': 'In this work, we aim to push the upper bound of the reasoning capability of LLMs by proposing a collaborative multi-agent, multi-reasoning-path (CoMM) prompting framework. Specifically, we prompt LLMs to play different roles in a problem-solving team, and encourage different role-play agents to collaboratively solve the target task. In particular, we discover that applying different reasoning paths for different roles is an effective strategy to implement few-shot prompting approaches in the multi-agent scenarios. Empirical results demonstrate the effectiveness of the proposed methods on two college-level science problems over competitive baselines. Our further analysis shows the necessity of prompting LLMs to play different roles or experts independently.', 'URL': 'https://github.com/amazon-science/comm-prompt'}]
የግራፍ ፍለጋ ግንኙነቶችን እና ዲበ ውሂብን በማግኘት የላቀ ነው። በአርእስቶች፣ ደራሲያን ወይም አስቀድሞ የተገለጹ ምድቦች ላይ ተመስርተው ወረቀቶችን በፍጥነት መለየት ይችላል፣ ይህም የመረጃውን የተዋቀረ እይታ ያቀርባል።
በመቀጠል፣ ለተለየ እይታ ወደ ቬክተር ፍለጋ እንሸጋገራለን፡
# Example input data question = "What paper talks about Multi-Agent?" # Get vector + graph answers docs = retriever.invoke(question) vector_context = rag_chain.invoke({"context": docs, "question": question})
> The paper discusses "Adaptive In-conversation Team Building for Language Model Agents" and talks about Multi-Agent. It presents a new adaptive team-building paradigm that offers a flexible solution for building teams of LLM agents to solve complex tasks effectively. The approach, called Captain Agent, dynamically forms and manages teams for each step of the task-solving process, utilizing nested group conversations and reflection to ensure diverse expertise and prevent stereotypical outputs.
የቬክተር ፍለጋ አውድ እና የትርጉም መመሳሰልን በመረዳት ረገድ ጥሩ ነው። ከጥያቄው ጋር በፅንሰ-ሀሳብ የተገናኙ ወረቀቶችን ሊገልጥ ይችላል፣ ምንም እንኳን የፍለጋ ቃላቶቹን በግልፅ ባይይዙም።
በመጨረሻም ሁለቱንም የፍለጋ ዘዴዎች አጣምረናል፡-
ይህ የ RAG ወኪላችን ወሳኝ አካል ነው፣ ይህም ሁለቱንም የቬክተር እና የግራፍ ዳታቤዝ መጠቀም ያስችላል።
composite_chain = prompt | llm | StrOutputParser() answer = composite_chain.invoke({"question": question, "context": vector_context, "graph_context": graph_context}) print(answer)
> The paper "Collaborative Multi-Agent, Multi-Reasoning-Path (CoMM) Prompting Framework" talks about Multi-Agent. It proposes a framework that prompts LLMs to play different roles in a problem-solving team and encourages different role-play agents to collaboratively solve the target task. The paper presents empirical results demonstrating the effectiveness of the proposed methods on two college-level science problems.
የግራፍ እና የቬክተር ፍለጋዎችን በማዋሃድ የሁለቱም አቀራረቦችን ጥንካሬዎች እንጠቀማለን። የግራፍ ፍለጋው ትክክለኛነትን ያቀርባል እና የተዋቀሩ ግንኙነቶችን ይዳስሳል, የቬክተር ፍለጋ ደግሞ በፍቺ ግንዛቤ ውስጥ ጥልቀት ይጨምራል.
ይህ የተዋሃደ ዘዴ በርካታ ጥቅሞችን ይሰጣል-
በዚህ ብሎግ ልኡክ ጽሁፍ ኒዮ4ጅ እና ሚልቩስን በመጠቀም የግራፍRAG ወኪል እንዴት እንደሚገነባ አሳይተናል። የግራፍ ዳታቤዝ እና የቬክተር ፍለጋ ጥንካሬዎችን በማጣመር ይህ ወኪል ለተጠቃሚ ጥያቄዎች ትክክለኛ እና ተገቢ መልሶችን ይሰጣል።
የRAG ወኪላችን አርክቴክቸር፣ የራሱ የሆነ የማዘዋወር፣ የመውደቅ ስልቶች እና ራስን የማረም ችሎታዎች ያለው፣ ጠንካራ እና አስተማማኝ ያደርገዋል። የግራፍ ጄኔሬሽን እና የተዋሃዱ ወኪል ክፍሎች ምሳሌዎች ይህ ወኪል አጠቃላይ እና የተወሳሰቡ መልሶችን ለመስጠት ሁለቱንም የቬክተር እና የግራፍ ዳታቤዝ ውስጥ እንዴት ማግኘት እንደሚችል ያሳያሉ።
ይህ መመሪያ አጋዥ እንደሆነ ተስፋ እናደርጋለን እና በራስዎ ፕሮጀክቶች ውስጥ የግራፍ ዳታቤዝ እና የቬክተር ፍለጋን የማጣመር እድሎችን እንዲመለከቱ ያነሳሳዎታል።
የአሁኑ ኮድ በ GitHub ላይ ይገኛል።
ስለዚህ ርዕስ የበለጠ ለማወቅ፣ በኖቬምበር 7 በNODES 2024 ይቀላቀሉን፣ በማሰብ ችሎታ መተግበሪያዎች፣ የእውቀት ግራፎች እና AI ላይ ያለን ነፃ ምናባዊ ገንቢ ኮንፈረንስ። አሁን ይመዝገቡ!