"د مرستې! زموږ د AI ماډل لګښتونه د سټاک په لټه کې دي!" په داسې حال کې چې ChatGPT او د هغې د خواړه د AI-powered غوښتنلیکونو د ګولډو ګرځنده، د LLMs پر بنسټ د غوښتنلیکونو جوړولو واقعیت ډیر پیچلي دی چې د یو API د تماس په یو ویب انټرنیټ کې. Every day, my LinkedIn feed overflows with new "AI-powered" products. Some analyze legal documents, others write marketing copy, and a brave few even attempt to automate software development. These "wrapper companies" (as they're sometimes dismissively called) may not be training their own models, but many are solving real problems for customers and finding genuine product-market fit based on the current demands from the enterprises. The secret? They're laser-focused on making AI technology actually useful for specific groups of users. مګر دلته څه دی: حتی کله چې تاسو د ماډلونو څخه رڼا څخه روزنه نه کوي، د AI غوښتنلیک څخه د ډوډۍ ډوډۍ څخه د تولید څخه د پروګرامونو څخه د پروګرامونو څخه ډکولو په څیر دی. تاسو باید د فعالیت، اعتبار، او لګښت توازن کړئ په داسې حال کې چې ستاسو کاروونکي خوشحاله ونیسئ او ستاسو د مالیې ټیم د کلتور د قلب د حمله څخه مخنیوی کړئ. د دې ښه درکولو لپاره، موږ د واقعي نړۍ د مثال سره د دې تفریح کوو. تصور وکړئ چې موږ د "ResearchIt" (نه د واقعي محصول نه، مګر زما سره مرسته وکړئ) جوړوي، یو غوښتنلیک چې څیړونکو سره د زده کړې کاغذونو د خوځښت کې مرسته کوي. آیا تاسو د دې ضخامتو methodology برخه په چټکۍ سره خلاص کړئ؟ اړتیا ته د 50 پاڼه کاغذ څخه د اصلي پایلو څخه اخلي؟ زموږ غوښتنلیک تاسو ته پوښښ لري. Version 1.0: The Naive Approach نسخه 1.0: د نادانې لارښوونې موږ په OpenAI hype ټرین کې لوړ شي - زموږ لومړي نسخه ښکلي ساده دی: څیړونکي د کاغذ د ټوټې اپلوډ کوي (د ځانګړي، اړونده برخو) زموږ backend د متن له خوا د GPT-5 سره یو پاملرنه لکه "ای تاسو یو ګټور څیړنې مسلکي دی. د لاندې متن تحلیل او د معلوماتو له خوا د کاروونکي له خوا وړاندې شوي برخه څخه سپارښتنه کوي......" جادو کار کوي، او زموږ د کاروونکو د دوی د معلوماتو ترلاسه کړي ساده دی ښکلي. د لګښت؟ نه ډیری. لکه څنګه چې نور څېړونکو زموږ د آله کشف کوي، زموږ د میاشتني API حسابونه د تلیفون شمیره پیل کوي. ستونزه دا ده چې موږ هر پوښتنې ته GPT-5، د زبانونو د موډلونو رولز-رویس ته ورسوي، کله چې یو ټیوټا Corolla اغیزمنه کار کوي. Yes, GPT-5 is powerful, with its 128k context window and strong reasoning abilities, but at $1.25 per 1M input tokens and $10 per 1M output tokens, costs add up fast. For simpler tasks like summarization or classification, smaller models such as GPT-5 mini (around 20% of the cost), GPT-5 nano (around 4%), or Gemini 2.5 Flash-Lite (around 5%) deliver great results at a fraction of the price. د Open-source ماډلونه لکه د میټا LLaMA (3 یا 4 لړۍ) یا د Mistral مختلفو ماډلونه یا هم د عمومي یا د ډومین ځانګړي کارونو لپاره انعطاف او ارزانه انتخابونه وړاندې کوي، که څه هم د دې لپاره د رڼا ورکشاپونو لپاره ډیری وختونه اړتیا نلري. د انتخاب په حقیقت کې د لاندې چیزو پورې اړه لري: د محصول د کیفیت: آیا د ماډل په دوامداره توګه ستاسو د غوښتنلیک اړتیاوې د دقت وړاندې کوي؟ آیا د ماډل د هغه ژبه ملاتړ کوي چې تاسو غواړئ کار وکړي؟ د ځواب سرعت: ستاسو کاروونکو به د ښه پايلې لپاره د اضافي میلی ثانیو انتظار وکړي؟ د هر اپلیکیشن لپاره معمولي ځواب وخت باید د 10 ثانیو نښه په منځ کې وي ترڅو کاروونکو ته دلچسپي نه کولی شي، نو سرعت ډیری مهمه ده. د ډاټا انحصار: ستاسو ډاټا څومره حساس دي، او ستاسو د پرائیویسی اړتیاوې څه دي؟ د سرچینې محدودیتونه: ستاسو د بودجه، د لګښتونو او د انجنيرۍ وخت په اړه څه دی؟ زموږ د څیړنې کاغذ تجزیه کولو لپاره، موږ د کوانتوم فیزیک په اړه شعر ته اړتيا نه لري؛ موږ اړتيا لري د اعتبار وړ، د لګښت موثریت. ټیټ لین: خپل غوښتنلیک اړتیاوې پوه شئ ټیټ لین: خپل غوښتنلیک اړتیاوې پوه شئ ستاسو د LLM په اساس ستاسو د واقعي اړتیاوو پر بنسټ، نه یوازې د بریښنا. که تاسو د چټک نصب ته اړتيا لري، د مالکیت ماډلونه ممکن د لګښت د معاینه کړي. که ارزښت او انعطافیت ډیر مهم دي، د پرانیستې سرچینه ماډلونه یو قوي انتخاب دي، په ځانګړي ډول کله چې د کوچني کیفیت د تبادلې په لټه کې دي (چې ممکن د ځینې د زیربنا په لټه کې وي). نو، څیړنې دا یو هټ دی. څیړونکو خوښ دي چې څنګه دا ټیټ زده کړې کاغذونه خلاصوي، او زموږ د کاروونکي بیس په چټکۍ سره وده کوي. خو اوس، دوی ډیر غواړئ؛ په ځای چې یوازې د برخهونو چې دوی اپلوډ کوي خلاصوي، دوی غواړم چې په اغیزمنه توګه په ټولې کاغذ کې هدف پوهیږو پوښتنو ته وړاندیز وکړي. دا ساده دی، حق؟ یوازې د کلې سند د GPT-5 ته ورسیږي او دا خپل جادو کار وکړي. نه نو په چټکۍ سره. د تعلیق کاغذونه اوږد دي. حتی د GPT-5 د 128K ټوکن محدودیت سره، د هر پوښتنې لپاره بشپړ دستاويونو سپارښتنه د لګښت لګښت دی. برسېره پر دې، مطالعې ښودل شوي دي چې لکه څنګه چې د کنټرول اوږدوالی زیات کیږي، د LLM فعالیت کولی شي ، کوم چې د پرمختللي څیړنو ترسره کولو لپاره زیان لري. د ګمرک د ګمرک نو، د حل څه ده؟ Version 2.0: Smarter chunking and retrieval نسخه 2.0: د سمارټ chunking او retrieval دلته د کلیدي پوښتنې دا ده چې څنګه موږ د دې اړتیا پوره کولو لپاره کولی شو چې زموږ د API حساب ته وښيي او په سیسټم کې د دقت هم ساتل کیږي؟ **Answer is: \ (RAG). په ځای کې چې په LLM کې ټول د سند ډپولو، موږ په هوښيار ډول د پوښتنې مخکې تر ټولو مهمو برخو ترلاسه کړي. په دې توګه موږ ته اړتیا نلري چې ټول د سند هر وخت ته د LLM ته ورسیږي چې ټکینونه خوندي کړي، مګر هم ډاډه وکړئ چې د هغه په کارولو لپاره د LLM لپاره د ځواب لپاره د اړونده ټکینګونه ترلاسه شوي دي. دا دا دی چې د ترلاسه کولو-د اضافي نسل (RAG) داخل کیږي. Retrieval-Augmented Generation Retrieval-Augmented Generation There are 3 important aspects to consider here: د تشناب د ذخیره کولو او chunk retrieval د پرمختللي retrieval تکنالوژۍ په کارولو سره. مرحله 1: Chunking - د سند په هوښيار ډول تقسیم کړئ مخکې چې موږ کولی شو د اړونده برخو ترلاسه کړي، موږ ته اړتیا لري چې د کاغذ په مدیریت وړ برخو کې وکتل کړي. یو ناقانونه لارښوونه کولی شي د متن په اساسي اندازه برخو کې وکتل شي (په دې توګه، هر 500 کلمه)، مګر دا خطر لري چې په منځ کې د فکر په منځ کې د کنټرول له لاسه ورکوي. تصور وکړئ که یو برخې په پایله کې وي: "د تجربې کې د 98٪ بریالیتوب کچه ښيي ..." ... او بل برخې له خوا پیل کیږي: "...د پلوه سرطان په لومړنۍ مرحله کې د تشخیص کې غلط مثبتونه کم کړي." نه هم برخې په انفرادي کې ګټور دی. په بل کې، موږ ته اړتيا لري د سمینټیک د برخو د ستراتیژۍ: : Use document structure (titles, abstracts, methodology, etc.) to create logical splits. د برخې پر بنسټ Chunking : Overlap chunks slightly (e.g., 200-token overlap) to preserve context across boundaries. Sliding window chunking : Dynamically adjust chunk sizes based on sentence boundaries and key topics. Adaptive chunking د برخې پر بنسټ Chunking Sliding window chunking Adaptive chunking مرحله 2: هوښيار ذخیره او ترلاسه کول کله چې ستاسو د سندونو ټوټې چمتو شوي دي، د بل چمتو کولو او اغیزمنې ترلاسه کولو کې دي. د مدرن LLM غوښتنلیکونو سره د میلیونونو ټوټې په کارولو سره، ستاسو د ذخیره کولو انتخاب په مستقیم ډول د کړنو اغیزه کوي. د سنګاري لارښوونې چې د ذخیره کولو او د ترلاسه کولو تادیه کوي اغیزمنه کمېسيک دي. په بل کې، د ذخیره کولو آرکټیکټیکټ باید د ترلاسه کولو په ذهن کې ډیزاین شي، لکه څنګه چې مختلف نمونې د سرعت، کثافیت او انعطافیت لپاره مختلف تبادلې وړاندې کوي. د جوړ شوي ډاټا لپاره د اړیکو ډاټا بیسونو کارولو او د غیر جوړ شوي ډاټا لپاره NoSQL کارولو په معمول ډول تادیه کوي، مګر د یو ټوکر سره: د LLM غوښتنلیکونه نه یوازې متن، بلکه د سمینټیک نمونې (د نصبونو) ذخیره کوي. په روښانه نصب کې، د سند ټوکرونه او د دوی انډولونه کولی شي په PostgreSQL یا MongoDB کې ذخیره شي. دا د کوچني او منځني کچه غوښتنلیکونو لپاره کار کوي مګر د معلوماتو او پوښتنو حجم زیاتولو سره واضح محدودیتونه لري. دلته د ستونزو د ذخیره کولو نه ده، دا د ترلاسه کولو میکانیزم دی. د روښانه ډاټا بیسونه د دقیق لګښتونو او رینج پوښتنې په اړه غوره دي، مګر دوی د سمینټیک شواهدې څیړنې لپاره جوړ نه شوي دي. تاسو باید اضافي انډیز کولو ستراتیژۍ وکاروي یا د پراختیا کاروئ لکه د وکتور شواهدې څیړنې فعالولو لپاره. دا دا دی چې د وکتور ډاټا بیسونه په حقیقت کې ښکلي دي - دوی د ذخیره او ترلاسه کولو د نمونې لپاره هدف جوړ شوي دي چې د LLM غوښتنلیکونه غوښتنلیکونه اړتیا لري - د پوښونو لپاره د لومړي ځانګړنو په توګه د پوښونو په توګه درملنه کوي، په ځانګړي ډول د نزدیک ترین ختیځونو څیړنو لپاره ګټور کیږي. د حقیقتي جادو په څیر دی چې دوی د شواهدې حسابونه چمتو کوي. په داسې حال کې چې د روښانه ډاټا بیسونه معمولا د پوښ په وخت کې پیچلي ریاضی عملیاتو ته اړتیا لري، د وکتور ډاټا بیسونه ځانګړي انډیز کولو جوړښتونه کاروي لکه (Hierarchical Navigable Small World) یا Inverted File Index) د شواهدې چمتو کولو لپاره په چټکه توګه چټک کړي. د فورمه د HNSW IVF د فورمه د HNSW IVF دوی عموما د دوو لومړني مساوات مټريکونو ملاتړ کوي: Euclidean فاصله: ښه مناسب کله چې د وکتورونو په منځ کې بشپړ تفاوتونه مهم دي، په ځانګړې توګه په هغه وخت کې ګټور کله چې د انډولونو د ژیراریکي اړیکو کوډوي. Cosine Similarity: د Semantic Search لپاره د معياري انتخاب - دا د حجم په پرتله د وکتورونو لارښوونې په اړه تمرکز کوي. دا معنی لري چې دوه سندونه چې ورته معنی لري مګر په مختلفو اوږدوالي کې هم کولی شي په اغیزمنه توګه برابر شي. د حق وکتور ډاټا انتخاب د LLM غوښتنلیکونو د ګټورولو کارولو لپاره مهم دی، ځکه چې دا د پیاوړتیا، پوښتنې اغیزمنتیا، او عملیاتي پیچیدو اغیزمنوي. د HNSW پر بنسټ د حلونو لکه او چټک ANN څیړنې سره اغیزمن استازیتوب وړاندې کوي - دوی په اتوماتيک ډول د کثافاتو په کارولو سره د کمېسيون عملیاتو پرته د کارولو لپاره مناسب کوي. Self-hosted اختیارات لکه (IVF پر بنسټ) په کچه ډیر کنترول او لګښت اغیزمنتیا وړاندې کوي، مګر د چټک تنظیم ته اړتيا لري. pgvector سره Postgres یوځای شوی د هیدرولیک څیړنې وړاندیز کوي، که څه هم دا ممکن د لوړ تودوخې کاري ټوکرونو لاندې محدودیتونو ته ورسیږي. د انتخاب په پایله کې د کاري ټوکر اندازه، پوښتنې نمونې، او عملیاتي محدودیتونو پورې اړه لري. پینکون د تشناب Milvus پینکون د تشناب Milvus پړاو 3: پرمختللي Retrieval ستراتیژۍ Building an effective retrieval system requires more than just running a basic vector similarity search. While dense embeddings allow for powerful semantic matching, real-world applications often require additional layers of refinement to improve accuracy, relevance, and efficiency. By combining multiple retrieval methods and leveraging Large Language Models (LLMs) for intelligent post-processing, we can significantly enhance retrieval quality. د لټون سیستمونو کې یو عام چمتو ستونزه د دقت او یادولو توازن دی. د کلیديډ پر بنسټ د څیړنې (د بیلګې په توګه، BM25، TF-IDF) د دقیق د اصطلاحاتو سره مطابقت پیداولو لپاره ښه دی، مګر د معنوي درک سره ستونزه کوي. په بل کې، د وکتور څیړنې (د بیلګې په توګه، FAISS، HNSW، یا IVFFlat) د معنوي اړیکو په څیړنې کې ښه دی، مګر کولی شي ځینې وختونه په خوندي توګه د اړخیزو کلیديډونو له لاسه ورکوي. د دې د حل کولو لپاره، د هیدرولیک ترلاسه کولو ستراتیژۍ د هر دوو روشونو قویاتو یوځای کوي. دا شامل دي: د کانډاډاګانې ترلاسه کول - په دوامداره توګه د Keyword او Vector شواهدې څیړنې کاروي. د سروې ډول او غوښتنلیک غوښتنلیک اړتیاوو پر بنسټ د هر ترلاسه کولو روش اغېز کنټرول.Merging results - controlling the influence of each retrieval method based on the query type and application needs. د ترټولو غوره ترتیب لپاره د راټولولو لپاره د راټولولو لپاره - ډاډ ترلاسه کړئ چې ترټولو مهم معلومات د سمینټیک اړتیاوو په اساس ترټولو مهم دي. بل ستونزه دا ده چې د روحي ویکټر څیړنې ترټولو غوره-K ترټولو نزدیک انډولونه ترلاسه کوي. LLMs د کنټاکټ ویډیو پر بنسټ دي، کوم چې معنی لري چې د ترټولو غوره-K پايلې غوره کولو ممکن د غیرقانوني معلوماتو ته ورسیږي یا د مهمو معلوماتو له لاسه ورکوي. د دې ستونزو لپاره یو حل د LLM ځان لپاره کارول کیږي. په ځانګړي توګه، موږ د ترلاسه شوي کانډلونو ته د LLM ته ورسیږي ترڅو د کاروونکي پوښتنې پر بنسټ د تعقیب او اړتیا تصدیق کړي. ځینې تخنیکونه چې د LLM د پاکولو لپاره کارول شوي دي لکه څنګه: Semantic Coherence Filtering: د Raw Top-K پايلې تغذیه کولو په ځای کې، د LLM تبادله کوي که څه هم د ترلاسه شوي سندونه د پوښتنې سره تړل شوي منطقي پرمختګ پیژندل کیږي. د Semantic Coherence لپاره پیژندل کولو له لارې، یوازې د اړیکو په اړه تر ټولو مهم معلومات کارول کیږي. Relevance-Based Reranking: ماډلونه لکه Cohere Rerank، BGE، یا MonoT5 کولی شي د لټون شوي دستاويونو ته وده ورکړي، د ګټور اړخښت نمونې راټول کړي او د خام شواهدو څخه زيات پایلې ښه کړي. Context پراختیا سره Iterative Retrieval: Static retrieval کولی شي غیر مستقیمه مهمو معلوماتو له لاسه ورکړي. LLMs کولی شي ضایعونه وټاکئ، د پیژندنې پوښتنو جوړ کړي، او د retrieval ستراتیژۍ په دوامداره توګه تنظیم کړي ترڅو د لګښت په کنټرول کې راټول کړي. د Semantic Coherence فلټر Relevance-Based Reranking Context Expansion with Iterative Retrieval Now, with these updates, our system is better equipped to handle complex questions across multiple sections of a paper, while maintaining accuracy by grounding responses strictly in the provided content. But what happens when a single source isn't enough? Some questions require synthesizing information across multiple papers or performing calculations using equations from different sources - challenges that pure retrieval can't solve. Version 3.0 - Building a Comprehensive and Reliable System Version 3.0 - Building a Comprehensive and Reliable System په دې وخت کې، "ResearchIt" د ساده پوښتنې ځواب سیسټم څخه د یو توانمند څیړنې مسلکي جوړ شوی دی چې د اپلوډ شوي کاغذونو څخه کلیدي برخو اخلي، روشونه وده ورکوي، او د تخنیکي موادو په دقت سره محاسبه کوي. که څه هم، لکه څنګه چې کاروونکي د سیسټم ته وده ورکوي، نوي انتظارونه وده ورکوي. What began as a system designed to summarize or interpret a single paper has now become a tool researchers want to use for deep, cross-domain reasoning. Researchers want it to reason across multiple sources, not just read one paper at a time. د پوښتنو نوي تودوخې ښکاري: “Which optimization techniques for transformers demonstrate the best efficiency improvements when combining insights from benchmarks, open-source implementations, and recent research papers?” "چې په دې کاغذ کې گزارش شوي ماډل کمښت پايلې د نورو کاغذونو یا بینچینګ ډاټا سیټونو کې گزارش شوي فعالیتونو سره رامینځته کیږي؟" دا د ساده رخصتۍ مهمو نه دي. دوی اړتیا لري - د پیچلي معلوماتو د ترکیب او تفسیر وړتیا، پلان او adapts، اغیزمن وسایلو کاروي، له غلطاتو له لاسه، او په پایله، د شواهدو پر بنسټ synthesis توليدوي. د ډیرو سرچینو منطق د خپل قوي درک وړتیا له الرې، "ResearchIt" 2.0 په مختلفو معلوماتو سرچینو کې د منطق کولو کې دوه لوی محدودیتونو سره مبارزه کوي: Cross-Sectional Analysis: When answers require both interpretation and computation (e.g., extracting FLOPs or accuracy from tables and comparing them across conditions). The model must not only extract numbers but also understand context and significance. Cross-Source Synthesis: When relevant data lives across multiple systems - PDFs, experiment logs, GitHub repos, or structured CSVs - and the model must coordinate retrieval, merge conflicting findings, and produce one coherent explanation. دا ستونزو نه یوازې نظریاتي دي. دوی د AI پراختیا په واقعي نړۍ کې چمتو کوي. لکه څنګه چې ډاټا اکوسیسټمونه ډیر پیچلي وي، سازمانونه باید د بنسټیزې ترلاسه کولو څخه بهر د منطقي orchestration ته راځي - سیسټمونه چې کولی شي پلان وکړي، عمل وکړي، ارزیابی کړي، او په دوامداره توګه بدل کړئ. موږ د ترانسپورټر ګټور کولو تکنیکونو تحلیل په اړه د لومړي پوښتنې راځي - څنګه موږ د انسان په توګه دې ستونزو حل کوو؟ د څېړونکو یا زده کونکو یو ډلې به په "د کتابتون څیړنې" کې کار وکړي، چې د موضوعاتو په اړه کاغذونه راټول کړي، د Open Source Github Repos په څیړنه کې ونیسئ، او د نمونې ډاټا سیټونه راټول کړي. دوی بیا د معلوماتو او نمونې لکه FLOPs، لټینټ، د دې سرچینو څخه دقت، normalizes او calculate aggregations او د تولید شوي پايلې تصدیق کړي. دا یو واحد سټیټ پروسه نه ده؛ دا iterative ده، د معلوماتو تصدیق، تصدیق او synthesis ډیری راټولونه شامل دي، وروسته چې د تصدیق شوي پايلې د مجموعي خلاص د توليد شي. So, what exactly did we do here? د عمومي پوښتنې په کوچني، تمرکز لاندې ستونزوونو کې راټول کړئ - کوم سرچینې ته چمتو کړئ، کوم مټريکونه ته تحلیل کړئ، او څنګه مقایسهونه باید ترسره شي. د ډومین متخصصانو یا د باور وړ سرچینو سره اړیکه ونیسئ ترڅو د معلوماتو غفلتونه بشپړ کړي، د تفتیش مټريکونه ونیسئ، او د تبادلې تفسیر کړئ. Finally, synthesize the insights into a cohesive, evidence-based conclusion, comparing results and highlighting consistent or impactful findings through iterations. دا په عمده توګه د منطقي orchestration ده - د ډیرو سیسټمونو او نقطې نظرونو په اړه معلومات پلان، جمع، تجزیه، او synthesizing تعقیب شوي پروسه. دا ښه وي که زموږ سیسټم هم کولی شي د دې په څیر یو څه ترسره کړي، نه؟ دا د پوښتنې ځواب په اړه يو طبيعي بل ګام په څیر احساس کوي. Step 1: Chain of Thought/ Planning د لومړي پوهه حل کولو لپاره، د ځواب مخکې د ډیرو ګامونو له لارې فکر کولو وړتیا، د (CoT) was introduced. CoT allows models to plan before execution, eliciting structured reasoning that improves their interpretability and consistency. For e.g, in analyzing transformer optimization techniques, a CoT model would first outline its reasoning path - defining the scope (training efficiency/ model performance/scalability), identifying relevant sources, selecting evaluation criteria and the method of comparison and establishing an execution sequence. Chain of Thought Chain of Thought دا تخنیکي منطق کولو لارښوونې د لګچین پر بنسټ جوړ شوی. لکه څنګه چې پوښتنو ډیر پیچلي شو، د منطق کولو یو واحد "چین" د فکر (Tree of Thought (ToT) یا ګراف د فکر (GoT) لارښوونې ته وده ورکړي - د ګرځنده منطق کولو او "د راتلونکي فکر" سلوکونو ته اجازه ورکوي، په کوم ډول ماډلونه د ډیری امکاناتو د حل لارښوونې څیړنه کوي مخکې د غوره لارښوونې په اړه یوځای کیږي. دا تکنیکونه د اڄنۍ "پینګ ماډلونو" ملاتړ کوي، چې د CoT ډاټا سیټونو کې روزل شوي دي ترڅو د تفسیر وړ منطق ټوکنونه جوړ کړي چې څنګه د ماډل په پایله کې راځي. Of course, adopting these reasoning-heavy models introduces practical considerations - primarily, cost. Running multi-step reasoning chains is computationally expensive, so model choice matters. Current options include: د OpenAI o3 او o4-mini په څیر مخکښ سرچينې ماډلونه، چې د لوړ منطق کیفیت او قوي orchestration وړتیاوې وړاندې کوي. د Open-source بدیلونو لکه DeepSeek-R1، چې د ګمرکولو لپاره ډیر انعطاف / انجنیري هڅو سره شفاف منطق وړاندې کوي. While non-thinking LLMs (like LLaMA 3) can still emulate reasoning through CoT prompting, true CoT or ToT models inherently perform structured reasoning natively. For now, let’s assume we’re willing to invest in a top-tier model capable of genuine, interpretable reasoning and multi-source orchestration. مرحله 2: Multi-source workflows- دنده د اګانو ته د تماس د سیسټم باید په مختلفو تخصصي وسایلو کې - هر یو په توګه د "داستور" په توګه عمل کوي - د ثانوي پوښتنو ځواب، د کارونو ترسره کولو، ډاټا راټولولو، او د چاپیریال سره د تبادلې اړیکو له الرې د دې درک کولو سره سمون کړي. د OpenAI نندارې as the first step to address this situation. Function calling/ tools gave the LLMs its first real ability to په بل ډول، تاسو د ماډل سره یو toolkit وړاندې کوي - د مثال په توګه، د ځانګړتیاوو لکه یا او د نمونوي د دې لپاره چې د دې لپاره چې د هغه په تماس کې ونیسئ، کله چې دا د هغه په تماس کې ونیسئ، او په هغه ترتیب کې چې. ایا موږ یو ساده مثال لرو: د تماس دنده take action search_papers()، extract_table()، د اټکل _ اټکل() د تماس دنده دنده: "د BERT fin-tuning لپاره د متوسط راپور شوي دقت محاسبه کړئ." یو ماډل چې دنده د تماس په کارولو سره کاروي، ممکن د دې په څیر لاینری چڼاسکه کارولو سره ځواب ورکړي: search_papers("BERT fine-tuning accuracy") extract_table() for each paper calculate_statistics() to compute the mean This dummy example of a simple deterministic pipeline where an LLM and a set of tools are orchestrated through predefined code paths is straightforward and effective and can often serve the purpose for a variety of use cases. However, it’s او . When more complexity is warranted, an ممکن د ښه انتخاب وي کله چې د انعطافیت، د کار د ښه کړنو او د نمونې له خوا د تصمیم گیری په مقیاس کې اړتيا دي (د اوږدوالی او لګښتونو د توازن سره). لنډول غیر متوازن د کارپوریشن workflow د کارپوریشن workflow Iterative agentic workflows are systems that don’t just execute once but . Like a human researcher, the model learns to recheck its steps, refine its queries, and reconcile conflicting data before drawing conclusions. Reflect، Revise، او Re-Run فکر وکړئ چې دا په توګه یو ښه همغړ شوی څیړنې لابراتوار، په کوم کې هر عضو یو ځانګړي رول لري: Retrieval Agent: The information scout. It expands the initial query, runs both semantic and keyword searches across research papers, APIs, github repos, and structured datasets, ensuring that no relevant source is overlooked. Extraction Agent: د ډاټا wrangler. دا د PDFs، جدولونه، او JSON پایلې د پریکړه، بیا د extracted معلوماتو د معياري - د نمونې، د واحدونو سره سمون، او د زیربنا د تجزیه لپاره پاک انډولونه جوړوي. Calculation Agent: د تحلیلونکي. دا د اړتیاوو حسابونه، اټکلونه، او د تعقیب چکونه ترسره کوي ترڅو ټینګونه کچه ورکړي او د تصدیق کولو لپاره چې د استخراج شوي ډاټا معنی لري. Validation Agent: د کیفیت د دروازې ساتونکي. دا anomalies، لګښتونو، او یا تناوبی پایلې راټولوي، او که څه نندارې، دا به په اتوماتيک ډول re-runs یا اضافي څیړنو له لاسه ورکوي چې د نندارې بشپړ کړي. Synthesis Agent: The integrator. It pulls together all verified insights and composes the final evidence-backed summary or report. Each one can request clarifications, rerun analyses, or trigger new searches when context is incomplete, essentially forming a self-correcting loop - an evolving dialogue among specialized reasoning systems that mirror how real research teams work. له دې لپاره چې د دې په یو ځانګړي مثال کې بدل کړئ چې څنګه د دې اجزاو زموږ د ترانسپورټر اغیزمنۍ پوښتنې لپاره کار وکړي: Initial Planning (Reasoning LLM): The orchestrator begins by breaking the task into sub-objectives discussed before. First Retrieval Loop: The Retrieval Agent executes the plan by gathering candidate materials — academic papers, MLPerf benchmark results, and open-source repositories related to transformer optimization. During this step, it detects that two benchmark results reference outdated datasets and flags them for review, prompting the orchestrator to mark those as lower confidence. Extraction & Computation Loop: Next, the Extraction Agent processes the retrieved documents, parsing FLOPs and latency metrics from tables and converting inconsistent units (e.g., TFLOPs vs GFLOPs) into a standardized format. The cleaned dataset is then passed to the Computation Agent, which calculates aggregated improvements across optimization techniques. Meanwhile, the Validation Agent identifies an anomaly - an unusually high accuracy score from one repository. It initiates a follow-up query and discovers the result was computed on a smaller test subset. This correction is fed back to the orchestrator, which dynamically revises the reasoning plan to account for the new context. Iterative Refinement: Following the Validation Agent’s discovery that the smaller test set introduced inconsistencies in the reported results - the Retrieval Agent initiates a secondary, targeted search to gather additional benchmark data and papers on quantization techniques. The goal is to fill missing entries, verify reported accuracy-loss trade-offs, and ensure comparable evaluation settings across sources. The Extraction and Computation Agents then process this newly retrieved data, recalculating averages and confidence intervals for all optimization methods. An optional Citation Agent could examine citation frequency and publication timelines to identify which techniques are gaining traction in recent research. Final Synthesis: Once all agents agree, the orchestrator compiles a verified, grounded summary like - “ ” Across 14 evaluated studies, structured pruning yields 40–60 % FLOPs reduction with < 2 % accuracy loss (Chen 2023; Liu 2024). Quantization maintains ≈ 99 % accuracy while reducing memory by 75 % (Park 2024). Efficient-attention techniques achieve linear-time scaling (Wang 2024) with only minor degradation on long-context tasks (Zhao 2024). Recent citation trends show a 3× rise in attention-based optimization research since 2023, suggesting a growing consensus toward hybrid pruning + linear-attention approaches. هغه څه چې قدرتي دلته نه یوازې د پایلې نه ده - دا د . process Each agent contributes, challenges, and refines the others’ work until a stable, multi-source conclusion emerges. In this orchestration framework, interoperability is powered by the او communication which together enable seamless collaboration across specialized reasoning agents. MCP standardizes how models and tools exchange structured information - such as retrieved documents, parsed tables, or computed results - ensuring that each agent can understand and build upon the others’ outputs. Complementing this, A2A communication allows agents to directly coordinate with one another - sharing intermediate reasoning states, requesting clarifications, or triggering follow-up actions without intervention. Together, MCP and A2A form the backbone of collaborative reasoning: a flexible, modular infrastructure that enables agents to plan, act, and refine collectively in real time. Model Context Protocol (MCP) Agent-to-Agent (A2A) Model Context Protocol (MCP) د کارپوه کارپوه (A2A) مرحله 3: د پیاوړتیا او اعتماد تضمین کول په دې مرحله کې، تاسو اوس د یو ایجنټیک سیسټم لري چې د نسبتا پیچلي او انفرادي څیړنې پوښتنو په منطقي مرحلهونو کې راټول کړي، د ډیرو سرچینو څخه ډاټا راټول کړي، په اړتیا کې محاسبات یا بدلونونه ترسره کړي، او د پایلو په یو متوافقه، د شواهدو سره ملاتړ شوي خلاصې جوړ کړي. مګر یو وروستۍ چمتو دی چې په داسې سیسټم کې اعتماد کولی شي یا کولی شي: هلیسینونو. LLMs په واقعیت کې نه کوي حقایق - دوی په خپل روزنې ډاټا کې د نمونې په اساس د راتلونکي احتمالي ټکین پیژندل کیږي. دا معنی لري چې دوی د محصول په چټک ډول او convincing دی، مګر تل نه. . While improved datasets and training objectives help, the real safeguard comes from adding mechanisms that can verify and correct what the model produces in real time. know د حق Here are a few techniques that make this possible: د قواعدو پر بنسټ فلټر کولو: د ډومین ځانګړي قواعد یا نمونې تعریف کړئ چې د کاروونکي ته ورسیږي دمخه ښکلي غلطاتو راټول کیږي. د مثال په توګه، که د ماډل د غیر ممکن مټریټ، د معلوماتو د ځمکې یا د سند د معلوماتو د معلوماتو د غلطو جوړولو څخه راټول کیږي، د سیسټم کولی شي دا نندارې او راټول کړي. Cross-Verification: Automatically re-query trusted APIs, structured databases, or benchmarks to confirm key numbers and facts. If the model says “structured pruning reduces FLOPs by 50%,” the system cross-checks that against benchmark data before accepting it. Self-Consistency چیکونه: ډیری منطقونه جوړ کړئ او دوی په پرتله کړئ. Hallucinated تفصيلات په دوامداره توګه په دوامداره توګه توپیر لري، په داسې حال کې چې واقعي پایلې ثابت دي - نو د ماډل یوازې د اکثریت سره مطابقت پایلې لري. په ګډه، د دغو کټګورۍ د پایلې ساتنې جوړوي - د منطق کولو چڼاسکه بند. هر ځواب چې سیستم تولید کوي نه یوازې ښه جوړ شوی دی، بلکه . verified او دلته - هغه څه چې د ساده ترلاسه کولو پر بنسټ د نمونوي په توګه پیل شو، اوس د یو قوي څیړنې مسلکي ته وده ورکړي: هغه څه چې نه یوازې د بنسټیز Q & A ځوابونه نه کوي، بلکه د ډیرو سرچینو معلوماتو په ګډه کول، حسابونه ترسره کول، او د ځمکې څیړنې تولید کول، په داسې حال کې چې په فعال ډول د هلیسیینټونو او غلط معلومات څخه ساتنه کوي. ResearchIt د سفر د هر LLM غوښتنلیک جوړونکي سره مخکښ دي: د ډوډیو ډوډۍ څخه د تولید کچه د معلوماتو ته بدلون څخه د قوي ماډلونو څخه ډیر اړتيا لري - دا د فکر وړ آرکټویټ ته اړتيا لري.