"Pomoć! naši troškovi modela AI su kroz krov!" Iako su ChatGPT i njegovi rođaci izazvali zlatnu gužvu aplikacija zasnovanih na AI-u, stvarnost izgradnje aplikacija zasnovanih na LLM-ovima je složenija od slapanja API poziva na web sučelje. Svakodnevno, moja LinkedIn hrana preplavlja s novim "AI-powered" proizvodi. Neki analiziraju pravne dokumente, drugi pišu marketing kopiju, a hrabri nekoliko čak pokušavaju automatizirati razvoj softvera. Ove "wrapper tvrtke" (kako se ponekad zovu odvratno) ne mogu trenirati svoje modele, ali mnogi su rješavanje stvarnih problema za kupce i pronalaženje pravog proizvoda-tržište odgovara na temelju trenutnih zahtjeva iz poduzeća. tajna? Oni su laserski usmjereni na stvaranje AI tehnologije zapravo korisno za određene skupine korisnika. Ali ovdje je stvar: Čak i kada ne trenirate modele od nule, skaliranje AI aplikacije od dokaza o konceptu do proizvodnje je kao da se krećete kroz labirint. Da biste to bolje razumjeli, razbijmo to s primjerom u stvarnom svijetu. Zamislite da gradimo "ResearchIt" (ne pravi proizvod, ali nosite sa mnom), aplikaciju koja pomaže istraživačima da probave akademske radove. Želite brz sažetak odjeljka guste metodologije? Potrebno je izvući ključna otkrića iz papira od 50 stranica? Version 1.0: The Naive Approach Versija 1.0: Naivni pristup Vožimo visoko na OpenAI hype vlaku - Naša prva verzija je prekrasno jednostavna: Istraživač postavlja komadiće papira (posebni, relevantni odjeljci) Naš backend preusmjerava tekst na GPT-5 s pozivom poput "Vi ste korisni istraživački asistent. Analizirajte sljedeći tekst i dostavite uvid strogo iz odjeljka koji pruža korisnik..." Čarolija se događa, a naši korisnici dobivaju uvid Jednostavnost je lijepa. troškovi?Ne toliko. Kako sve više istraživača otkriva naš alat, naši mjesečni API računi počinju izgledati kao telefonski brojevi. Da, GPT-5 je moćan, sa svojim 128k kontekstnom prozorom i snažnim sposobnostima razmatranja, ali za 1,25 $ po 1M ulaznim žetonom i 10 $ po 1M izlaznim žetonom, troškovi se brzo povećavaju. Modeli otvorenog koda kao što su Meta LLaMA (3 ili 4 serije) ili različiti modeli iz Mistral ili također nude fleksibilne i troškovno učinkovite opcije za opće ili domene specifične zadatke, iako ih je fino podešavanje često nepotrebno za lakše radne opterećenja. Izbor stvarno ovisi o sljedećim stvarima: Izlazna kvaliteta: Može li model dosljedno pružiti točnost potrebnu za vašu aplikaciju? Brzina odgovora: Hoće li vaši korisnici čekati te dodatne milisekunde za bolje rezultate? Tipično vrijeme odgovora za bilo koju aplikaciju trebalo bi biti unutar oznake od 10 sekundi kako korisnici ne bi izgubili interes, pa brzina definitivno znači. Integritet podataka: Koliko su vaši podaci osjetljivi i koji su vaši zahtjevi za privatnost? Ograničenja resursa: Koji je vaš proračun, kako za troškove tako i za vrijeme inženjeringa? Za naš analitičar istraživačkih radova, ne trebamo poeziju o kvantnoj fiziki; trebamo pouzdanu, troškovno učinkovitu sažetak. Bottom Line: Poznajte svoje aplikacijske potrebe Bottom Line: Poznajte svoje aplikacijske potrebe Choose your LLM based on your actual requirements, not sheer power. If you need a quick setup, proprietary models may justify the cost. If affordability and flexibility matter more, open-source models are a strong choice, especially when small quality trade-offs are acceptable (although there might be some infrastructure overhead). So, ResearchIt is a hit. Researchers love how it summarizes dense academic papers, and our user base is growing fast. But now, they want more; instead of just summarizing sections they upload, they want the flexibility to ask targeted questions across the entire paper in an effective manner. Sounds simple, right? Just send the whole document to GPT-5 and let it work its magic. Ne tako brzo. Akademski radovi su dugi. Čak i uz velikodušno ograničenje tokena 128K GPT-a 5, slanje punih dokumenata po upitu je skupo ubojstvo. , which is detrimental when performing cutting-edge research. Degradacija Degradacija Dakle, što je rješenje? Version 2.0: Smarter chunking and retrieval Versija 2.0: Pametnije čuvanje i preuzimanje Ključno pitanje ovdje je kako ćemo razmjeriti kako bismo zadovoljili ovaj zahtjev bez postavljanja našeg računa za API na vatru i održavanja točnosti u sustavu? **Answer is: \ (RAG). Umjesto da bacimo cijeli dokument u LLM, inteligentno preuzimamo najrelevantnije odjeljke prije upita.Na ovaj način ne moramo svaki put poslati cijeli dokument LLM-u kako bismo sačuvali žetone, ali također osiguravamo da se relevantni komadići preuzimaju kao kontekst za LLM da odgovori koristeći ga. Povećana generacija Povećana generacija There are 3 important aspects to consider here: Chunking Skladištenje i chunk retrieval Koristeći napredne tehnike oporavka. Korak 1: Čunkiranje – inteligentno podijeliti dokument Before we can retrieve relevant sections, we need to break the paper into manageable chunks. A naive approach might split text into fixed-size segments (say, every 500 words), but this risks losing context mid-thought. Imagine if one chunk ends with: "The experiment showed a 98% success rate in..." …and the next chunk starts with: "...reducing false positives in early-stage lung cancer detection." Neither chunk is useful in isolation. Instead, we need a semantic chunking strategy: Koristite strukturu dokumenta (naslove, abstrakte, metodologiju itd.) za stvaranje logičkih podjela. Preklapanje prozora: Preklapanje komada lagano (npr. preklapanje 200 žetona) kako bi se očuvao kontekst preko granica. Adaptivno uklanjanje: Dinamički prilagodite veličinu uklanjanja na temelju granica rečenice i ključnih tema. Odjeljak temelji se na Slijedeći Članak Sliding window chunking Adaptivni čepovi Korak 2: Inteligentno skladištenje i preuzimanje Once your document chunks are ready, the next challenge is storing and retrieving them efficiently. With modern LLM applications handling millions of chunks, your storage choice directly impacts performance. Traditional approaches that separate storage and retrieval often fall short. Instead, the storage architecture should be designed with retrieval in mind, as different patterns offer distinct trade-offs for speed, scalability, and flexibility. Konvencionalna razlika između korištenja relacijskih baza podataka za strukturirane podatke i NoSQL za nestrukturirane podatke još uvijek se primjenjuje, ali s okretanjem: LLM aplikacije pohranjuju ne samo tekst, već i semantičke reprezentacije. U tradicionalnom podešavanju, dijelovi dokumenata i njihova ugrađivanja mogu se pohraniti u PostgreSQL-u ili MongoDB-u. Tradicionalne baze podataka izvrsne su na točnim podudaranjima i upitima o rasponu, ali nisu izgrađene za semantičke pretrage sličnosti. to enable vector similarity searches. This is where vector databases truly shine - they’re purpose-built for the store-and-retrieve pattern that LLM applications demand - treating embeddings as the primary attribute for querying, optimizing specifically for nearest neighbour searches. The real magic lies in how they handle similarity calculations. While traditional databases often require complex mathematical operations at query time, vector databases use specialized indexing structures such as (Hierarchical Navigable Small World) or Inverted File Index) kako bi sličnost pretraživanja bljeskalno brzo. pgvector HNSV IVF pgvector HNSV IVF Oni obično podržavaju dvije primarne metrike sličnosti: Euclidska udaljenost: Bolje je prikladna kada su apsolutne razlike između vektorâ važne, osobito korisno kada ugrađivanja kodiraju hijerarhijske odnose. Cosine Sličnost: Standardni izbor za semantičko pretraživanje - usredotočuje se na smjer vektora umjesto veličine. Odabir prave vektorske baze podataka ključan je za optimizaciju performansi pretraživanja u aplikacijama LLM-a, jer utječe na skalabilnost, učinkovitost upita i operativnu složenost. i offer fast ANN search with efficient recall - they handle scaling automatically making them ideal for dynamic workloads with minimal operational overhead. Self-hosted options like (IVF-based) offer more control and cost-effectiveness at scale, but require careful tuning. pgvector integrated with Postgres enables hybrid search, though it may hit limits under high-throughput workloads. The choice finally depends on workload size, query patterns, and operational constraints. Pinecone Weaviate Milvić Pinecone Vješalica Milvić Korak 3: Napredne strategije povrata Izgradnja učinkovitog sustava pretraživanja zahtijeva više od jednostavnog pokretanja osnovne pretraživanja sličnosti vektorja. Dok guste ugrađivanja omogućuju snažno semantičko podudaranje, aplikacije u stvarnom svijetu često zahtijevaju dodatne slojeve rafiniranja kako bi se poboljšala točnost, relevantnost i učinkovitost. Uobičajeni izazov u sustavima pretraživanja je uravnoteženje preciznosti i podsjećanja. pretraživanje temeljeno na ključnim riječima (npr. BM25, TF-IDF) izvrsno je za pronalaženje točnih terminskih sukoba, ali se bori s semantičkim razumijevanjem. S druge strane, vektorsko pretraživanje (npr. FAISS, HNSW ili IVFFlat) izvrsno je u hvatanju semantičkih odnosa, ali ponekad može vratiti loše povezane rezultate koji propuste ključne ključne riječi. To overcome this, a hybrid retrieval strategy combines the strengths of both methods. To uključuje: Pronalaženje kandidata – paralelno pokretanje traženja ključnih riječi i sličnosti vektorskih riječi. Rezultati spajanja – kontroliranje utjecaja svake metode preuzimanja na temelju tipa upita i potreba aplikacije. Reranking for optimal ordering – ensuring the most relevant information appears at the top based on semantic requirements. Još jedan izazov je da tradicionalno vektorsko pretraživanje preuzima top-K najbliže ugrađivanja. LLM-ovi se oslanjaju na kontekstne prozore, što znači da slijepo odabir rezultata top-K može unijeti irelevantne informacije ili propustiti ključne detalje. Jedno rješenje za ovaj problem je korištenje samog LLM-a za rafiniranje. Neke tehnike koje se koriste za rafiniranje LLM su kako slijedi: Filtriranje semantičke usklađenosti: Umjesto da se hrane sirovim top-K rezultatima, LLM ocjenjuje slijede li prikupljeni dokumenti logičku progresiju povezanu s upitom. : Models like Cohere Rerank, BGE, or MonoT5 can re-evaluate retrieved documents, capturing fine-grained relevance patterns and improving results beyond raw similarity scores. Relevancijsko rearanžiranje Kontekst Ekspanzija s iterativnim preuzimanjem: Static retrieval može propustiti neizravno relevantne informacije. LLM-ovi mogu identificirati praznine, generirati upite za praćenje i dinamički prilagoditi strategiju preuzimanja kako bi prikupili nedostajući kontekst. Filtriranje semantičke dosljednosti Relevancijsko rearanžiranje Kontekstno proširenje s iterativnim povratkom Sada, s ovim ažuriranjima, naš sustav je bolje opremljen za rješavanje složenih pitanja u više dijelova papira, a istodobno održava točnost tako što temelji odgovore strogo u pruženom sadržaju.Ali što se događa kada jedan izvor nije dovoljan? Version 3.0 - Building a Comprehensive and Reliable System Versija 3.0 - Izgradnja sveobuhvatnog i pouzdanog sustava Do ovog trenutka, "ResearchIt" je sazreo iz jednostavnog sustava za odgovaranje na pitanja u sposobnog istraživačkog asistenta koji izvlači ključne dijelove iz postavljenih radova, naglašava metode i sažima tehnički sadržaj s preciznošću. What began as a system designed to summarize or interpret a single paper has now become a tool researchers want to use for deep, cross-domain reasoning. Researchers want it to reason across multiple sources, not just read one paper at a time. Novi val pitanja izgleda kao: “Which optimization techniques for transformers demonstrate the best efficiency improvements when combining insights from benchmarks, open-source implementations, and recent research papers?” "Kako se rezultati kompresije modela prijavljeni u ovom dokumentu usklađuju s rezultatima objavljenima u drugim dokumentima ili skupovima podataka o referentnim vrijednostima?" Ovo više nisu jednostavne zadatke povratka. - sposobnost integriranja i tumačenja složenih informacija, planiranja i prilagođavanja, učinkovitog korištenja alata, oporavka od pogrešaka i proizvodnje utemeljene, na dokazima utemeljene sinteze. Višestranski razlozi Despite its strong comprehension abilities, “ResearchIt” 2.0 struggles with two major limitations when reasoning across diverse information sources: Cross-Sectional Analysis: Kada odgovori zahtijevaju i tumačenje i izračunavanje (npr. izvlačenje FLOP-ova ili točnosti iz tablica i usporedba ih u različitim uvjetima). Cross-Source Synthesis: When relevant data lives across multiple systems - PDFs, experiment logs, GitHub repos, or structured CSVs - and the model must coordinate retrieval, merge conflicting findings, and produce one coherent explanation. Ta pitanja nisu samo teorijska, nego odražavaju izazove u stvarnom svijetu u pogledu skalabilnosti umjetne inteligencije.Kako ekosustavi podataka postaju sve složeniji, organizacije se moraju pomaknuti dalje od osnovnog pretraživanja prema razumijevanju orkestracije - sustavima koji mogu planirati, djelovati, procjenjivati i kontinuirano se prilagođavati. Uzmimo prvo pitanje oko analize tehnika optimizacije transformatora - kako bismo riješili ovaj problem kao ljudi? Skupina istraživača ili studenata radila bi na "preispitivanju literature, tj. skupljanju radova o temama, istraživanju repozita otvorenog izvora na GitHubu i identifikaciji referentnih skupova podataka. Zatim bi izvukli podatke i metriku poput FLOP-a, latentnosti, točnosti iz tih resursa, normalizirali i izračunali agregate i validirali proizvedene rezultate. Ovo nije jedan proces; to je iterativno, uključujući više krugova rafiniranja, validacije podataka i sinteze, nakon čega bi se generirao agregirani sažetak provjerenih rezultata. So, what exactly did we do here? Podijelite opće pitanje na manje, usmjerene podprobleme - koje izvore pretraživati, koje metrike analizirati i kako bi se usporedbe trebale provoditi. Posavjetujte se s stručnjacima za domene ili pouzdanim izvorima kako biste popunili praznine u znanju, međusobno provjerili pokazatelje i tumačili kompromise. Naposljetku, sintetizirajte uvid u kohezivni, zaključak temeljen na dokazima, uspoređujući rezultate i naglašavajući dosljedne ili utjecajne nalaze kroz iteracije. To je, u suštini, razmotrena orkestracija - koordinirani proces planiranja, prikupljanja, analize i sinteze informacija preko višestrukih sustava i perspektiva. Step 1: Chain of Thought/ Planning Za rješavanje prvog aspekta, sposobnost razmatranja kroz nekoliko koraka prije odgovaranja, koncept (CoT) je uvedena. CoT omogućuje modelima da planiraju prije izvršenja, izazivajući strukturirano razmatranje koje poboljšava njihovu tumačivost i dosljednost. za primjer, u analizi tehnika optimizacije transformatora, model CoT bi najprije opisao svoj rasuđivački put - definirajući opseg (trening učinkovitost / model performanse / skalabilnost), identificirajući relevantne izvore, odabirom kriterija evaluacije i metode usporedbe i uspostavljanjem sekvence izvršenja. lanac misli lanac misli Kako su pitanja postala sve složenija, jedan “vez” razmatranja evoluirao je u Tree of Thought (ToT) ili Graph of Thought (GoT) pristupe - omogućujući razgraničeno razmatranje i “misliti unaprijed” ponašanja, gdje modeli istražuju više mogućih rješenja prije konvergencije na najboljem. Naravno, usvajanje ovih modela teških razmišljanja uvodi praktične razmatranja - prvenstveno troškove. Modeli s zatvorenim izvorom, kao što su OpenAI o3 i o4-mini, koji nude visoku kvalitetu razmatranja i snažne sposobnosti orkestracije. Open-source alternatives such as DeepSeek-R1, which provide transparent reasoning with more flexibility/ engineering effort for customization. Dok ne-misleći LLM-ovi (kao što je LLaMA 3) još uvijek mogu emulirati razmatranje putem CoT-a, pravi CoT ili ToT modeli inherentno izvode strukturirano razmatranje nativno. Korak 2: Tokovi rada s više izvora - Funkcija poziva agente Sastavljanje složenih problema u logičke korake samo je pola bitke.Sustav se mora koordinirati kroz različite specijalizirane alate - svaki djeluje kao "stručnik" - kako bi odgovorio na pod-pitanja, izvršio zadatke, prikupio podatke i unaprijedio svoje razumijevanje kroz iterativnu interakciju sa svojim okolišem. OpenAI introduced kao prvi korak u rješavanju ove situacije. funkcija poziva / alata dao LLMs svoju prvu stvarnu sposobnost da Umjesto jednostavnog predviđanja teksta, modelom pružate alat – na primjer, funkcije kao što su ili i model odlučuje koji će ga nazvati, kada ga nazvati i u kojem redoslijedu. Funkcija poziva Poduzmite akciju search_papers(), extract_table( ), Statistički podaci ( Funkcija poziva Task: “Compute the average reported accuracy for BERT fine-tuning.” A model using function calling might respond by executing a linear chain like this: search_papers("BERT fine-tuning accuracy") extract_table() for each paper calculate_statistics() to compute the mean Ovaj glupi primjer jednostavne deterministske cijevi u kojoj se LLM i skup alata orkestriraju kroz unaprijed definirane putove koda je jednostavan i učinkovit i često može poslužiti svrsi za razne slučajeve uporabe. i Ako je potrebno povećati složenost, jedan To bi moglo biti bolja opcija kada su fleksibilnost, bolja izvedba zadataka i donošenje odluka utemeljenih na modelu potrebni na razini (s kompromisom latencije i troškova). Linearno Neprilagođeni Agentički workflow Agentički workflow Iterativni agencijski tokovi rada su sustavi koji se ne izvode samo jednom, već . Like a human researcher, the model learns to recheck its steps, refine its queries, and reconcile conflicting data before drawing conclusions. razmišljati, revidirati i ponovno pokrenuti Razmislite o tome kao o dobro koordiniranom istraživačkom laboratoriju, gdje svaki član igra posebnu ulogu: Retrieval Agent: The information scout. It expands the initial query, runs both semantic and keyword searches across research papers, APIs, github repos, and structured datasets, ensuring that no relevant source is overlooked. To analizira PDF-ove, tablice i JSON izlaze, a zatim standardizira izvučene podatke - normalizira metriku, usklađuje jedinice i priprema čiste ulaze za analizu u daljnjem tijeku. Izvršava potrebne izračune, statističke testove i provjere dosljednosti kako bi kvantificirao trendove i provjerio da izvlačeni podaci imaju smisla. Validacijski agent: zaštitnik kvalitete. Identificira anomalije, nedostajuće stavke ili proturječna otkrića, a ako se nešto ne vidi, automatski pokreće ponovnu provedbu ili dodatne pretrage kako bi popunio praznine. Synthesis Agent: The integrator. It pulls together all verified insights and composes the final evidence-backed summary or report. Each one can request clarifications, rerun analyses, or trigger new searches when context is incomplete, essentially forming a self-correcting loop - an evolving dialogue among specialized reasoning systems that mirror how real research teams work. Da to prevedemo u konkretniji primjer kako bi ovi agensi ušli u igru za naše pitanje učinkovitosti transformatora: Initial Planning (Reasoning LLM): The orchestrator begins by breaking the task into sub-objectives discussed before. First Retrieval Loop: The Retrieval Agent executes the plan by gathering candidate materials — academic papers, MLPerf benchmark results, and open-source repositories related to transformer optimization. During this step, it detects that two benchmark results reference outdated datasets and flags them for review, prompting the orchestrator to mark those as lower confidence. Extraction & Computation Loop: Next, the Extraction Agent processes the retrieved documents, parsing FLOPs and latency metrics from tables and converting inconsistent units (e.g., TFLOPs vs GFLOPs) into a standardized format. The cleaned dataset is then passed to the Computation Agent, which calculates aggregated improvements across optimization techniques. Meanwhile, the Validation Agent identifies an anomaly - an unusually high accuracy score from one repository. It initiates a follow-up query and discovers the result was computed on a smaller test subset. This correction is fed back to the orchestrator, which dynamically revises the reasoning plan to account for the new context. Iterative Refinement: Following the Validation Agent’s discovery that the smaller test set introduced inconsistencies in the reported results - the Retrieval Agent initiates a secondary, targeted search to gather additional benchmark data and papers on quantization techniques. The goal is to fill missing entries, verify reported accuracy-loss trade-offs, and ensure comparable evaluation settings across sources. The Extraction and Computation Agents then process this newly retrieved data, recalculating averages and confidence intervals for all optimization methods. An optional Citation Agent could examine citation frequency and publication timelines to identify which techniques are gaining traction in recent research. Final Synthesis: Once all agents agree, the orchestrator compiles a verified, grounded summary like - “ ” Across 14 evaluated studies, structured pruning yields 40–60 % FLOPs reduction with < 2 % accuracy loss (Chen 2023; Liu 2024). Quantization maintains ≈ 99 % accuracy while reducing memory by 75 % (Park 2024). Efficient-attention techniques achieve linear-time scaling (Wang 2024) with only minor degradation on long-context tasks (Zhao 2024). Recent citation trends show a 3× rise in attention-based optimization research since 2023, suggesting a growing consensus toward hybrid pruning + linear-attention approaches. Ono što je moćno ovdje nije samo krajnji rezultat - to je . Proces Svaki agent doprinosi, izaziva i rafinira rad drugih dok ne dođe do stabilnog zaključka s više izvora. i MCP standardizira kako modeli i alati razmjenjuju strukturirane informacije - kao što su prikupljeni dokumenti, analizirane tablice ili izračunani rezultati - osiguravajući da svaki agent može razumjeti i izgraditi na rezultatima drugih. Dopunjujući to, A2A komunikacija omogućuje agentima da izravno koordiniraju jedni s drugima - dijeljenje međusobnih stanja razmatranja, traženje pojašnjenja ili pokretanje akcija praćenja bez intervencije. Model Context Protocol (MCP) Agencija za suradnju (A2A) Model Context Protocol (MCP) Agencija za suradnju (A2A) Step 3: Ensuring Groundedness and Reliability U ovoj fazi, sada imate agentički sustav koji je sposoban razbiti relativno složena i apstraktna istraživačka pitanja u logičke korake, prikupljanje podataka iz više izvora, izvođenje izračuna ili transformacija gdje je potrebno, i skupljanje rezultata u koherentan, sažetak podupiran dokazima. činjenice - predviđaju sljedeći najvjerojatniji žeton na temelju uzoraka u svojim podacima o obuci.To znači da je njihov ishod tekući i uvjerljiv, ali ne uvijek . While improved datasets and training objectives help, the real safeguard comes from adding mechanisms that can verify and correct what the model produces in real time. znati ispravno Here are a few techniques that make this possible: Filtriranje temeljeno na pravilima: Definiranje pravila ili uzoraka specifičnih za domenu koji uhvaćaju očite pogreške prije nego što dođu do korisnika.Na primjer, ako model isporuči nemoguću metru, polje podataka koje nedostaje ili ID dokumenta koji nije oblikovan, sustav ga može označiti i regenerirati. Cross-Verification: Automatically re-query trusted APIs, structured databases, or benchmarks to confirm key numbers and facts. If the model says “structured pruning reduces FLOPs by 50%,” the system cross-checks that against benchmark data before accepting it. Halucinirani detalji imaju tendenciju varirati između trka, dok stvarni rezultati ostaju stabilni - tako da model zadržava samo zaključke koji su u skladu s većinom. Together, these layers form the final safeguard - closing the reasoning loop. Every answer the system produces is not just well-structured but . verified And voilà - what began as a simple retrieval-based model has now evolved into a robust research assistant: one that not only answers basic Q&A but also tackles deep analytical questions by integrating multi-source data, executing computations, and producing grounded insights, all while actively defending against hallucination and misinformation. ResearchIt's journey mirrors the broader challenge facing every LLM application builder: moving from proof-of-concept to production-grade intelligence requires more than powerful models - it demands thoughtful architecture.