Ние ги градиме системите погрешно. Не малку погрешно, фундаментално, структурно, катастрофално погрешно. Моделот е секогаш ист. Еден тим ја открива магијата на Големиот јазик Модел. Тие го обвиваат во Python скрипт. Тие му даваат пристап до базата на податоци, API порталот и дневниците за поддршка на клиентите. Тие фрлаат три гигабајти на документација во прозорецот на контекст, бидејќи "1 милион токени" звучи како бесконечно складирање. Тие го нарекуваат „агент“. Во реалноста, тие изградија Бог Агент, монолитен, свесен, недиференциран блок на логика кој се обидува да биде CEO, janitor и администратор на базата на податоци во исто време. И тоа пропаѓа. Тоа халуцинации. Станува збунето. Тоа чини богатство во употреба на токени. Латентноста се зголемува додека корисничкото искуство не се чувствува како чекање за повик-уп конекција во 1999 година. Кога се скрши (и секогаш се скрши) инженерите не можат да го дебитираат, бидејќи логиката не е во кодот. Минатата година ги раздвоив овие системи.Решението не е подобра инстант.Не е поголем модел.Решението е архитектурата. Комплетна техничка анализа со код и бенчмаркови → Комплетна техничка анализа со код и бенчмаркови → Зошто третираме 1 милион токени како бесконечна RAM? The current orthodoxy in AI development is seduced by the "Context Window Myth." Ние сме биле продадени лага. Лагата е дека ако дадете на модел доволно контекст, тоа може да го реши секој проблем. Продавачите го притискаат "бесконечниот контекст" како конечна карактеристика. 128k. 1 милион. 2 милиони токени. Импликацијата е заводлива. Не грижете се за архитектурата. Не грижете се за обработката на податоците. Само фрлете го сето тоа во. Моделот ќе го дознае. Ова доведе до растот на парадигмата на Бог агент. Во овој поглед на светот, "Агентот" е единствен ентитет. Тој ја држи целата состојба на апликацијата. Тој има пристап до секоја алатка во библиотеката. Кога корисникот поставува прашање, Бог Агентот го прима прашањето, го гледа нејзиниот масивен контекст (кој ја содржи целата историја на универзумот) и се обидува да го размисли својот пат кон одговор. Изгледа како научна фантастика сон на уникатна, свесна АИ. Но, во производството, ова е кошмар. Ние ефективно бараме од младинскиот програмер да ја запамети целата кодова база, прирачникот на компанијата и правните архиви, а потоа да ги замоли да ја поправат CSS грешката за 30 секунди. Тие нема да ја поправат грешката.Ќе имаат напад на паника. Зошто мојот агент чини 50 долари за да каже „Не знам“? Пукнатините во архитектурата на Бог агент се видливи за секој кој го турка кодот во производството. Колку повеќе информации обезбедувате, толку помалку внимание моделот им посветува на критичните битови. Ова не е само чувство. Тоа е архитектонски недостаток. Истражувањата покажуваат дека моделите се борат да ги преземат информациите од средината на долгите контексти. Со неуспехот да ги курираме, активно го оштетуваме перформансите. Ние создаваме системи каде што "бучавата" на ирелевантната документација го надвладува "сигналот" на специфичната намера на корисникот. 1. Context Pollution (The Needle in the Haystack) Секој токен чини пари. Секој токен зема време да се обработи. Бог агент кој повторно чита 50k токен контекст за секој круг на разговор е согорувањето на пари. Тоа е компјутерски губење. Ние работиме суперкомпјутер за да одговориме "да" или "не" затоа што не се грижевме да ги филтрираме влезните. 2. Latency and Cost Кога Бог Агент не успеа, зошто не успеа? Дали тоа беше повикот? Чекорот за пребарување? Извозот на алатката? Или само се одвлече од ирелевантен дел од текстот од страница 405 од документацијата? Не можете да го тестирате еден повик кој го менува своето однесување врз основа на променливата супа на масивен контекст. 3. The Debugging Black Hole Еден агент со пристап до сè е безбедносна кошмар. Ако брзата инјекција работи, напаѓачот го поседува замокот. Не постојат масовни глави. Не постои "нулта доверба" бидејќи архитектурата се потпира на максимална доверба во веројатност модел. 4. The Governance Void Дали решението е само микро-услуги (повторно)? Yes. It is. Патот напред е и на . Aggressive Context Curation Agentic Mesh Ние мора да го замениме со мрежа на мали, специјализирани, високо ограничени агенти кои комуницираат преку стандардизирани протоколи. Во мрежата архитектура, ниту еден агент не знае сè. Агентот за рутер знае како да ја класифицира намерата. Агентот за поддршка ја знае политиката за враќање. Кодирањето агент знае Python. SQL агентот го знае шемата на базата на податоци. Тие не споделуваат контекст прозорец, тие споделуваат пораки. Ова е премин од монолит на микро-услуги. Тоа е единствениот начин да се скали сложеноста. Кога агентот за поддршка работи, не треба да го знае шемата на базата на податоци. Не му се потребни библиотеките на Python. Неговиот контекст е неискористен. Тој е куриран. Да ги разгледаме разликите во структурата на кодот. Стариот пат: Бог веднаш Тоа е она што повеќето луѓе го пишуваат денес. # GOD AGENT - ANTI-PATTERN # We dump everything into one system prompt. system_prompt = """ You are an omniscient AI assistant for Acme Corp. You have access to: 1. The User Database (Schema: users, orders, items...) 2. The Codebase (Python, React, TypeScript...) 3. The Company Handbook (HR policies, returns, holidays...) 4. The Marketing Style Guide Instructions: - If the user asks about SQL, write a query. - If the user asks for a refund, check the handbook policy then query the DB. - If the user asks for code, write Python. Current Context: {entire_rag_retrieval_dump} {last_50_messages} """ # Result: The model gets confused. # It tries to apply HR policies to SQL queries. # It hallucinates tables that don't exist. Питон Новиот пат: Агентската мрежа Тука ја делиме логиката. рутерот не ја врши работата. # MESH ARCHITECTURE - PATTERN # Step 1: The Router Agent # Its only job is to classify and route. It has NO domain knowledge. router_prompt = """ You are a routing system. Analyze the user input and route to the correct agent. Available Agents: 1. billing_agent (Refunds, invoices, payments) 2. tech_support_agent (Python, SQL, Bug fixes) 3. general_chat_agent (Casual conversation) Output JSON only: {"target_agent": "name", "reasoning": "string"} """ # Step 2: The Specialist Agent (Billing) # This agent loads ONLY when called. # It has zero knowledge of Python or SQL. billing_agent_prompt = """ You are a Billing Specialist. You handle refunds and invoices. Tools available: [stripe_api, invoice_db] Context: {user_transaction_history_only} {refund_policy_summary} """ Питон Гледате ли ја разликата? Не може да го халуцинира SQL синтаксот затоа што не знае што е SQL. Неговиот универзум е мал. billing_agent Како агентите навистина зборуваат без халуцинации? I have been skeptical of big tech frameworks. They usually add bloat. I like raw code. Но, Google’s Agent Development Kit (ADK) и протоколот Agent-to-Agent (A2A) се различни. Google сфати дека ако сакаме агентите да работат, тие треба да разговараат едни со други како софтвер, а не како чат ботови. Протокол А2А Ова е промената на играта. Протоколот A2A е провајдер-неутрален стандард за агентите да откријат и да разговараат едни со други. Тој користи "Агентски картички". Овие се стандардизирани JSON метаподатоци кои опишуваат што може да направи агент. Think of it like this: { "agent_id": "billing_specialist_v1", "capabilities": ["process_refund", "check_invoice_status"], "input_schema": { "type": "object", "properties": { "transaction_id": {"type": "string"}, "user_intent": {"type": "string"} } }, "output_schema": { "type": "object", "properties": { "status": {"type": "string", "enum": ["success", "failed"]}, "refund_amount": {"type": "number"} } } } Џон Кога агент за рутер треба да обработи надомест, тој не се обидува да го халуцинира повикот на API. , држи рацете преку A2A, го поминува структурираното корисно оптоварување и чека за структуриран одговор. billing_specialist Тоа е стандардизација.Ова ни овозможува да се изгради каде што агенти од различни тимови, па дури и различни компании, можат да соработуваат. Agentic Mesh Ова го решава проблемот со „изолираните острови“. Во моментов, агентот на OpenAI не може да разговара со агент на Vertex AI. Со A2A, тие споделуваат протокол. Што всушност значи Усвојувањето на мрежата архитектура го менува сето тоа за тоа како ние градиме. Не можете да ги сфатите дневниците на веројатната мрежа. Традиционалната набљудуваност (логови, метрики, траги) е недоволна. Треба да го видиме Зошто рутерот му го даде на агентот за фактурирање? Зошто агентот за фактурирање го одби барањето? Треба да ги следиме трошоците и латентноста по јазол во мрежата. 1. Observability is Mandatory Agentic Observability Разумирање на синџирот Во моделот на Бог агент, безбедноста е бинарни прекинувач. Агентот за фактурирање имплицитно не му верува на агентот за рутер. Тој го проверува корисното оптоварување. Тој ја проверува политиката. Тој го ограничува радиусот на експлозија. 2. Zero Trust Security Zero Trust Брзото инженерство како самостојна дисциплина умира. Повикот е само конфигурација на функцијата.Реалната работа е во логиката на рутирање, дефиницијата на шемата и контекстната стратегија на курација. 3. The End of "Prompt Engineering" System Engineering Мораме да станеме немилосрдни уредници. Целта не е да се пополни прозорецот на контекст. Целта е да се испразни. Потребно е да се компресира. Потребно е да се сумира. Потребно е да се инјектира само она што е потребно за следниот непосреден чекор. Ако агентот е задолжен за пишување SQL, му е потребна шема. Потребна е изјава за мисија на компанијата. 4. Aggressive Context Curation Не (Звучи очигледно, но го гледам тоа игнорирано во 90% од кодовите.) Прочитајте го целосниот технички дефект → Прочитајте го целосниот технички дефект → TL;DR за Scrollers Бог агенти не успеваат: Наметнување на контекст прозорецот доведува до конфузија, високи трошоци, и невозможно дебугирање. Раздвојување на грижите: Изградете специјализирани агенти (Билдинг, SQL, Чет) кои добро го прават едно нешто. Користење на протоколи: Агентите треба да комуницираат преку