Every morning, millions of people open their phones to the same thing: a flood of headlines. Global politics, tech announcements, market swings, and local stories all compete for attention. Most of it isn’t relevant — but buried somewhere are the few stories that truly matter. O que você precisa são ferramentas bem projetadas com fundamentos fortes: sistemas que podem coletar informações, processá-las, enriquecê-las com estrutura e entregá-las de uma forma que se encaixa no seu contexto. Os agentes At its core, an agent is just a tool that connects a few dots. Think of simple functions that can make RPC/API calls, fetch data from a source, process it, and either pass it along to an LLM or hand it to other agents for more processing. No contexto de grandes modelos de linguagem, um agente geralmente: Percebe através de entradas como resultados de pesquisa, APIs ou instruções do usuário. Razões com a ajuda de um LLM, decidindo o que priorizar. Atua chamando ferramentas, executando código ou apresentando resultados. Se você já se preparou para uma entrevista de design de sistema, você saberá que o design de feed sempre aparece: o Facebook News Feed, a linha do tempo do Twitter ou (se você é uma criança dos anos 90) leitores de RSS. Este é o mesmo desafio, reimaginado para LLMs. O simples agente de notícias personalizado Imagine que você diga ao agente que você se importa com certas tags: Ele faz três coisas: A AI, a Apple e as histórias da Bay Area Tire as principais notícias da web. Filtre os resultados por palavras-chave. Resume-os em uma digestão rápida. Em um determinado dia, ele pode lhe dar: A Apple revelou um novo modelo de IA no dispositivo para os aplicativos Siri e iOS. Projeto de expansão ferroviária da Área da Baía garante financiamento. Os mercados estão frescos à medida que a demanda por chips de IA desacelera após o aumento do último trimestre. Isso já é útil.A fogueira é reduzida a uma lista gerenciável.Mas é plana.Você não sabe por que uma história importa, ou como ela se conecta com os outros. Introdução de múltiplos agentes Em vez de depender de um único agente monolítico que faça tudo de ponta a ponta, podemos dividir o fluxo de trabalho entre Este é o mesmo princípio de uma sala de imprensa: os repórteres coletam matéria-prima, os pesquisadores anotam, os analistas fornecem contexto e os editores embalam para os leitores. specialist agents Na nossa pipeline de notícias, isso parece assim: Fetcher Agent – recupera artigos de notícias completos de feeds ou APIs. Passage Extractor Agent – destaca as seções mais relevantes de cada artigo. Named Entity Extractor Agent – extrai pessoas, empresas, lugares e produtos mencionados. Entity Disambiguation Agent – garante que “Apple” é a Apple Inc., não o fruto. Entity Tagger Agent – atribui tags estruturados (por exemplo, Organização: Apple, Produto: iPhone). Agente de Classificação de Tópicos – identifica temas mais amplos, como IA, Finanças, Área da Baía. Sentiment & Stance Agent – determina se a cobertura é positiva, negativa ou neutra. Tag Summarizer Agent – fusiona entidades, tópicos e sentimentos em seções temáticas. Fact-Checker Agent – valida alegações contra fontes confiáveis. Agente de Personalização e Classificação – prioriza histórias que correspondem aos seus interesses e história. Digest Compiler Agent – reúne o digest polido em um formato amigável para o leitor. Daily Digest Agent – entrega o pacote final (para sua caixa de entrada, Slack ou aplicativo). Alguns desses agentes operam (por exemplo, a ambiguidade deve seguir a extração), enquanto outras podem ser executadas (Classificação de tópicos, análise de sentimentos e extração de entidades podem todos funcionar na mesma passagem ao mesmo tempo).O resultado é um canal coordenado de especialistas, produzindo um digesto muito mais rico e mais estruturado do que qualquer agente único poderia. sequentially in parallel O que entra e o que sai – interfaces de agentes A tabela abaixo resume o que cada agente esperaria e o que daria de volta.Também tentei mostrar onde os agentes podem interagir com os LLMs se precisarem de ajuda. Agent Inputs Outputs LLM Needed? Fetcher News feed URL, RSS, API query Full article text, metadata (title, URL, timestamp, source) ❌ No — HTTP/API call Passage Extractor Full article text Key passages, passage embeddings ✅ Optional — LLM for salience, or embeddings/TF-IDF Named Entity Extractor Passages Entity list, spans, embeddings ❌/✅ — NER models are faster, LLM can catch novel entities Entity Disambiguation Entity list, context embeddings Resolved entities with canonical IDs (e.g., Wikidata Q312) ✅ Yes — reasoning helps resolve ambiguous names Entity Tagger Disambiguated entities Entities with categories (Org, Person, Product, Location) ❌ No — deterministic classification Topic Classifier Passages, embeddings Topic labels (AI, Finance, Bay Area) ❌/✅ — embeddings + clustering or LLM for nuance Sentiment & Stance Analyzer Passages, entities Sentiment score, stance (supportive/critical/neutral) ✅ Optional — LLM for nuance, or sentiment models for speed Tag Summarizer Tagged entities, topics, sentiment Structured summaries grouped by tag ✅ Yes — summarization requires LLM Fact-Checker Summaries, claims Verified/Unverified claims, supporting references ✅ Yes — requires claim extraction + retrieval reasoning Personalization & Ranking Validated summaries, user profile Ranked/weighted story list ❌ No — ML heuristics suffice Digest Compiler Ranked summaries Final formatted digest (Markdown, HTML, JSON) ❌/✅ — deterministic formatting, LLM optional for tone Daily Digest Compiled digest Delivery package (email, Slack, app notification) ❌ No — just delivery Fetcher Feed de notícias URL, RSS, consulta de API Texto completo do artigo, metadados (título, URL, timestamp, fonte) Não – HTTP/API chamada Passage Extractor Texto do artigo completo Passagens chave, passagens embutidas ✅ Opcional — LLM para saliência, ou embeddings / TF-IDF Named Entity Extractor Passagens Lista de entidades, espaços, embeddings 🔸/✅ — Os modelos NER são mais rápidos, o LLM pode capturar novas entidades Entity Disambiguation Listas de Entidades, Embeddings de Contexto Entidades resolvidas com IDs canônicos (por exemplo, Wikidata Q312) ✅ Sim – raciocínio ajuda a resolver nomes ambíguos Entity Tagger Entidades ambíguas Entidades com categorias (Orgão, Pessoa, Produto, Localização) Não – Classificação Determinista Topic Classifier Passagens e embeddings Etiquetas de tópicos (AI, Finanças, Área da Baía) /✅ — embeddings + clustering ou LLM para nuances Sentiment & Stance Analyzer Passagens, Entidades Sentiment score, postura (suporte / crítico / neutro) ✅ Opcional — LLM para nuances, ou modelos de sentimentos para velocidade Tag Summarizer Tagged entidades, tópicos, sentimentos Resumos estruturados agrupados por tag ✅ Sim - resumo requer LLM Fact-Checker Resumos, reivindicações Declarações Verificadas/Não Verificadas, referências de apoio ✅ Sim – requer extração de reivindicação + raciocínio de recuperação Personalization & Ranking Resumos validados, perfil de usuário Classificação / História ponderada Não – ML heurística suficiente Digest Compiler Classificação de resumos Digest de formatação final (Markdown, HTML, JSON) /✅ — formatação determinista, LLM opcional para o tom Daily Digest Composição Digest Pacote de entrega (email, Slack, notificação do aplicativo) Não - apenas entrega Alguns agentes exigem raciocínio LLM, outros são leves e deterministas. Esta divisão importa: para a produção, você vai querer o menor número possível de chamadas LLM (para economizar custos e latência), reservando-os para tarefas pesadas de raciocínio, como desambiguação, resumo e verificação de fatos. Exemplo: Terremoto na região da Baía Vamos executar um artigo real através do nosso pipeline. Title: Terremoto de magnitude 3,2 atingiu a cidade de Pleasanton Terremoto de magnitude 3,2 atingiu a cidade de Pleasanton CBS Bay Area, 7 de setembro de 2025 Source: Snippet: “Um terremoto de magnitude 3,2 atingiu perto de Pleasanton no domingo de manhã, de acordo com o United States Geological Survey. O terremoto atingiu pouco depois das 10 da manhã, cerca de 3 milhas ao norte de Pleasanton. Cada uma das responsabilidades dos agentes é resumida abaixo: Fetcher Agent: puxa o texto do artigo. Passage Extractor: destaca a magnitude do terremoto, o momento, a localização e o tremor. Entity Extractor: identifica Pleasanton, USGS, East Bay. Entity Disambiguation: resolve para Pleasanton, CA, e o United States Geological Survey. Entity Tagger: classifica Pleasanton → Localização; USGS → Organização. Classificador de tópicos: tags como Desastre Natural, Notícias locais, Seismologia. Sentiment & Stance: Neutro e informativo. Tag Summarizer: : “A 3.2-magnitude quake hit Pleasanton; residents felt weak shaking.” Local News : “USGS confirmed the quake’s magnitude; no damage reported.” Natural Disaster Fact-Checker: confirma a magnitude através do USGS e relatórios de agitação através do Patch. Personalização e Classificação: enfatiza Notícias Locais (perfil de usuário ponderado para a Área da Baía). Digest Compiler + Delivery: envia um e-mail com o tópico “Atualização da Área da Baía – Alerta de Terremoto”. O que começou como um título bruto tornou-se um digest estruturado, classificado e verificado. Além das notícias: Generalizando para outros alimentos O que é poderoso sobre este pipeline de agentes é que nada nele está ligado apenas às notícias. . framework for taking any content feed → extracting structure → producing a personalized digest Vamos dar outro exemplo: . arXiv papers Todos os dias, centenas de artigos de pesquisa caem em categorias como Machine Learning, Computer Vision ou Quantum Computing.Para um pesquisador, o desafio é o mesmo que as notícias: muito volume, muito pouco tempo e apenas alguns artigos são verdadeiramente relevantes. Como os mesmos agentes aplicam Fetcher Agent Input: arXiv RSS feed ou consulta de API. Output: metadados de papel (título, autores, resumo, categoria). Passage Extractor Agent Introdução: Texto abstrato Output: Palavras-chave (a declaração do problema, o método, o resultado) Named Entity Extractor Agent Introdução ao abstrato. Output: Entidades como “transformador”, “aprendizagem federada”, “TPU v5e”. Entity Disambiguation Agent Introdução: Entidades + contexto. Saída: Links para IDs canônicos (por exemplo, códigos de assunto arXiv, entradas da Wikipédia). Entity Tagger Agent Input: Entidades resolvidas . Output: Categorias: Algoritmo, Dataset, Hardware e Domínio. Topic Classifier Agent Introdução: Abstract embeddings Output: Tags como {Deep Learning, Reinforcement Learning, Distributed Systems}. Sentiment & Stance Agent Introdução ao abstrato. Resultado: “Resultado positivo” (modelo bate SOTA em 2%), “Critical” (papel refuta a alegação anterior). Tag Summarizer Agent Introdução: Entidades + Tópicos. Output: : “New optimizer reduces GPU communication overhead by 30%.” Distributed Training : “Transformer variant improves long-context understanding.” NLP Fact-Checker Agent Introdução: reivindicações em abstracto. Resultado: Validação básica contra referências citadas, artigos anteriores arXiv. Personalization & Ranking Agent Input: Resumos + Perfil do usuário. Output: Lista ponderada — por exemplo, ML (0.9), Sistemas (0.7), Teoria (0.2). Digest Compiler Agent Output: Um “Research Digest” diário agrupado por tópicos que lhe interessam. Daily Digest Agent Saída: Mensagem de e-mail / Slack intitulada “Suas Atualizações de Pesquisa – 7 de Setembro de 2025”. Exemplo de saída Machine Learning “Um novo otimizador para treinamento distribuído reduz a superfície de comunicação da GPU em 30%.” “A variante do transformador melhora a compreensão do contexto de longo prazo.” Systems “A nova abordagem de checkpointing para cargas de trabalho TPU melhora a confiabilidade.” Theory "O papel refuta os limites anteriores sobre a recuperação escassa em configurações de alta dimensão." O princípio geral Seja o que for: Artigos de notícias (política, finanças, atualizações locais da área da baía), Publicações acadêmicas (arXiv, PubMed) Relatórios internos da empresa (logs, painéis de métricas), O mesmo . agent pipeline applies Você está sempre fazendo: Conteúdo do Fetch. Extração de passagens. Identificar as entidades, desambigüizá-las. Tag e classificar. Resumo e verificação de factos. Classificação baseada no perfil do usuário. Entrega como digestão. Esse é o , e os agentes são uma maneira natural de implementá-lo. feed-to-digest pattern MCP: o protocolo que permite que os agentes falem Quando você encadeia vários agentes juntos, surgem dois grandes desafios: — How does the Passage Extractor know how to hand results to the Entity Disambiguation Agent? Inter-agent communication — How do agents fetch data from APIs (like arXiv, USGS, or RSS feeds) without each agent reinventing its own protocol? External integrations Aqui é onde Vem para dentro. MCP (Model Context Protocol) O que é o MCP? Pense no MCP como o . USB standard for AI agents Define interfaces para ferramentas e serviços. Ele especifica como os agentes passam contexto (inputs, outputs, metadados). Permite interoperabilidade – o que significa que você pode trocar um agente por outro sem quebrar o gasoduto. Com o MCP, o Passage Extractor não precisa “conhecer” os detalhes de implementação do Entity Tagger. Ele simplesmente envia dados estruturados (texto + embeddings + tags) em um formato que o MCP entende. Comunicação Interna Dentro do nosso canal: O Fetcher Agent produz {title, body, url, timestamp} no formato MCP. Passage Extractor toma {body} e retorna {passages, embeddings}. O nomeado Extractor de Entidades consome {passagens} e produz {entidades}. Entity Disambiguation consome {entities, context} e produz {entity_id}. Cada agente fala a mesma “língua” graças ao MCP. Comunicação Externa O MCP também funciona para fora. Por exemplo: O Fetcher Agent usa o MCP para chamar uma API arXiv ou um feed RSS. O Fact-Checker Agent usa o MCP para consultar a Wikipédia ou um banco de dados de notícias. O agente do Daily Digest usa o MCP para entregar resultados por e-mail ou Slack. A vantagem é que os agentes podem se integrar com Enquanto essa ferramenta fala MCP, é como conectar qualquer dispositivo USB ao seu laptop. any external tool Por que isso importa Sem o MCP, todos os agentes precisariam de adaptadores personalizados – um quebra-cabeça de integrações únicas. Contratos padronizados → a entrada/saída de cada agente é previsível. Arquitetura Plug-and-Play → você pode substituir o Agente de Sentiment por um melhor amanhã. Escalabilidade → dezenas de agentes podem coordenar sem código de spaghetti. Em outras palavras, MCP é o que transforma uma coleção de scripts em . modular, extensible agent platform Fechando pensamentos A jornada de um feed plano, baseado em palavras-chave → para uma sala de notícias de agentes → para uma plataforma de digestão generalizada reflete como o software evolui: de scripts a sistemas a ecossistemas. Notícias hoje, arXiv amanhã, logs e dashboards no dia seguinte. E com o MCP fornecendo a cola, esses agentes deixam de ser hacks isolados e começam a trabalhar como parte de um sistema maior e interoperável. feed-to-digest, powered by agents. Não fique preso no hype de "IA agente" - escreva ferramentas melhores com fundamentos fortes e aproveite os LLMs onde eles adicionam valor: para refinar, resumir e repetir. Na próxima parte, eu vou mergulhar em como você pode implementar os sistemas multi-agente com o MCP.