Cada mañana, millones de personas abren sus teléfonos a la misma cosa: una inundación de títulos.Política global, anuncios tecnológicos, fluctuaciones del mercado y historias locales compiten por la atención.La mayoría de ellas no son relevantes, pero enterradas en algún lugar son las pocas historias que realmente importan. Lo que necesita son herramientas bien diseñadas con sólidos fundamentos: sistemas que pueden recoger información, procesarla, enriquecerla con estructura, y entregarla de una manera que se ajuste a su contexto. Los agentes En su núcleo, un agente es sólo una herramienta que conecta unos pocos puntos.Piense en funciones simples que pueden hacer llamadas RPC / API, recuperar datos de una fuente, procesarlo y o bien pasarlo a un LLM o entregarlo a otros agentes para más procesamiento. En el contexto de los grandes modelos de lenguaje, un agente suele: Percibe a través de entradas como resultados de búsqueda, APIs o instrucciones de usuario. Razones con la ayuda de un LLM, decidiendo qué priorizar. by calling tools, running code, or presenting results. Acts Si alguna vez se ha preparado para una entrevista de diseño de sistema, sabrá que el diseño de feed siempre aparece: el Feed de Noticias de Facebook, la línea de tiempo de Twitter, o (si eres un niño de los 90) lectores de RSS. Este es el mismo desafío, reimaginado para los LLM. El agente de noticias personalizado Imaginemos que dices al agente que te importan ciertas etiquetas: Él hace tres cosas: AI, Apple y las historias de Bay Area Descarga las principales noticias de la web. Filtra los resultados por las palabras clave. Resumirlos en un rápido digesto. En un día determinado, puede darte: Apple presenta un nuevo modelo de IA en el dispositivo para las aplicaciones de Siri y iOS El proyecto de expansión del ferrocarril de la zona de la bahía asegura financiamiento. Los mercados se enfrían a medida que la demanda de chips de IA desacelera después de la subida del último trimestre. This is already helpful. The firehose is reduced to a manageable list. But it’s flat. You don’t know why a story matters, or how it connects to others. Introducción de múltiples agentes En lugar de confiar en un agente monolítico que hace todo de extremo a extremo, podemos dividir el flujo de trabajo entre Este es el mismo principio que una sala de noticias: los periodistas recogen materia prima, los investigadores la anotan, los analistas proporcionan el contexto y los editores la empacan para los lectores. specialist agents En nuestro canal de noticias, parece así: Fetcher Agent — recupera los artículos de noticias completos de los feeds o las API. Agente de extractor de paso: destaca las secciones más relevantes de cada artículo. Agente de extractor de entidad nombrado - extrae a las personas, empresas, lugares y productos mencionados. Agente de desambiguación de entidades: asegura que “Apple” es Apple Inc., no el fruto. Agente de etiquetado de entidades: asigna etiquetas estructuradas (por ejemplo, Organización: Apple, Producto: iPhone). Agente de clasificación de temas - identifica temas más amplios como AI, Finanzas, Área de la bahía. Sentiment & Stance Agent - determina si la cobertura es positiva, negativa o neutral. Agente de resumen de etiquetas: fusiona entidades, temas y sentimientos en secciones temáticas. Fact-Checker Agent – valida las reclamaciones contra fuentes de confianza. Personalización y agente de clasificación: prioriza historias que coincidan con sus intereses e historias. Digest Compiler Agent — reúne el digesto pulido en un formato amigable para el lector. Daily Digest Agent – entrega el paquete final (a su buzón de entrada, Slack o aplicación). Algunos de estos agentes operan (por ejemplo, la desambigüedad debe seguir la extracción), mientras que otros pueden (Clasificación temática, análisis de sentimientos y extracción de entidades pueden trabajar en el mismo paso a la vez).El resultado es una tubería coordinada de especialistas, produciendo un digesto mucho más rico y estructurado que cualquier agente único podría. sequentially in parallel Lo que entra y lo que sale - Interfaces de agentes La tabla a continuación resume lo que cada agente esperaría y lo que daría de vuelta. también intenté mostrar dónde los agentes podrían interactuar con los LLM si necesitan ayuda. Agent Inputs Outputs LLM Needed? Fetcher News feed URL, RSS, API query Full article text, metadata (title, URL, timestamp, source) ❌ No — HTTP/API call Passage Extractor Full article text Key passages, passage embeddings ✅ Optional — LLM for salience, or embeddings/TF-IDF Named Entity Extractor Passages Entity list, spans, embeddings ❌/✅ — NER models are faster, LLM can catch novel entities Entity Disambiguation Entity list, context embeddings Resolved entities with canonical IDs (e.g., Wikidata Q312) ✅ Yes — reasoning helps resolve ambiguous names Entity Tagger Disambiguated entities Entities with categories (Org, Person, Product, Location) ❌ No — deterministic classification Topic Classifier Passages, embeddings Topic labels (AI, Finance, Bay Area) ❌/✅ — embeddings + clustering or LLM for nuance Sentiment & Stance Analyzer Passages, entities Sentiment score, stance (supportive/critical/neutral) ✅ Optional — LLM for nuance, or sentiment models for speed Tag Summarizer Tagged entities, topics, sentiment Structured summaries grouped by tag ✅ Yes — summarization requires LLM Fact-Checker Summaries, claims Verified/Unverified claims, supporting references ✅ Yes — requires claim extraction + retrieval reasoning Personalization & Ranking Validated summaries, user profile Ranked/weighted story list ❌ No — ML heuristics suffice Digest Compiler Ranked summaries Final formatted digest (Markdown, HTML, JSON) ❌/✅ — deterministic formatting, LLM optional for tone Daily Digest Compiled digest Delivery package (email, Slack, app notification) ❌ No — just delivery Fetcher Feed de noticias URL, RSS, consulta de API Texto completo del artículo, metadatos (título, URL, timestamp, fuente) No - HTTP / API llamadas Passage Extractor Texto del artículo completo Pasos clave, entradas de paso ✅ Opcional — LLM para saliencia, o embeddings / TF-IDF Named Entity Extractor Pasajes Lista de entidades, espacios, embeddings ❌/✅ — Los modelos NER son más rápidos, el LLM puede atrapar nuevas entidades Entity Disambiguation Listado de entidades, embeddings de contexto Entidades resueltas con ID canónicos (por ejemplo, Wikidata Q312) ✅ Sí – el razonamiento ayuda a resolver los nombres ambiguos Entity Tagger Entidades ambiguas Entidades con categorías (Orgán, Persona, Producto, Lugar) No - Clasificación determinista Topic Classifier Pasajes, Enlaces Etiquetas de temas (AI, Finanzas, Área de la Bahía) ❌/✅ — embeddings + clustering o LLM para matices Sentiment & Stance Analyzer Páginas, Entidades Puntuación de sentimientos, postura (apoyante/crítico/neutral) ✅ Opcional — LLM para el matiz, o modelos de sentimientos para la velocidad Tag Summarizer Etiquetado entidades, temas, sentimientos Resumen estructurado agrupado por tag ✅ Sí - el resumen requiere LLM Fact-Checker Resumen, reivindicaciones Declaraciones verificadas / no verificadas, referencias de apoyo ✅ Sí - requiere extracción de reclamaciones + razonamiento de recuperación Personalization & Ranking Resúmenes validados, perfil de usuario Lista de historias clasificadas / ponderadas ☑ No — ML heurística suficiente Digest Compiler Síntomas resumidos Digesto de formato final (Markdown, HTML, JSON) /✅ — formatación determinista, LLM opcional para el tono Daily Digest Composición Digestiva Paquete de entrega (email, Slack, notificación de la aplicación) No, sólo entrega Algunos agentes requieren el razonamiento de LLM, otros son ligeros y deterministas. Esta división es importante: para la producción, usted querrá las llamadas de LLM tan pocas como sea posible (para ahorrar costo y latencia), reservándolas para tareas pesadas de razonamiento como la desambigüedad, la resumida y la verificación de hechos. Un ejemplo concreto: Terremoto en la zona de la bahía Vamos a realizar un artículo real a través de nuestra tubería.La historia: Title: Terremoto de magnitud 3,2 en las cercanías de Pleasanton Terremoto de magnitud 3,2 en las cercanías de Pleasanton CBS Bay Area, 7 de septiembre de 2025 Source: Snippet: “Un terremoto de magnitud 3,2 golpeó cerca de Pleasanton el domingo por la mañana, según el Servicio Geológico de Estados Unidos. El terremoto se produjo justo después de las 10 de la mañana, a unos 3 millas al norte de Pleasanton. Las responsabilidades de cada uno de los agentes se resumen a continuación: Fetcher Agent: saca el texto del artículo. Extractor de paso: destaca la magnitud del terremoto, el momento, la ubicación y el temblor. Extractor de entidad: identifica Pleasanton, USGS, East Bay. Entity Disambiguation: resuelve a Pleasanton, CA, y la Encuesta Geológica de los Estados Unidos. Etiquetador de entidades: clasifica Pleasanton → Ubicación; USGS → Organización. Clasificador de temas: etiquetas como Desastre Natural, Noticias Locales, Seismología. Sentimiento y actitud: neutral, informativo. Tag Summarizer: : “A 3.2-magnitude quake hit Pleasanton; residents felt weak shaking.” Local News : “USGS confirmed the quake’s magnitude; no damage reported.” Natural Disaster Fact-Checker: confirma la magnitud a través de USGS y los informes de agitación a través de Patch. Personalización y clasificación: hace hincapié en las noticias locales (perfil de usuario ponderado con la Área de la Bahía). Digest Compiler + Delivery: envía un correo electrónico con el tema “Your Bay Area Update – Earthquake Alert”. Lo que comenzó como un título crudo se convirtió en un digesto estructurado, clasificado y verificado. Más allá de las noticias: generalizar a otros alimentos Lo poderoso de esta tubería de agentes es que nada en ella está vinculado sólo a las noticias. . framework for taking any content feed → extracting structure → producing a personalized digest Tomemos otro ejemplo: . arXiv papers Cada día, cientos de artículos de investigación caen en categorías como Machine Learning, Computer Vision o Quantum Computing.Para un investigador, el desafío es el mismo que las noticias: demasiado volumen, demasiado poco tiempo, y sólo unos pocos artículos son verdaderamente relevantes. Cómo funcionan los mismos agentes Fetcher Agent Ingreso: arXiv RSS feed o consulta de API. Resultado: metadatos de papel (título, autores, abstracto, categoría). Passage Extractor Agent Introducción: Texto abstracto. Salida: frases clave (declaración de problema, método, resultado). Named Entity Extractor Agent Introducción al abstracto. Producción: Entidades como “transformador”, “aprendizaje federado”, “TPU v5e”. Entity Disambiguation Agent Entradas: Entidades + Contexto. Salida: Enlaces a ID canónicos (por ejemplo, códigos de tema arXiv, entradas de Wikipedia). Entity Tagger Agent Input: Entidades resueltas. Producción: Categorías: Algoritmo, Dataset, Hardware, Dominio. Topic Classifier Agent Introducción: Enlaces abstractos. Producción: Etiquetas como {Deep Learning, Reinforcement Learning, Distributed Systems}. Sentiment & Stance Agent Introducción al abstracto. Resultado: “Resultado positivo” (el modelo vence a SOTA en un 2%), “Crítico” (el papel refuta la afirmación previa). Tag Summarizer Agent Introducción: Entidades + temas. Output: : “New optimizer reduces GPU communication overhead by 30%.” Distributed Training : “Transformer variant improves long-context understanding.” NLP Fact-Checker Agent Introducción: Reclamaciones en abstracto. Resultados: Validación básica contra los índices de referencia citados, documentos anteriores arXiv. Personalization & Ranking Agent Ingreso: Resumen + Perfil de usuario. Salida: Lista ponderada — por ejemplo, ML (0.9), Sistemas (0.7), Teoría (0.2). Digest Compiler Agent Producción: Un diario “Research Digest” agrupado por temas que te interesan. Daily Digest Agent Salida: Mensaje de correo electrónico / Slack titulado “Su actualizaciones de investigación – 7 de septiembre de 2025”. Ejemplo de producción Machine Learning “Un nuevo optimizador para la capacitación distribuida reduce el nivel de comunicación de la GPU en un 30%”. “La variante de transformador mejora la comprensión de los contextos a largo plazo”. Systems “El nuevo enfoque de verificación para las cargas de trabajo de TPU mejora la fiabilidad”. Theory "El papel refuta los límites previos sobre la recuperación escasa en configuraciones de alta dimensión". El principio general Ya sea que sea: Artículos de noticias (política, finanzas, actualizaciones locales de Bay Area), Documentación académica (arXiv, PubMed) informes internos de la empresa (logs, dashboards de métricas), ...el mismo . agent pipeline applies Siempre estás haciendo: El contenido de Fetch. Extracción de pasajes. Identificar entidades, desambiguarlas. Tag y clasificar. Resumen y comprobación de hechos. Ranking basado en el perfil de usuario. Entrega como digesto. Eso es el , y los agentes son una forma natural de implementarlo. feed-to-digest pattern MCP: el protocolo que permite a los agentes hablar Cuando se lanzan varios agentes juntos, surgen dos grandes desafíos: — How does the Passage Extractor know how to hand results to the Entity Disambiguation Agent? Inter-agent communication — How do agents fetch data from APIs (like arXiv, USGS, or RSS feeds) without each agent reinventing its own protocol? External integrations Aquí es donde que entra. MCP (Model Context Protocol) ¿Qué es el MCP? Piensa en el MCP como el . USB standard for AI agents Define interfaces para herramientas y servicios. Especifica cómo los agentes pasan el contexto (inputs, outputs, metadata). Permite la interoperabilidad, lo que significa que puede intercambiar un agente por otro sin romper la tubería. Con MCP, el Passage Extractor no necesita “conocer” los detalles de implementación del Entity Tagger. Simplemente envía datos estructurados (text + embeddings + tags) en un formato que MCP entiende. Comunicación interna En el interior de la tubería: Fetcher Agent saca {title, body, url, timestamp} en formato MCP. Passage Extractor toma {body} y retorna {passages, embeddings}. El extractor de entidad nombrado consume {pasajes} y produce {entidades}. Entity Disambiguation consume {entities, context} y produce {entity_id}. Cada agente habla el mismo “lenguaje” gracias a MCP. Comunicación Externa MCP también funciona hacia afuera. Por ejemplo: The uses MCP to call an arXiv API or an RSS feed. Fetcher Agent El Agent Fact-Checker utiliza MCP para consultar Wikipedia o una base de datos de noticias. El agente Daily Digest utiliza MCP para entregar resultados a través de correo electrónico o Slack. La ventaja es que los agentes pueden integrarse con siempre que esa herramienta hable MCP, al igual que conectar cualquier dispositivo USB a su portátil. any external tool ¿Por qué esto importa Sin MCP, cada agente necesitaría adaptadores personalizados, un desorden de integraciones únicas. Los contratos estándar → la entrada / salida de cada agente es previsible. Plug-and-play arquitectura → puede reemplazar el agente de sentimientos por un mejor mañana. Escalabilidad → decenas de agentes pueden coordinar sin código de spaghetti. En otras palabras, MCP es lo que convierte una colección de scripts en una . modular, extensible agent platform Cierre de pensamientos El viaje de una fuente plana basada en palabras clave → a una sala de noticias de agentes → a una plataforma de digestión generalizada refleja cómo evoluciona el software: de scripts a sistemas a ecosistemas. Noticias hoy, arXiv mañana, registros y dashboards al día siguiente. Y con el MCP que proporciona la cola, estos agentes dejan de ser hacks aislados y comienzan a trabajar como parte de un sistema más grande e interoperable. feed-to-digest, powered by agents. No te quedes atrapado en el hype de "IA agente" - escriba mejores herramientas con sólidos fundamentos, y aproveche los LLM donde añaden valor: para refinar, resumir e iterar. En la siguiente parte, me adentraré en cómo puedes implementar los sistemas multi-agentes con MCP.