매일 아침, 수백만 명의 사람들이 똑같은 것에 휴대폰을 열고 있습니다 : 헤드 라인 홍수. 글로벌 정치, 기술 발표, 시장 변동 및 지역 스토리 모두 관심을 위해 경쟁합니다. 당신이 필요로하는 것은 강력한 기초를 가진 잘 설계된 도구입니다 : 정보를 수집하고, 처리하고, 구조로 풍부하게하고, 당신의 맥락에 맞는 방식으로 제공 할 수있는 시스템입니다. 에이전트는 에이전트는 단지 몇 개의 지점을 연결하는 도구일 뿐이며, RPC/API 호출을 수행하고, 원본에서 데이터를 가져오고, 처리하고, LLM에 전달하거나, 더 많은 처리를 위해 다른 에이전트에게 전달할 수 있는 간단한 기능을 생각해 보십시오. 대형 언어 모델의 맥락에서, 에이전트는 일반적으로 : 검색 결과, API 또는 사용자 지침과 같은 입력을 통해 인식합니다.Percepts through inputs like search results, APIs, or user instructions. LLM의 도움으로 무엇을 우선시해야하는지 결정하는 이유. 도구를 호출하거나 코드를 실행하거나 결과를 발표함으로써 행동합니다.Acts by calling tools, running code, or presenting results. 당신이 시스템 디자인 인터뷰를 준비 한 적이 있다면, 당신은 페이스북 뉴스 피드, 트위터 타임 라인, 또는 (당신이 90 년대 소년이라면) RSS 리더가 항상 나타나는 피드 디자인을 알게 될 것입니다. 간단한 개인화된 뉴스 에이전트 특정 태그에 대해 관심이있는 에이전트에게 말하는 것을 상상해보십시오 : 그것은 세 가지 일을합니다 : AI, Apple, Bay Area 스토리 웹에서 최고의 뉴스를 추출합니다. 이러한 키워드로 결과를 필터링합니다.Filters the results by those keywords. 그들을 빠른 디저트로 요약하십시오. 어느 날, 그것은 당신에게 줄 수 있습니다 : Apple은 Siri 및 iOS 앱을위한 새로운 장치 AI 모델을 발표했습니다. 베이 지역 철도 확장 프로젝트는 자금을 확보합니다. 시장은 지난 분기 상승 이후 AI 칩 수요가 느려지면서 차갑습니다. 이것은 이미 유용합니다.화재는 관리 할 수있는 목록으로 줄어듭니다.하지만 그것은 평평합니다.당신은 이야기가 중요한 이유, 또는 그것이 다른 사람들과 연결하는 방법을 모릅니다. 다중 에이전트를 소개 모든 것을 끝에서 끝까지 수행하는 하나의 단독 에이전트에 의존하는 대신, 우리는 작업 흐름을 서로 나눌 수 있습니다. 이것은 뉴스 룸과 동일한 원칙입니다 : 기자는 원본을 수집하고, 연구자들은 그것을 언급하고, 분석가는 맥락을 제공하고, 편집자는 독자들을 위해 그것을 포장합니다. specialist agents 우리의 뉴스 파이프라인에서, 그것은 이렇게 보입니다 : Fetcher Agent - 피드 또는 API에서 전체 뉴스 기사를 검색합니다. Passage Extractor Agent - 각 기사의 가장 관련된 섹션을 강조합니다. Named Entity Extractor Agent - 언급 된 사람, 회사, 장소 및 제품을 추출합니다. Entity Disambiguation Agent는 “Apple”가 Apple Inc.가 아니라 과일을 보장합니다. Entity Tagger Agent - 구조화 된 태그를 할당합니다 (예를 들어, 조직: Apple, 제품: iPhone). Topic Classifier Agent - AI, Finance, Bay Area와 같은 더 넓은 테마를 식별합니다. Sentiment & Stance Agent - 커버가 긍정적이든 부정적이든 중립적이든지 결정합니다. Tag Summarizer Agent - 엔터티, 주제 및 감정을 테마 섹션으로 통합합니다. Fact-Checker Agent - 신뢰할 수 있는 소스에 대한 주장을 검증합니다. Personalization & Ranking Agent - 귀하의 관심사와 역사를 일치하는 스토리를 우선순위로 설정합니다. Digest 컴파일러 에이전트 - 읽기 친화적 인 형식으로 폴리 된 디게스트를 조립합니다.Digest Compiler Agent assembles the polished digest in a reader-friendly format. Daily Digest Agent - 최종 패키지를 제공합니다 (당신의 인코딩 상자, Slack 또는 앱). 이들 요원들 중 일부는 운영 (예를 들어, 불명확성은 추출을 따라야 함), 다른 것들은 실행될 수 있다. (문제 분류, 감정 분석 및 엔터티 추출은 모두 동시에 같은 통로에서 작동 할 수 있습니다.) 결과는 전문가들의 조정된 파이프라인으로, 어떤 단일 에이전트보다 훨씬 더 풍부하고 구조화 된 디지스트를 생산합니다. sequentially in parallel What Comes In and What Goes Out - 에이전트 인터페이스 아래 테이블은 각 에이전트가 기대하고 무엇을 돌려 줄 것인지 요약합니다.나는 또한 에이전트가 도움이 필요하면 LLM과 상호 작용 할 수있는 곳을 보여주려고했습니다. Agent Inputs Outputs LLM Needed? Fetcher News feed URL, RSS, API query Full article text, metadata (title, URL, timestamp, source) ❌ No — HTTP/API call Passage Extractor Full article text Key passages, passage embeddings ✅ Optional — LLM for salience, or embeddings/TF-IDF Named Entity Extractor Passages Entity list, spans, embeddings ❌/✅ — NER models are faster, LLM can catch novel entities Entity Disambiguation Entity list, context embeddings Resolved entities with canonical IDs (e.g., Wikidata Q312) ✅ Yes — reasoning helps resolve ambiguous names Entity Tagger Disambiguated entities Entities with categories (Org, Person, Product, Location) ❌ No — deterministic classification Topic Classifier Passages, embeddings Topic labels (AI, Finance, Bay Area) ❌/✅ — embeddings + clustering or LLM for nuance Sentiment & Stance Analyzer Passages, entities Sentiment score, stance (supportive/critical/neutral) ✅ Optional — LLM for nuance, or sentiment models for speed Tag Summarizer Tagged entities, topics, sentiment Structured summaries grouped by tag ✅ Yes — summarization requires LLM Fact-Checker Summaries, claims Verified/Unverified claims, supporting references ✅ Yes — requires claim extraction + retrieval reasoning Personalization & Ranking Validated summaries, user profile Ranked/weighted story list ❌ No — ML heuristics suffice Digest Compiler Ranked summaries Final formatted digest (Markdown, HTML, JSON) ❌/✅ — deterministic formatting, LLM optional for tone Daily Digest Compiled digest Delivery package (email, Slack, app notification) ❌ No — just delivery Fetcher 뉴스 피드 URL, RSS, API 쿼리 전체 기사 텍스트, 메타데이터 (title, URL, timestamp, source) HTTP/API 통화 Passage Extractor 전체 기사 텍스트 Key Passages, Passage Embeddings 근처 오락거리 ✅ 선택 사항 - LLM for salience, or embeddings / TF-IDF Named Entity Extractor 통과 엔터티 리스트, 스페인, Embeddings /✅ — NER 모델은 더 빠르고, LLM은 새로운 엔터티를 잡을 수 있습니다. Entity Disambiguation 엔터테인먼트 리스트, Context Embeddings canonical ID를 가진 해결된 엔터테인먼트(예: Wikidata Q312) ✅ 예 - 논의는 불확실한 이름을 해결하는 데 도움이됩니다. Entity Tagger 분명한 Entities 범주가 있는 단체(Org, Person, Product, Location) No - Deterministic Classification - 결정적인 분류 Topic Classifier Passages, 삽입 주제 라벨 (AI, Finance, Bay Area) /✅ — embeddings + clustering 또는 LLM for nuance Sentiment & Stance Analyzer 항목, 단체 감정 점수, 자세 (지지 / 비판 / 중립) ✅ 선택 사항 — LLM 뉘앙스, 또는 속도에 대한 감정 모델 Tag Summarizer 태그 엔터티, 주제, 감정 태그에 의해 그룹화된 구조화된 요약 ✅ 예 - 요약은 LLM을 필요로합니다 Fact-Checker 주장, 주장 Verified/Unverified claims, supporting references (검증된/검증되지 않은 주장) ✅ 예 - claim extraction + retrieval reasoning 필요합니다. Personalization & Ranking 검증된 요약, 사용자 프로필 Ranked / Weighted Story 목록 아니오 - ML heuristics suffice Digest Compiler 랭킹한 요약 최종 포맷 디게스트 (Markdown, HTML, JSON) /✅ — 결정적인 포맷, 톤에 대한 LLM 선택 Daily Digest 디지털 Digest 배달 패키지 (email, Slack, 앱 알림) 아니요 - 배달 일부 에이전트는 LLM 추론을 필요로하고, 다른 사람들은 가볍고 결정적입니다.이 분할은 중요합니다 : 생산을 위해, 당신은 가능한 한 적은 LLM 호출을 원할 것입니다 (비용과 지연 시간을 절약하기 위해), 추론과 같은 무거운 작업을 예약, 요약 및 사실 확인. 상품명 : Bay Area Earthquake 우리의 파이프라인을 통해 실제 기사를 실행합시다. Title: 3.3 magnitude 지진 Pleasanton 근처 3.3 magnitude 지진 Pleasanton 근처 CBS Bay Area, 2025년 9월 7일 Source: Snippet: “미국 지질 조사국 (United States Geological Survey)에 따르면 일요일 아침 Pleasanton 근처에서 규모 3.2의 지진이 발생했습니다.이 지진은 오전 10시에 발생했으며, Pleasanton 북쪽 3 마일 정도입니다.East Bay 전역의 주민들은 약한 흔들림을보고했습니다. 각 에이전트의 책임은 아래에 요약되어 있습니다 : Fetcher Agent : 기사 텍스트를 끌어당긴다. Passage Extractor: 지진 규모, 타이밍, 위치 및 흔들림을 강조합니다. Entity Extractor : Pleasanton, USGS, East Bay를 식별합니다. Entity Disambiguation: Pleasanton, CA 및 United States Geological Survey에 의해 해결됩니다. Entity Tagger : Pleasanton → 위치; USGS → 조직을 분류합니다. 주제 분류자: 자연재해, 지역 뉴스, 지진과 같은 태그. Sentiment & Stance : 중립적이고 정보적입니다. Tag Summarizer: : “A 3.2-magnitude quake hit Pleasanton; residents felt weak shaking.” Local News : “USGS confirmed the quake’s magnitude; no damage reported.” Natural Disaster Fact-Checker: USGS를 통해 규모를 확인하고 Patch를 통해 흔들리는 보고서를 확인합니다. 개인화 및 순위 : 로컬 뉴스 (Bay Area에 비해 사용자 프로필)를 강조합니다. Digest Compiler + Delivery: 주제로 "Your Bay Area Update - Earthquake Alert"라는 이메일을 보냅니다. 원시 헤드 라인으로 시작한 것은 구조화, 순위, 사실 확인 디지스트가되었습니다. Beyond News: Other Feeds에 대한 일반화 이 에이전트 파이프라인에 대한 강력한 점은 그 안에 아무것도 뉴스에만 묶여 있지 않다는 것입니다. . framework for taking any content feed → extracting structure → producing a personalized digest 또 다른 예를 들어 보자: . arXiv papers 매일 수백 개의 연구 논문이 기계 학습, 컴퓨터 비전 또는 양자 컴퓨팅과 같은 범주에 넘어갑니다.연구자에 대한 도전은 뉴스와 동일합니다 : 너무 많은 볼륨, 너무 적은 시간, 그리고 단지 몇 가지 논문이 정말로 관련이 있습니다. 동일한 에이전트가 적용하는 방법 Fetcher Agent 입력: arXiv RSS 피드 또는 API 쿼리 출력: 종이 메타데이터 (title, authors, abstract, category) Passage Extractor Agent 출처 : abstract text 출력: 키 문장 (문제 문장, 방법, 결과) Named Entity Extractor Agent 출처 : abstract 출력: “Transformer”, “federated learning”, “TPU v5e”와 같은 엔터티 Entity Disambiguation Agent 엔터테인먼트 + 컨텍스트 출력: canonical ID에 대한 링크 (예를 들어, arXiv 주제 코드, Wikipedia 항목). Entity Tagger Agent Input: 해결된 엔터테인먼트 출력 : 범주 : 알고리즘, 데이터 세트, 하드웨어, 도메인. Topic Classifier Agent 상품명 : abstract embeddings 출력: {Deep Learning, Reinforcement Learning, Distributed Systems}와 같은 태그. Sentiment & Stance Agent 출처 : abstract 출력: “긍정적 인 결과” (모델은 SOTA를 2%), “중요한” (종이 이전 주장을 반박). Tag Summarizer Agent Input: Entities + Topics에 대한 정보 Output: : “New optimizer reduces GPU communication overhead by 30%.” Distributed Training : “Transformer variant improves long-context understanding.” NLP Fact-Checker Agent Input: Claims in abstract : 추론에 대한 주장 출력: 인용된 벤치마크, 이전 arXiv 논문에 대한 기본적인 검증. Personalization & Ranking Agent 입력: 요약 + 사용자 프로필. 출력: 중량 목록 - 예를 들어, ML (0.9), 시스템 (0.7), 이론 (0.2). Digest Compiler Agent 출력: 관심있는 주제에 따라 그룹화 된 매일 "Research Digest". Daily Digest Agent 출력: "Your Research Updates - Sept 7, 2025"라는 제목의 이메일 / 슬랙 메시지 예제 출력 Machine Learning "분산 교육을 위한 새로운 최적화는 GPU 통신 대비 30%를 줄입니다." “Transformer 변형은 장기적인 이해를 향상시킵니다.” Systems "TPU 워크로드에 대한 새로운 체크 포인팅 접근 방식은 신뢰성을 향상시킵니다." Theory "Paper refutes prior boundaries on sparse recovery in high-dimensional settings."는 문서는 고차원적인 설정에서 희귀한 복구에 대한 이전의 한계를 부인합니다. 일반적인 원칙 그것이 무엇이든간에 : 뉴스 기사 (정치, 금융, 베이 지역 지역 업데이트), 학문적 논문 (arXiv, PubMed) 회사 내부 보고서 (Logs, Metrics Dashboards) ... 같은 . agent pipeline applies 당신은 항상 할 수 있습니다 : FETCH 컨텐츠 Passage 를 추출합니다. 엔터테인먼트를 정의하고, 그들을 분명히합니다. Tag and classify 라고 합니다. 요약 및 사실 확인 사용자 프로필을 기반으로 랭킹. 디지털로 배달하기 그게 바로 The 그리고 에이전트는 그것을 구현하는 자연스러운 방법입니다. feed-to-digest pattern MCP: 에이전트가 말을 할 수 있는 프로토콜 여러 에이전트를 함께 체인하면 두 가지 큰 도전이 나타납니다. — How does the Passage Extractor know how to hand results to the Entity Disambiguation Agent? Inter-agent communication — How do agents fetch data from APIs (like arXiv, USGS, or RSS feeds) without each agent reinventing its own protocol? External integrations 이곳은 어디 안으로 들어오세요 MCP (Model Context Protocol) MCP 란 무엇입니까? MCP를 그대로 생각하라 . USB standard for AI agents 그것은 도구와 서비스에 대한 인터페이스를 정의합니다.It defines interfaces for tools and services. 에이전트가 어떻게 컨텍스트를 전달하는지를 지정합니다 (inputs, outputs, metadata). 그것은 상호 작동성을 허용합니다 - 파이프라인을 깨지지 않고 한 에이전트를 다른 에이전트로 교환 할 수 있습니다.It allows interoperability - meaning you can swap one agent out for another without breaking the pipeline. MCP를 사용하면 Passage Extractor는 Entity Tagger의 구현 세부 사항을 "알 필요가 없습니다.It only sends structured data (text + embeddings + tags) in a format MCP understands. 내부 통신 우리의 파이프라인 내부 : Fetcher Agent는 MCP 형식으로 {title, body, url, timestamp}를 출력합니다. 통행 엑스트라이터는 {body}를 가져와 {passages, embeddings}를 반환합니다. 이름이 붙은 Entity Extractor는 {passages}를 소비하고 {entities}를 생산합니다. Entity Disambiguation은 {entities, context}를 소비하고 {entity_id}를 생산합니다. 모든 에이전트는 MCP 덕분에 동일한 "언어"를 사용합니다. 외부 통신 MCP는 또한 외부로 작동합니다.예 : Fetcher Agent는 MCP를 사용하여 arXiv API 또는 RSS 피드를 호출합니다. Fact-Checker Agent는 MCP를 사용하여 Wikipedia 또는 뉴스 데이터베이스를 쿼리합니다. Daily Digest Agent는 MCP를 사용하여 이메일 또는 Slack을 통해 결과를 전달합니다. 혜택은 에이전트가 통합 할 수 있다는 것입니다. 그 도구가 MCP를 말하는 한, 당신의 노트북에 어떤 USB 장치를 연결하는 것처럼. any external tool 왜 이것이 중요한가 MCP가 없으면 모든 에이전트는 사용자 지정 어댑터가 필요합니다 - 일회용 통합의 부드러운 혼란. 표준화된 계약 → 각 에이전트의 입력/출력은 예측할 수 있습니다. 플러그 앤 플레이 아키텍처 → 당신은 내일 더 나은 것으로 감정 에이전트를 교체 할 수 있습니다. 확장성 → 수십 명의 에이전트는 스파게티 코드없이 조정할 수 있습니다. 즉, MCP는 스크립트 컬렉션을 하나의 스크립트로 변환하는 것입니다. . modular, extensible agent platform 닫는 생각들 평평하고 키워드 기반의 피드에서 → 에이전트의 뉴스 룸으로 → 일반화 된 소프트웨어 소화 플랫폼으로의 여정은 소프트웨어가 어떻게 진화하는지를 반영합니다 : 스크립트에서 시스템에서 생태계에 이르기까지. News today, arXiv tomorrow, logs and dashboards the day after. 패턴은 동일합니다. 그리고 MCP가 접착제를 제공함으로써 이러한 에이전트들은 고립된 해킹이 되지 않고 더 큰, 상호 작동 가능한 시스템의 일부로 작동하기 시작합니다. feed-to-digest, powered by agents. 강력한 기초를 가진 더 나은 도구를 작성하고 LLM을 활용하여 가치를 추가하십시오 : 정교하고 요약하고 반복하십시오. 다음 부분에서는 MCP를 사용하여 멀티 에이전트 시스템을 어떻게 구현할 수 있는지 살펴보겠습니다.