Diptiman Raichaudhuri, Confluent의 직원 개발 변호사 Diptiman Raichaudhuri, Confluent의 직원 개발 변호사 엔지니어링 팀은 AI 에이전트를 빠른 속도로 실험하고 있습니다.사실, 최근 PwC 설문 조사에 따르면 회사의 %는 이미 AI 에이전트를 채택하고 있습니다.Python 개발자에게는이 변화는 완전히 새로운 스택을 배울 필요가 없습니다.현재의 마이크로 서비스는 에이전트 엔드포인트로 수정 될 수 있으며 AI 에이전트를 구축하는 것은 종종 FastAPI와 같은 친숙한 도구로 개발된 "단지 다른 API 엔드포인트"입니다.사례 기반 아키텍처 및 Pythonic 프레임 워크에 대한 기존의 경험을 활용함으로써 개발자는 전통적인 데이터 처리와 실시간 AI 사이의 격차를 수 있습니다. 79 79 오케스트레이터 에이전트를 사용하면 여러 엔터프라이즈 애플리케이션에서 메시지를 교환하는 패턴으로 간단한 요청 응답주기에서 전환을 나타냅니다.FastAPI와 같은 프레임 워크를 사용하는 파이썬 개발자에게는이 전환이 간단합니다.Orchestrator는 단순히 다양한 전문 에이전트 간의 데이터 흐름을 조정하는 더 정교한 "API 엔드포인트"가됩니다. MCP는 Claude, ChatGPT, 또는 Gemini와 같은 대형 언어 모델 (LLM)과 함께 사용자 쿼리를 자연 언어 입력으로 받아들이고 MCP 서버에서 호출 할 올바른 도구 세트를 선택할 수 있습니다. 모델 컨텍스트 프로토콜 모델 컨텍스트 프로토콜 FastMCP와 같은 프레임 워크는 파이썬 개발자가 결정적인 MCP 도구를 신속하게 구축할 수 있게 해주므로 원자 사용자 지침을 이해하려는 LLM의 불확실성은 엔터프라이즈 구성 요소로 교체됩니다. FastMCP는 FastAPI 기반 REST API 엔드포인트를 MCP 도구 호출 사양으로 변환하는 선택의 프레임 워크입니다. MCP가 데이터베이스 및 API에 대한 개별 도구 호출을 추상하는 반면, 기존의 파이썬 API 코드베이스는 이러한 에이전틱 호출 엔드포인트를 도입하기 위해 수정되어야 합니다. 생산 배포를 위해, 정확한 MCP 도구가 호출되는 대신에 MCP 도구의 "모든 도구"를 나열하는 대신 MCP 도구 " 스트리밍 워크로드를 위해, 실시간 이벤트와 상호 작용하는 마이크로 서비스 개발을 위한 가장 인기있는 오픈소스 데이터 스트리밍 프레임워크로 남아 있습니다.Apache Kafka는 전투 테스트 된 Python SDK를 가지고 있으며, 카프카 제작자와 카프카 소비자를 포함하는 마이크로 서비스를 구축하기에 적합합니다.Python 개발자는 REST 엔드포인트를 통해 메시지를 교환하는 마이크로 서비스와 함께 이벤트 기반 아키텍처를 구축할 수 있으며, 카프카는 스트리밍 데이터를 지속적으로 저장합니다. 아파치 카프카 아파치 카프카 Apache Flink SQL은 카프카에 저장된 스트리밍 데이터를 풍부하게, 집계 및 변환하기 위해 익숙한 프로그래밍 모델을 제공합니다. Flink SQL를 사용하면 실시간 에이전트 워크플로우가 데이터 품질 규칙을 부과하고 카프카 주제에 대한 비행 데이터를 변환합니다.이것은 전체 데이터 파이프라인 내에서 중요한 단계이며 파이프라인 내부에서 데이터를 호출하는 에이전트가 풍부하고 깨끗하고 신뢰할 수있는 데이터를 보장합니다. 이러한 개념을 소매점의 실시간 에이전틱 워크플로우에 적용해 고객의 행동을 더 잘 이해하려는 소매점에 적용해 보자. 주문을 수락하고 수행하는 옷 가게가 있다고 상상해보자. 시간이 지남에 따라 역사적인 주문 데이터가 축적되며, 고객의 구매 행동을 강조하여 제품이 빠르게 판매되고 고객이 반복되고 나이 그룹이 가장 많은 옷을 주문합니다.이 역사적 데이터로부터 얻은 통찰력은 가게가 새로운 옷 라인을 도입하고 수익을 극대화하기위한 장기적 전략을 결정하는 데 도움을줍니다. 동시에 실시간 고객 쇼핑 행동은 고객이 제품을 구매하는 방법을 반영합니다. 역사적인 데이터가 Apache Iceberg 테이블로 저장되고 실시간 행동이 Kafka에 저장된다고 가정 해 봅시다. 이 두 출처를 결합하면 스토어가 과거 습관을 기반으로 실시간으로 정확한 구매자 행동을 제공 할 것입니다. 이를 위해 AI 에이전트는 온라인 분석 처리 (OLAP) 시스템과 Apache Kafka에서 정보를 추출해야합니다.이를 설명하기 위해, 우리는 OLAP 시스템이 Apache Iceberg 호수 내에 보관된 .Parquet 파일로 구성되어 있다고 생각합니다. DuckDB가 쿼리하고 Apache Kafka에서 소비되는 실시간 스트림 저장. 두 AI 에이전트, DuckDB MCP와 Kafka MCP를 사용하여 각각 쿼리하면 필요한 정보를 얻을 것입니다. LangGraph 또는 AWS Strands와 같은 모든 에이전트 프레임워크는 이러한 MCP 서버에 도구를 호출하고 필요한 정보를 얻을 수 있습니다.On top of the agentic framework, an orchestrator agent could combine responses from these MCP servers and present unique details about store and customer buying behavior in real-time. Python AI 개발자를 위해이 솔루션을 설계하기위한 첫 번째 단계는 Kafka와 DuckDB MCP에 대한 FastMCP 도구를 정의하는 것이 필요합니다. 그런 다음 에이전트 호출을 구축하고 API 엔드포인트를 따라 호출자가 이러한 에이전트와 상호 작용할 수 있도록 할 필요가 있습니다. 마지막 단계는 관찰 기능을 추가하고 AI 응답을 평가하여 에이전트 흐름을 향상시키고 신뢰할 수 있도록하는 것입니다. 에이전트의 최종 응답을 표준, 준수 및 벤치마크에 반대하여 평가하는 것은 사용자의 수용을 보장하는 중요한 단계입니다. 실시간 데이터의 풍부화, 청소 및 집합이 FlinkSQL 계층에서 발생하기 때문에 MCP 도구와 호출 계층을 개발하는 것은 순 Kafka와 Flink에 익숙한 Python 개발자는 FastAPI, FastMCP 및 LangGraph 및 AWS Strands와 같은 오픈 소스 에이전트 프레임 워크 프레임워크의 익숙한 영역에서 일하면서 위와 같은 에이전트 워크플로스를 구축할 수 있습니다. 현대적인 파이썬 개발자에게는 정교한 AI 에이전트를 구축하는 경로가 전체적인 건축 개혁을 필요로하지 않습니다. FastMCP를 MCP 도구 발견을 위한 FastMCP와 Apache Kafka와 Apache Flink SQL를 실시간 데이터 무결성을 위한 결합함으로써, 에이전트가 깨끗하고 신뢰할 수 있는 데이터로 구동되도록 할 수 있습니다. LangGraph 또는 AWS Strands를 사용하든 간에, 에이전트 작업 흐름으로의 전환은 기본적으로 이미 알고 있는 마이크로 서비스 패턴의 진화입니다. AI 에이전트를 기존의 Kafka 및 Flink 인프라의 확장으로 취급함으로써, 간단한 데이터 스트리밍에서 실시간, 지능적인 통찰력을 제공할 수 있습니다. Kafka와 Flink과의 채팅 - Python 애플리케이션 개발자를위한 AI 에이전트와 Confluent MCP 애플리케이션 개발자의 관점에서 Kafka와 Flink (150 단어) 애플리케이션 개발자들은 비즈니스 애플리케이션을 위한 마이크로서비스를 구축하고, 스트림 스토리지의 사실상 표준으로서의 카프카 서로 대화하는 마이크로 서비스의 메시징 허브로 사용하기 쉬운 - 카트 API <-> 명령 생성 API <-> 충성 API <-> 명령 성취 API 등 Flink은 Kafka 주제 내에서 풍부하고 변형되고 고품질의 집계 데이터를 생성합니다. AI 에이전트가 마이크로 서비스 내에 삽입될 수 있다면 어떨까요?(150 단어) 마이크로 서비스는 항상 REST 엔드포인트를 가질 것입니다. 에이전트와의 채팅으로 '/chat'를 입력합니다. 다른 엔드포인트는 컨텍스트로서 `/chat/로 전달되는 비즈니스 논리를 구축할 것입니다. MCP(Model Context Protocol) - AI 에이전트가 말하는 언어(200 단어) MCP 스트리밍 가능한-http 운송 모드를 통해 Kafka 및 Flink 도구를 노출 에이전트는 도구를 탐구하고 발견하고 LLM의 도움을 받아 특정 도구와 사용자 쿼리를 일치시킬 것입니다. 소매 상점 행동 에이전트 - 예(400 단어) 설정 설명 - 상점을 통해 빠른 주문을 수락하는 소매 업체 Run Confluent MCP - 설명 github repo of mcp-confluent 및 Kafka, Flink 특정 도구 에이전트 목록 Kafka 및 FLink 도구 및 LLM의 도움을 사용하여 내면을 탐색합니다. 에이전트는 "지난 5분간 어떤 가게에서 가장 많은 주문을 받았는지"라는 질문에 대답합니다. 에이전트는 MCP 도구가 카프카 메시지를 소비하고 응답한다고 호출합니다.