கொழும்பில் நடைபெற்ற LankaPay Technnovation விருதுகள் வழங்கும் நிகழ்வில், ‘The Best Common ATM Acquirer of the year - Category C’ என்ற பிரிவில் DFCC வங்கி வெற்றியாளராக தெரிவானது. ஒரு முதியவன் பாதாளங்களைத் தாண்டும் தன் மந்திரக்கோலால் சாய்த்தபடியிருக்கிறான் நாட்சத்திரங்களை. .............................................................................................................................................................................. இது எத்தனையாவது [...] , • இறுதியாக, Reportable status ஐ தேர்ந்தெடுக்கவும் அதாவது Reportable அல்லது Non reportable அல்லது All ஐ தேர்ந்தெடுத்து அதனைச் சமர்ப்பிக்கவும். When agents operate without guardrails they can inadvertently make harmful or unauthorized decisions அதனால்தான் Integration வேலைநிறுத்தம் அலுவலர்களின் பாதுகாப்பு மற்றும் வரவேற்புக்கு முக்கியமானது. human-in-the-loop (HITL) ஆங்கிலத்தில் இதை Single Orgasm, Multiple Orgasm என்றும் கூறுகிறார்கள். உணர்ச்சிகரமான செயல்பாடு, அதே நேரத்தில் . Permit.io’s Access Request MCP ஐப் பயன்படுத்தவும் request humans to remain the final decision-makers Permit.io’s Access Request MCP ஐப் பயன்படுத்தவும் படைத்த and integrated into popular agent frameworks like மற்றும் , இந்த அமைப்பு நீங்கள் உங்கள் LLM-powered பயன்பாடுகளில் நேரடியாக ஒப்புதல் வேலை வழிகளை சேர்க்க அனுமதிக்கிறது. அனுமதி LangChain LangGraph இந்த Tutorial இல் நீங்கள் அறிவீர்கள்: ஏன் மனிதர்களுக்கு பாதுகாப்பான உரிமைகளை அனுப்புவது நம்பகமான AI க்கு முக்கியமானது. Permit.io’s Model Context Protocol (MCP) எப்படி Access request workflows பயன்படுத்துகிறது How to build a real-world system that blends LLM intelligence with human supervision – using LangGraph’s interrupt() feature. நாங்கள் எங்கள் டெமோ பயன்பாடு மற்றும் செயல்படுத்த நடவடிக்கைகளில் நுழைய முன், நாம் மனிதர்களுக்கு AI உரிமைகளை ஒப்புக்கொள்வதற்கான முக்கியத்தை விரிவாகப் பேசுவோம். ஏனெனில் மனிதர்களுக்கு AI உரிமைகளை அனுப்புவது முக்கியமானது இராணுவ வீரர்கள் மிகப்பெரியவர்களாக இருக்கின்றனர், ஆனால், நாம் அனைவரும் அறிந்தபடி, அவர்கள் தவறானவர்கள் அல்ல. ஒரு முதியவன் பாதாளங்களைத் தாண்டும் தன் மந்திரக்கோலால் சாய்த்தபடியிருக்கிறான் நாட்சத்திரங்களை. .............................................................................................................................................................................. இது எத்தனையாவது [...] இந்நிலையில், தவறாக நடக்க முடியும் அனைத்தும் மிகவும் தெளிவாக உள்ளது: Over-permissive அலுவலர்கள்: LLMs அவர்கள் அணுகக்கூடாது பொருட்கள் அணுக முடியும், வடிவமைப்பு அல்லது தமிழ். ஆங்கிலத்தில் இதை Single Orgasm, Multiple Orgasm என்றும் கூறுகிறார்கள். ஆங்கிலத்தில் இதை Single Orgasm, Multiple Orgasm என்றும் கூறுகிறார்கள். Delegation is the solution. அலுவலர்களுக்கு காவல்துறையினர் அனுமதிக்கவில்லை என்பதற்காக, நாம் அவர்களுக்கு ஒரு திட்டத்தை வழங்குகிறோம்: “You may ask, but a human decides.” அறிமுகப்படுத்துதல் Key Decision Points இல், நீங்கள் பெறலாம்: human-in-the-loop (HITL) பாதுகாப்பு: தீவிர நடவடிக்கைகள் நடக்கும் முன் தீவிர நடவடிக்கைகளை நிறுத்துங்கள். Require explicit human sign-off for high stakes operations (அமைதியைப் பொறுத்தவரை) கட்டுப்பாடு: மக்கள் எப்போது, எதை, யார், யார், யார், எதை ஒப்புக்கொள்ள முடியும் என்று அமைக்க வேண்டும். இது ஒரு அலுவலகத்தின் வேறுபாடு. ஏதோ ஒரு அலுவலகம் ஏதாவது செய்ய செய்வது தேவை அது தான் சரியாக என்ன MCP Access Request என்று அழைக்கப்படுகின்றது. அனுமதி Permit.io’s Access Request MCP ஐப் பயன்படுத்தவும் இது ஒரு core part of ‘s Model Context Protocol (MCP) – ஒரு குறிப்பு, AI அலுவலர்கள் பாதுகாப்பான, திட்டம் அறிந்த அணுகுமுறைகள் மற்றும் ஆதாரங்களை வழங்குகிறது. The Access Request MCP அனுமதி அதை ஒரு அணுகுமுறை என நினைத்து மற்றும் . LLMs that want to act humans who need control என்ன செய்கிறது Permit’s Access Request MCP enables AI agents to: Restricted resources (e.g., “I can access this restaurant?”) குறுகிய வேலைகளை செய்ய அனுமதி கேளுங்கள் (எனவே, "நான் இந்த restricted dish order செய்ய முடியுமா?") தொடங்குவதற்கு முன் மனித நுழைவுக்காக காத்திருங்கள்—LangGraph’s interrupt() mechanism மூலம் Requests and Decisions for Auditing and Compliance - கணக்கெடுப்பு பின்னூட்டத்தில், அவர் பயன்படுத்துகிறார் ‘s authorization capabilities built to support:’ என்று அழைக்கப்படுகின்றது. அனுமதி ReBAC (Relationship-Based Access Control) மற்றும் மற்ற Fine-grained Authorization (FGA) திட்டங்கள். Workflows ஒப்புதல் UI, API, and LLM contexts இல் வேலை செய்பவை திருப்தி Fine-grained Authorization (FGA) என்று அழைக்கப்படுகிறது Workflows ஒப்புதல் policy-backed அம்சங்கள் LangChain மற்றும் LangGraph மூலம் Plug-and-Play MCP இன் அணுகுமுறையை அணுகுமுறையில் மற்றும் ஐஸ்கிரீம் : LangChain MCP Adapter LangGraph You can expose Permit Elements as LangGraph-compatible tools. - நீங்கள் LangGraph-compatible tools என அனுமதிக்க முடியும். நீங்கள் உணர்ச்சிகரமான நடவடிக்கைகள் நடக்கும் போது interrupt() மூலம் அணுகுமுறை நிறுத்த முடியும். நீங்கள் உண்மையான மனித உரிமைகள் அடிப்படையில் செயல்பட முடியும். இது எளிதான வழி Custom backend தேவை இல்லை. inject human judgment into AI behavior புரிந்து கொள்வதன் மூலம் மற்றும் அதன் நன்மைகள், எங்கள் டெமோ பயன்பாட்டைப் பெறுவோம். What We'll Build - Demo Application ஆய்வு இந்த Tutorial இல் நாம் ஒரு எங்கே ஒரு அவர்களை real-time approval workflow AI agent can request access or perform sensitive actions, but only a human can approve குறிச்சொற்கள்: family food order system Permit's MCP ஐ ஒரு பயனர் பயன்பாட்டில் HITL workflow ஐ திறக்க எப்படி உதவ முடியும் என்பதை பார்ப்பதற்கு, நாம் ஒரு மாதிரி செய்யலாம். ஒரு குடும்பத்தில் : food ordering system பெற்றோர்கள் அனைத்து உணவகங்களையும் சேமிக்க முடியும். குழந்தைகள் பொதுவான பொருட்களை பார்க்கலாம், ஆனால் தகுதியான உணவகங்களில் அல்லது கடினமான உணவுகளில் அணுக வேண்டும். ஒரு குழந்தை ஒரு வழக்கு வழங்கும் போது, ஒரு தந்தை அதை விசாரணை பெற மற்றும் நடவடிக்கை முன்னெடுக்க முன் தெளிவாக ஆதரவு அல்லது நிராகரிக்க வேண்டும். இந்த பயன்பாடு ஒரு பொதுவான மாதிரி விளக்குகிறது: “அணியாளர்கள் உதவ முடியும், ஆனால் மனிதர்கள் தேர்வு செய்ய முடியும்.” Tech Stack நாம் இந்த HITL-அமைக்கப்பட்ட அலுவலகம் உருவாக்கப்படும் பயன்படுத்தி: Permit.io - Authorization, Roles, Policies, and Approvals - அதிகாரப்பூர்வ அறிவிப்பு Permit MCP Server - Exposes அலுவலகம் பயன்படுத்த முடியும் கருவிகளாக வேலை விளைவுகளை அனுமதிக்க LangChain MCP Adapters - LangGraph & LangChain இல் MCP அம்சங்களை அனுமதிக்கிறது LangGraph - interrupt() ஆதரவைக் கொண்டு அலுவலரின் வேலைநிறுத்தம் அமைக்கிறது Gemini 2.0 Flash - எளிமையான, பல்வேறு வடிவமைப்பு LLM அலுவலரின் காரணம் இயந்திரமாக பயன்படுத்தப்படுகிறது Python - the glue holding it all together - எல்லாவற்றையும் ஒப்பிடுகையில் நீங்கள் ஒரு வேலை அமைப்பை அடைவீர்கள், அலுவலர்கள் பாதுகாப்பான, திடீரென செயல்பாடுகளை உறுதி செய்ய மனிதர்களுடன் ஒத்துழைக்க முடியும் - உண்மையான திட்டம், உண்மையான கருவிகள் மற்றும் உண்மையான நேரத்தில் ஆதரவுகளை பயன்படுத்தி. A repository with the full code for this application is available here. இந்த பயன்பாட்டின் முழு குறியீடு கொண்ட ஒரு Repository இங்கே கிடைக்கிறது. Step-by-Step உரையாடல்கள் இந்த பகுதியில், நாம் ஒரு முழுமையாக செயல்படும் மனித-in-the-loop agent system ஐ பயன்படுத்தி எப்படி செயல்படுத்தலாம் என்பதைப் பார்ப்போம். Langgraph இல் அனுமதி நாம் அடைவோம் : வடிவமைப்பு permits with permits Permit MCP Server அமைப்பு ஒரு LangGraph + LangChain MCP Client உருவாக்க நுண்ணுயிர் நுண்ணுயிர் நுண்ணுயிர் நுண்ணுயிர் full workflow முழு வேலையை அதற்குள் நுழைவோம் - வடிவமைப்பு permits with permits முதலில், உங்கள் கணினியில் உள்ள கணினியின் அணுகுமுறைகளை அணுகலாம். இதன் மூலம் நீங்கள் என்ன பயன்பாடுகள் செய்ய முடியும் மற்றும் என்ன நடவடிக்கைகள் ஒரு உத்தரவாதம் வடிவமைக்க வேண்டும்.This allows you model which users can do what, and what actions should trigger a approval flow. அலுவலகம் - Dashboard Create a ReBAC Resource navigate இல் பின்னூட்டத்தின் பக்கம், பின்னூட்டத்தில்: Policy Click the Resources அட்டவணை Click ஒரு Resource உருவாக்கவும் Name the resource: restaurants Under , define two roles: ReBAC Options parent child-can-order கிளிக் Save இப்போது போய் the TAB மற்றும் PERMISSIONS: Policy Editor full access (create, read, update, delete) - முழு அணுகுமுறை குழந்தை பருவநிலை: Read Set Up Permit Elements போய் the அலுவலகத்தில் பணிபுரியும். in the கிளிக் , Click . Elements User Management Create Element Configure the element as follows: : Restaurant Requests Name : ReBAC Resource Roles Configure elements based on : restaurants Resource Type Role permission levels Level 1 – Workspace Owner: parent Assignable Roles: child-can-order Click படைத்தல் இதில், Get Code என்பதை கிளிக் செய்து config ID: restaurant-requests என்பதை கவனிக்கவும். Add Operation Approval Elements Create a new element: Operation Approval : Dish Approval Name : restaurants Resource Type Click படைத்தல் Then create an element: Approval Management : Dish Requests Name Get Code ஐ கிளிக் செய்து config ID: dish-requests ஐ குறியீடு செய்யவும். Add Test Users & Resource Instances Navigate to Directory > ஆவணங்கள் Click Add Instance : restaurants Resource Type : Instance Key pizza-palace : Default Tenant (or your working tenant) Tenant User tab இல் மாற்றவும் Click Add User : Key joe : Instance Access restaurants:pizza-palace#parent Click Save Create another user with the key henry Don’t assign a role Permit அமைக்கப்படும் போது, நாங்கள் MCP சேவையகத்தை கிளிக் செய்து உங்கள் தரவுகளை ஒரு வேலை ஆக்கிரமிப்புடன் இணைக்க தயாராக உள்ளோம். Permit MCP Server அமைப்பு உங்கள் திட்டங்கள் Permit அட்டவணையில் வடிவமைக்கப்பட்டுள்ளன, அதை உருவாக்குவதற்கான நேரமிது. உங்கள் அணுகல் தேவைகள் மற்றும் உத்தரவாத விளைவுகளை ஒரு AI அலுவலகம் பயன்படுத்த முடியும் கருவிகளாக விளக்குகிறது — a local service that exposes your access request and approval flows as tools that an AI agent can use. Permit MCP server Clone and Install the MCP Server முதலில், MCP Server Repository ஐ கிளிக் செய்து, ஒரு Virtual Environment ஐ அமைக்கவும். git clone <https://github.com/permitio/permit-mcp> cd permit-mcp # Create virtual environment, activate it and install dependencies uv venv source .venv/bin/activate # For Windows: .venv\\Scripts\\activate uv pip install -e . Add Environment Configuration படைப்பு A File at the root of the project based on the provided அதன்பிறகு, உங்களுடைய சரியான அட்டவணைகளைப் பயன்படுத்துங்கள். .env .env.example bash CopyEdit RESOURCE_KEY=restaurants ACCESS_ELEMENTS_CONFIG_ID=restaurant-requests OPERATION_ELEMENTS_CONFIG_ID=dish-requests TENANT= # e.g. default LOCAL_PDP_URL= PERMIT_API_KEY= PROJECT_ID= ENV_ID= நீங்கள் இந்த மதிப்புகளை பின்வரும் சேவைகளை பயன்படுத்தி பெற முடியும்: அலுவலகம்_PDP_URL ஒலிப்பதிவுகள் கிடைக்க பெறும் திட்டம் - ID ஐபிஎல் - ID ️ குறிச்சொல்: நாம் பயன்படுத்துகிறோம் ReBAC Assessment and Low-Latency, Offline Testing ஐப் பயன்படுத்தவும். PPP (Local Policy Decision Point) எனும் பொருள் Start the Server எல்லாவற்றிற்கும் மேலாக, நீங்கள் இப்போது MCP சேவையகத்தை இடையில் இயக்க முடியும்: uv run -m src.permit_mcp ஒருமுறை சேவையகம் இயங்கும் போது, அது உங்களுடைய அமைக்கப்பட்ட அனுமதி அட்டவணைகள் (அணுகல் கேள்வியை, உத்தரவாதம் மேலாண்மை, போன்றவை) அலுவலகம் MCP திட்டத்தின் மூலம் அழைக்க முடியும் கருவிகளாக வெளியிடப்படும். ஒரு LangGraph + LangChain MCP Client உருவாக்க இப்போது, Permit MCP சேவையகம் செயல்படுகிறது, நாம் அதனை தொடர்பு கொள்ள முடியும் ஒரு AI ஆக்கிரமிப்பு வாடிக்கையாளர் உருவாக்கலாம். Gemini-powered LLM ஐ பயன்படுத்தி, என்ன நடவடிக்கைகளை எடுக்க வேண்டும் என்று தீர்மானிக்கவும்Dynamically invoke MCP tools such as request_access, approve_operation_approval, etc. ஒரு LangGraph Workflow இல் முழுமையாக இயங்குதல் interrupt() ஐப் பயன்படுத்தி மனித பார்வையை நிறுத்த (Next Section) இடுகைகளை இணைப்போம். Install Required Dependencies உங்கள் MCP project directory உள்ளே, தேவையான தொகுப்புகளை நிறுவவும்: uv add langchain-mcp-adapters langgraph langchain-google-genai இது உங்களுக்கு வழங்கும்: langchain-mcp-adapters: Automatically converts Permit MCP tools into LangGraph-compatible tools: Langchain-mcp-adapters: LangGraph-compatible tools என்று மாற்றுகிறது. langgraph: graph-based workflows க்கு அடிப்படை langchain-google-genai: Gemini 2.0 Flash மூலம் தொடர்பு கொள்ள Add Google API Key நீங்கள் ஒரு API Key தேவைப்படும் Gemini பயன்படுத்துவது Google இல் Studio உங்கள் கதையை உங்கள் கோப்பு : .env GOOGLE_API_KEY=your-key-here Build the MCP Client பெயரால் எழுதப்பட்ட ஒரு பதிவு உங்கள் Root திட்டத்தில் client.py நாம் இந்த கோப்பு கீழே logical blocks இல் அழித்து விடுவோம்: Imports and Setup Start by importing dependencies and loading environment variables: import os from typing_extensions import TypedDict, Literal, Annotated from dotenv import load_dotenv from langchain_google_genai import ChatGoogleGenerativeAI from langgraph.graph import StateGraph, START, END from langgraph.types import Command, interrupt from langgraph.checkpoint.memory import MemorySaver from langgraph.prebuilt import ToolNode from mcp import ClientSession, StdioServerParameters from mcp.client.stdio import stdio_client from langchain_mcp_adapters.tools import load_mcp_tools import asyncio from langgraph.graph.message import add_messages Then, load the environment and set up your Gemini LLM: load_dotenv() global_llm_with_tools = None llm = ChatGoogleGenerativeAI( model="gemini-2.0-flash", google_api_key=os.getenv('GOOGLE_API_KEY') ) Tell LangGraph how to communicate with the running MCP server: Configure MCP Server Parameters server_params = StdioServerParameters( command="python", args=["src/permit_mcp/server.py"], ) Share agent state என்று கூறுவார்கள்: class State(TypedDict): messages: Annotated[list, add_messages] and the : Define Workflow Nodes graph builder Here’s the logic to route between calling the LLM and invoking tools: async def call_llm(state): response = await global_llm_with_tools.ainvoke(state["messages"]) return {"messages": [response]} def route_after_llm(state) -> Literal[END, "run_tool"]: return END if len(state["messages"][-1].tool_calls) == 0 else "run_tool" async def setup_graph(tools): builder = StateGraph(State) run_tool = ToolNode(tools) builder.add_node(call_llm) builder.add_node('run_tool', run_tool) builder.add_edge(START, "call_llm") builder.add_conditional_edges("call_llm", route_after_llm) builder.add_edge("run_tool", "call_llm") memory = MemorySaver() return builder.compile(checkpointer=memory) இந்நிகழ்ச்சியில், நாங்கள் இவ்வாறு கூறியுள்ளோம். ஆங்கிலத்தில் இதை Single Orgasm, Multiple Orgasm என்றும் கூறுகிறார்கள். run_tool Next, add the following line of code to stream response from the graph and add an interactive chat loop, which will run until it is explicitly exited. and an : Stream Output and Handle Chat Input, infinite loop for user interaction async def stream_responses(graph, config, invokeWith): async for event in graph.astream(invokeWith, config, stream_mode='updates'): for key, value in event.items(): if key == 'call_llm': content = value["messages"][-1].content if content: print('\\n' + ", ".join(content) if isinstance(content, list) else content) async def chat_loop(graph): while True: try: user_input = input("\\nQuery: ").strip() if user_input in ["quit", "exit", "q"]: print("Goodbye!") break sys_m = """ Always provide the resource instance key during tool calls, as the ReBAC authorization model is being used. To obtain the resource instance key, use the list_resource_instances tool to view available resource instances. Always parse the provided data before displaying it. If the user has initially provided their ID, use that for subsequent tool calls without asking them again. """ invokeWith = {"messages": [ {"role": "user", "content": sys_m + '\\n\\n' + user_input}]} config = {"configurable": {"thread_id": "1"}} await stream_responses(graph, config, invokeWith) except Exception as e: print(f"Error: {e}") Final Assembly Add the main entry point where we will convert the Permit MCP server tool to LangGraph-compatible tools, bind our LLM to the resulting tools, set up the graph, draw it to a file, and fire up the chat loop: python CopyEdit async def main(): async with stdio_client(server_params) as (read, write): async with ClientSession(read, write) as session: await session.initialize() tools = await load_mcp_tools(session) llm_with_tools = llm.bind_tools(tools) graph = await setup_graph(tools) global global_llm_with_tools global_llm_with_tools = llm_with_tools with open("workflow_graph.png", "wb") as f: f.write(graph.get_graph().draw_mermaid_png()) await chat_loop(graph) if __name__ == "__main__": asyncio.run(main()) Lastly, Run the Client நீங்கள் அனைத்தையும் சேமித்த போது, வாடிக்கையாளர் தொடங்க: uv run client.py இதன் பின்னர், ஒரு புதிய படத்தின் பெயர் அப்படிப் படைக்கப் படுவான், அப்படிப் படைக்கப் படுவான் workflow_graph.png எல்லாவற்றிற்கும் மேலாக, நாம் இப்போது இந்த வகையான கேள்வியைக் குறிக்க முடியும்: Query: My user id is henry, request access to pizza palace with the reason: I am now 18, and the role child-can-order Query: My user id is joe, list all access requests Your agent is now able to call MCP tools dynamically! human-in-the-loop என்பதால் interrupt() உங்கள் LangGraph-powered MCP client up and running, Permit tools now can be invoked automatically. ஒரு குறைந்த அளவு உபயோகப்படுத்துதல் அல்லது ஒரு குறைந்த அளவு உபயோகப்படுத்துதல் போன்றவை? sensitive, அதில் தான் Langgraph’s பயனுள்ளதாக இருக்கும் interrupt() இப்போது நாம் ஒரு வேலைநிறுத்தம் எப்போதும் அலுவலகத்திற்கு அழைக்க முயற்சிக்கும் போது வேலைநிறுத்தம் ஏற்றுக்கொள்ளவும்: human approval node ஒப்புதல்_access_request ஒப்பந்தம் - ஒப்பந்தம் ஒரு மனிதன் கேட்கிறான் இராணுவத்தினர் முன்னிலை வகித்தனர். manually approve or deny Define the Human Review Node உன் மேல் உன் file (before ) பின்வரும் சேவைகளை சேர்க்கவும்: client.py setup_graph async def human_review_node(state) -> Command[Literal["call_llm", "run_tool"]]: """Handle human review process.""" last_message = state["messages"][-1] tool_call = last_message.tool_calls[-1] high_risk_tools = ['approve_access_request', 'approve_operation_approval'] if tool_call["name"] not in high_risk_tools: return Command(goto="run_tool") human_review = interrupt({ "question": "Do you approve this tool call? (yes/no)", "tool_call": tool_call, }) review_action = human_review["action"] if review_action == "yes": return Command(goto="run_tool") return Command(goto="call_llm", update={"messages": [{ "role": "tool", "content": f"The user declined your request to execute the {tool_call.get('name', 'Unknown')} tool, with arguments {tool_call.get('args', 'N/A')}", "name": tool_call["name"], "tool_call_id": tool_call["id"], }]}) இந்த இடுகை அழைக்கப்படும் கருவி "high risk" என்று கருதப்படுகிறதா என்று சோதனை செய்கிறது. Update Graph Routing மாற்றம் the இவ்வாறு செயல்படுகிறது, எனவே கருவி நேரடியாக செயல்படுவதற்கும், மனித ஆய்வு குறியீட்டுக்கு வழியை அழைக்கிறது: route_after_llm def route_after_llm(state) -> Literal[END, "human_review_node"]: """Route logic after LLM processing.""" return END if len(state["messages"][-1].tool_calls) == 0 else "human_review_node" Wire in the HITL Node Update the சேவை Add the Graph இல் ஒரு Node: setup_graph human_review_node async def setup_graph(tools): builder = StateGraph(State) run_tool = ToolNode(tools) builder.add_node(call_llm) builder.add_node('run_tool', run_tool) builder.add_node(human_review_node) # Add the interrupt node here builder.add_edge(START, "call_llm") builder.add_conditional_edges("call_llm", route_after_llm) builder.add_edge("run_tool", "call_llm") memory = MemorySaver() return builder.compile(checkpointer=memory) Handle Human Input During Runtime இறுதியாக, உங்கள் இதன் மூலம், காட்சிகள் வெளியாகும் நேரத்தில், காட்சிகள் வெளியாகும் நேரத்தில், காட்சிகள் வெளியாகும் நேரத்தில், காட்சிகள் வெளியாகும் நேரத்தில், காட்சிகள் வெளியாகும் நேரத்தில், காட்சிகள் வெளியாகும் நேரத்தில் காட்சிகள் வெளியாகும். . stream_responses Command(resume={"action": user_input}) பின்னூட்டங்கள் வெளியிடப்பட்ட பின்னர், அட்டவணை இவ்வாறு இருக்கக்கூடாது: கால்பந்து விளையாடுவதற்கான விதிமுறைகள் (Client diagram) ) இப்போது LLM மற்றும் கருவி செயல்பாடு நிலைகள் இடையே ஒரு மனித ஆய்வு குறியீடு சேர்க்கப்படும்: workflow_graph.png இது உறுதிப்படுத்தும் அலுவலகம் எப்போதும் உரிமைகளை மாற்ற அல்லது தடைகளை சுட்டிக்காட்ட முடியாத ஒரு முடிவை எடுக்க முயற்சிக்கிறது. you remain in control இதன் மூலம், நீங்கள் வெற்றிகரமாக உங்கள் AI அலுவலகத்திற்கு மனித மேலாண்மை சேர்க்கின்றீர்கள், உங்கள் கருவிகள் அல்லது backend logic ஐ மீண்டும் எழுத மாட்டீர்கள். முடிவு இந்த ஆலோசனையில், நாங்கள் ஒரு பாதுகாப்பான, மனித அறிவு AI அணுகுமுறை பயன்படுத்தி உருவாக்கப்பட்டது . Permit.io’s Access Request MCP ஐப் பயன்படுத்தவும் , லண்டனில் மற்றும் LangChain MCP மாற்றங்கள் Permit.io’s Access Request MCP ஐப் பயன்படுத்தவும் லண்டனில் LangChain MCP மாற்றங்கள் அலுவலகத்தை கட்டுப்பாட்டில்லாமல் செயல்படுத்தி விடாமல், நாம் அவருக்கு அதிகாரத்தை கொடுத்தோம். Access மற்றும் ஒரு பொறியாளராக இருந்தால் போதும். request defer critical decisions to human users, We covered: Permit Elements மற்றும் ReBAC பயன்படுத்தி உரிமைகள் மற்றும் உத்தரவாத விளைவுகளை மாற்ற எப்படி Permit MCP Server மூலம் இந்த விளைவுகளை வெளியிடுவது எப்படி How to Build a LangGraph-powered client that invokes these tools naturally இந்த கருவிகளை எவ்வாறு உருவாக்குவது மற்றும் interrupt() பயன்படுத்தி உண்மையான நேரத்தில் மனித-in-the-loop (HITL) சோதனைகளை சேர்க்க எப்படி முழுமையான ஆவணத்தை பார்க்க விரும்புகிறீர்களா? Check out the full demo . GitHub பதிவிறக்கம் Further Reading - Permissions Gateway மூலம் பாதுகாப்பான AI Collaboration பதிவிறக்க MCP GitHub Repo LangChain MCP Adapter க்கான பொருட்கள் ReBAC வகைகள் LangGraph interrupt() குறிச்சொல்