Terwyl die lyn tussen AI-automasies en outonome agentskappe vervaag, ontstaan 'n nuwe tegniese grens, betroubare, verifieerbare agente wat onafhanklik oor ekosisteme kan optree. , om te ondersoek wat hierdie verskuiwing beteken vir die toekoms van intelligente infrastruktuur, watter probleme dit oplos, en hoe ontwikkelaars en maatskappye anders moet dink oor agent-gebaseerde berekening. Ek het Om te begin, kan jy verduidelik wat "Trusted AI Agents" eintlik in jou raamwerk is, en hoe hulle verskil van die tipiese AI-agente wat ons sien in outomatiese of LLM-gebaseerde produkte? Ishan Pandey: Ons weet almal dat AI-agente die nuwe koppelvlak is. Hulle verander hoe ons skep, bou en saamwerk. Maar om te skaal, benodig agente een ding: vertroue. Privaatheid is nie-onderhandelbaar nie. Agente werk met sensitiewe data: private oproepe, kriptogewigtighede, portefeuljes. Sonder privaatheid is daar geen vertroue, en sonder vertroue-agente nie skaal nie. Dit is hoekom vertroue AI-agente heeltemal binne veilige enklawe soos Intel TDX hardloop. Ons vertroue-berekeningsstapel hou hul logika, data en aksies privaat, selfs van die gasheer af, terwyl dit verifieerbare bewyse van uitvoering genereer. In teenstelling met tipiese LLM-gebaseerde agente wat op sentrale API' Matthieu Jung: Die samewerking tussen iExec en Eliza OS blyk privaatheidsinfrastruktuur te kombineer met outonome berekening. Ishan Pandey: Dit is 'n groot vraag, en dit is sentrale in wat vertroude AI-agente anders maak. Die spanning tussen vertroulikheid en verifieerbaarheid is werklik in die meeste argitekture, maar nie in ons nie. Matthieu Jung: Met die ElizaOS x iExec-stapel gebruik ons Trusted Execution Environments (TEEs), spesifiek Intel TDX, om nie net die agentlogika wat met ElizaOS gebou is nie, maar ook die AI-model self, die een wat gebruik word om die agent te oefen of af te pas. Dit is noodsaaklik. Dit beteken dat die hele runtime-omgewing, insluitend die logika en die sensitiewe modelparameters, teen eksterne toegang beskerm word, selfs van wolkhoste of stelseladministrators. Terselfdertyd genereer hierdie enklawe kriptografiese bewyse wat die integriteit van die uitvoering sertifiseer. Dit is hoe ons verifikasie bereik: elkeen kan verifieer wat uitgevoer is, sonder om te sien hoe dit werk. Daar is geen keuse tussen die model bloot te stel In 'n wêreld waar baie AI-startups sterk afhanklik is van gesentraliseerde API's en geslote modelle, wat neem dit om outonoom agente te bou wat deur ontwerp gedesentraliseer word? Ishan Pandey: Dit neem 'n nuwe stapel wat private verifieerbare uitvoering by API's voeg. Met vertroulike berekening maak iExec dit maklik om elke aksie op die ketting te bewys. iExec het net die iApp generator, 'n ontwikkelingsinstrument wat ontwikkelaars toelaat om vertroulike programme in minute te bou en te implementeer, gelansioneer. ons span lanseer ook MCP Model Context Protocol servers wat geoptimaliseer is vir betroubare agente sodat hulle kan skaal terwyl hulle verifieerbaar bly. Matthieu Jung: Hoe bewys die iExec-infrastruktuurhulpagente hul werk, toestand of logika aan eksterne partye? Ishan Pandey: iExec bestuur agente binne Intel TDX enklawe wat gesignerde bewyse van die kode, inputs en outputs genereer. Hierdie bewyse kan op ketting gedeel word sodat enigeen die identiteit van die enklawe kan verifieer en bevestig dat die agent presies gedoen het wat dit belowe het, sonder om ooit die private data of kode bloot te stel. Matthieu Jung: Wat is die potensiële nadele van die toelaating van outonome AI-agente om oor ketting of toepassings te bedryf? Ishan Pandey: Die toelaating van agente om oor ketting of apps te roer, verhoog nuwe aanvalsoppervlakke en onverwagte interaksies. 'N fout in een protokoll kan in 'n ander cascade. Plus, sonder duidelike standaarde, word verantwoordelikheid bewys of slegte aksies omkering moeilik. Matthieu Jung: Kan jy ons loop deur 'n hipotetiese voorbeeld of gebruik geval waar 'n Vertroue AI Agent in die wild implementeer word, wat dit doen, hoe dit bewys sy uitvoering, en waarom dit beter is as tradisionele modelle? Ishan Pandey: Stel jou voor dat AI-agente vir jou handel, DeFi-strategieë bestuur, signale lees, handel plaas en portefeulje aanpas. Dit moet met sensitiewe data en eiendomme soos jou private sleutel of portefeulje kommunikeer. Met iExec loop die agent se logika vertroulik in 'n TEE. Handelaars kan hul dataset beskerm, toegang veilig met 'n model deel en selfs vertroulike waarschuwings ontvang. Elke handel en elke besluit word veilig en verifieerbaar uitgevoer. Hulle kan selfs hul private handelsdata monetiseer. Jy hoef nie die ontwikkelaar of die infra te vertrou nie. Matthieu Jung: Ten slotte, vir bouers en beleggers wat die Trusted AI Agent-verhaal sien ontvou, wat is die signale wat hulle oor die volgende 12 maande moet aandag gee? Ishan Pandey: Ons weet reeds dat agente die nuwe koppelvlak is. En ongelukkig beteken dit dat ons leaks van agente-aanwysings en data blootstellings sal begin sien, en dit sal onderstreep waarom privaat uitvoering belangrik is. Nog 'n innovasie wat agente na die volgende vlak sal neem, is MCP of Model Context Protocol. Dit laat agente veilig versleutelde snapshots van hul werksstaat deel as hulle oor verskeie programme beweeg en herhaal. iExec het reeds 'n MCP-bediener ingesluit. Matthieu Jung: Moenie vergeet om die storie te hou en te deel nie!