A medida que a liña entre a automatización de IA e a axencia autónoma se esvaece, emerxe unha nova fronteira técnica, axentes de confianza e verificables que poden actuar de forma independente en todos os ecosistemas.Execución, para explorar o que este cambio significa para o futuro da infraestrutura intelixente, que problemas resolve e como os desenvolvedores e as empresas deberían pensar doutro xeito sobre a computación baseada en axentes.
Ishan Pandey:Para comezar, pode explicar que "Agentes de IA de confianza" son realmente no seu marco, e como difiren dos axentes de IA típicos que vemos en produtos baseados en automatización ou LLM?
Matthieu Jung:Todos sabemos que os axentes de IA son a nova interface. Cambian a forma en que creamos, construímos e colaboramos. Pero para escalar, os axentes necesitan unha cousa: confianza. A privacidade é non negociable. Os axentes traballan con datos sensibles: prompts privados, activos criptográficos, carteiras. Sen privacidade non hai confianza, e sen axentes de confianza non escalan. É por iso que os axentes de IA de confianza funcionan enteiramente dentro de enclaves seguros como Intel TDX. A nosa pila de computación confidencial mantén a súa lóxica, datos e accións privadas, mesmo desde o host, mentres xera probas verificables de execución. A diferenza dos axentes típicos baseados en LLM que dependen de APIs centrais e expoñen datos de usuario, iExec
Ishan Pandey:A colaboración entre iExec e Eliza OS parece combinar a infraestrutura de privacidade coa computación autónoma.Como está tecnicamente conseguindo tanto a verificabilidade como a confidencialidade?
Matthieu Jung:Esa é unha gran pregunta, e é central no que fai que os axentes de IA de confianza sexan diferentes.A tensión entre a confidencialidade e a verificabilidade é real na maioría das arquitecturas, pero non na nosa.
Co paquete ElizaOS x iExec, estamos a aproveitar Trusted Execution Environments (TEEs), especificamente Intel TDX, para illar non só a lóxica do axente construída con ElizaOS, senón tamén o propio modelo de IA, o que se emprega para adestrar ou axustar o axente. Isto é crucial. Isto significa que todo o ambiente de execución, incluíndo tanto a lóxica como os parámetros do modelo sensible, están protexidos contra o acceso externo, mesmo de hosts de nube ou administradores do sistema. Ao mesmo tempo, estes enclaves xeran probas criptográficas que certifican a integridade da execución. Así é como conseguimos a verificabilidade: calquera pode verificar o que foi executado, sen ver como funciona. Non hai necesidade de escoller entre expoñer o modelo para
Ishan Pandey:Nun mundo onde moitas startups de IA dependen fortemente de APIs centralizadas e modelos pechados, que é necesario para construír axentes autónomos que son descentralizados polo deseño?
Matthieu Jung:Require unha nova pila que engade execución privada verificable ás APIs. Coa computación confidencial, iExec fai que sexa fácil probar cada acción na cadea. iExec acaba de lanzar o xerador de iApp, unha ferramenta de desenvolvemento que permite aos desenvolvedores construír e implementar aplicacións confidenciais en minutos.
Ishan Pandey:Como os axentes de axuda da infraestrutura de iExec demostran o seu traballo, estado ou lóxica a terceiros?
Matthieu Jung:iExec executa axentes dentro de enclaves Intel TDX que xeran probas asinadas do código, entradas e saídas. esas probas poden ser compartidas en cadea para que calquera poida verificar a identidade do enclave e confirmar que o axente fixo exactamente o que prometeu, sen expoñer nunca os datos privados ou código.
Ishan Pandey:Cal é o potencial inconveniente de permitir que os axentes de IA autónomos operen en cadeas ou aplicacións?Estamos preparados para unha intelixencia verdadeiramente compostable?
Matthieu Jung:Permitir que os axentes se movan a través de cadeas ou aplicacións xera novas superficies de ataque e interaccións inesperadas.Un bug nun protocolo podería cascarse noutro.Ademais, sen estándares claros, a proba de responsabilidade ou a reversión de malas accións faise difícil.É por iso que a confianza e a gobernanza aínda son tan importantes cando se trata de axentes descentralizados e automatizar accións na blockchain.
Ishan Pandey:Podes guiarnos a través dun exemplo hipotético ou caso de uso onde un axente de IA de confianza está implantado na natureza, o que fai, como proba a súa execución e por que é mellor que os modelos tradicionais?
Matthieu Jung:Imaxina os axentes de IA que negocian por ti, xestionando estratexias de DeFi, lendo sinais, colocando comercios e adaptando carteiras. Debe interactuar con datos sensibles e activos como a súa clave privada ou carteira. Con iExec, a lóxica do axente corre de forma confidencial nun TEE. Os comerciantes poden protexer os seus conxuntos de datos, compartir o acceso de forma segura cun modelo e mesmo recibir alertas confidenciais. Cada comercio e cada decisión é executada de forma segura e verificable. Poden incluso monetizar os seus datos comerciais privados. Non tes que confiar no desenvolvedor ou no infra.
Ishan Pandey:Por último, para os construtores e investidores que ven o desenvolvemento da narración do axente de IA de confianza, cales son os sinais aos que deben prestar atención nos próximos 12 meses?
Matthieu Jung:Xa sabemos que os axentes son a nova interface. E, por desgraza, iso significa que comezaremos a ver fugas de prompts de axentes e exposicións de datos, e iso subliñará por que a execución privada importa. Outra innovación que levará aos axentes ao seguinte nivel é MCP ou Protocolo de Contexto Modelo. Permite aos axentes compartir de forma segura instantáneas cifradas do seu estado de traballo mentres se moven e iteran en múltiples aplicacións. iExec xa implantou un servidor MCP. Estas tendencias revelarán quen está realmente construíndo axentes descentralizados e de primeira liña fronte aos que aínda están ligados a APIs pechadas.
Non esquezas gustar e compartir a túa historia!