A medida que la línea entre la automatización de la IA y la agencia autónoma se desvanece, una nueva frontera técnica está apareciendo, agentes confiables y verificables que pueden actuar de forma independiente en todos los ecosistemas.Ejercicio, para explorar qué significa este cambio para el futuro de la infraestructura inteligente, qué problemas resuelve, y cómo los desarrolladores y las empresas deben pensar de manera diferente sobre la computación basada en agentes.
Ishan Pandey:Para empezar, ¿puede explicar qué son realmente los "Agentes de IA confiables" en su marco, y cómo se diferencian de los agentes de IA típicos que vemos en productos basados en la automatización o LLM?
Matthieu Jung:Todos sabemos que los agentes de IA son la nueva interfaz. Cambian la forma en que creamos, construimos y colaboramos. Pero para escalar, los agentes de IA necesitan una cosa: confianza. La privacidad es no negociable. Los agentes trabajan con datos sensibles: llamadas privadas, activos criptográficos, carteras. Sin privacidad no hay confianza, y sin agentes de confianza no escalan. Es por eso que los agentes de IA confiados funcionan completamente dentro de enclaves seguros como Intel TDX. Nuestra pila de computación confidencial mantiene su lógica, datos y acciones privadas, incluso desde el anfitrión, mientras genera pruebas verificables de ejecución. A diferencia de los agentes típicos basados en LLM que dependen de APIs centrales y exponen datos de los usuarios,
Ishan Pandey:La colaboración entre iExec y Eliza OS parece combinar la infraestructura de privacidad con la computación autónoma. ¿Cómo está técnicamente logrando tanto la verificabilidad como la confidencialidad?
Matthieu Jung:Esa es una gran pregunta, y es central en lo que hace que los agentes de IA de confianza sean diferentes.La tensión entre la confidencialidad y la verificabilidad es real en la mayoría de las arquitecturas, pero no en la nuestra.
Con la pila ElizaOS x iExec, estamos aprovechando los entornos de ejecución de confianza (TEEs), específicamente Intel TDX, para aislar no solo la lógica de agente construida con ElizaOS, sino también el modelo de IA en sí, el que se utiliza para entrenar o ajustar el agente. Esto es crucial. Esto significa que todo el entorno de ejecución, incluyendo tanto la lógica como los parámetros del modelo sensible, están protegidos contra el acceso externo, incluso de los hosts en la nube o de los administradores del sistema. Al mismo tiempo, estos enclaves generan pruebas criptográficas que certifican la integridad de la ejecución. Así es como logramos la verificabilidad: cualquiera puede verificar lo que se ejecutó, sin ver cómo funciona. No hay necesidad de
Ishan Pandey:En un mundo donde muchas startups de IA dependen fuertemente de APIs centralizadas y modelos cerrados, ¿qué hace falta para construir agentes autónomos que son descentralizados por diseño?
Matthieu Jung:Se necesita una nueva pila que añade ejecución privada verificable a las APIs. Con la computación confidencial, iExec hace que sea fácil probar cada acción en la cadena. iExec acaba de lanzar el generador de iApp, una herramienta de desarrollo que permite a los desarrolladores construir y desplegar aplicaciones confidenciales en minutos. Nuestro equipo también está lanzando servidores de Protocolo de Modelo de Contexto MCP optimizados para Agentes de confianza para que puedan escalar mientras permanecen verificables.
Ishan Pandey:¿Cómo los agentes de ayuda de la infraestructura de iExec demuestran su trabajo, estado o lógica a partes externas?
Matthieu Jung:iExec ejecuta agentes dentro de los enclaves Intel TDX que generan pruebas firmadas del código, entradas y salidas.Estas pruebas pueden ser compartidas en cadena para que cualquiera pueda verificar la identidad del enclave y confirmar que el agente hizo exactamente lo que prometía, sin exponer nunca los datos privados o el código.
Ishan Pandey:¿Cuál es la desventaja potencial de permitir que los agentes de IA autónomos operen a través de cadenas o aplicaciones? ¿Estamos listos para la inteligencia verdaderamente compostable?
Matthieu Jung:Permitir que los agentes se desplacen a través de cadenas o aplicaciones genera nuevas superficies de ataque e interacciones inesperadas.Un error en un protocolo podría caer en otro. Además, sin estándares claros, demostrar responsabilidad o revertir malas acciones se vuelve complicado.
Ishan Pandey:¿Puede guiarnos a través de un ejemplo hipotético o caso de uso en el que se implementa un Agente de IA confiable en el campo, qué hace, cómo demuestra su ejecución y por qué es mejor que los modelos tradicionales?
Matthieu Jung:Imagínese a los agentes de IA que negocian para usted, gestionando estrategias de DeFi, leyendo señales, colocando comercios y adaptando carteras. Debe interactuar con datos y activos sensibles como su clave privada o cartera. Con iExec, la lógica del agente corre de forma confidencial en un TEE. Los comerciantes pueden proteger sus conjuntos de datos, compartir acceso de forma segura con un modelo e incluso recibir alertas confidenciales. Cada comercio y cada decisión se ejecuta de forma segura y verificable.
Ishan Pandey:Finalmente, para los constructores e inversores que ven el desarrollo de la narración de Trusted AI Agent, ¿cuáles son las señales a las que deben prestar atención durante los próximos 12 meses?
Matthieu Jung:Ya sabemos que los agentes son la nueva interfaz. Y, por desgracia, eso significa que comenzaremos a ver fugas de prompts de agentes y exposiciones de datos, y eso subrayará por qué la ejecución privada importa. Otra innovación que llevará a los agentes al siguiente nivel es MCP o Protocolo de Contexto Modelo. Permite a los agentes compartir de forma segura instantáneas cifradas de su estado de trabajo a medida que se mueven e iteran en múltiples aplicaciones. iExec ya ha desplegado un servidor MCP. Estas tendencias revelarán quién está realmente construyendo agentes descentralizados, de primer orden de privacidad frente a aquellos que todavía están vinculados a APIs cerradas.
¡No te olvides de gustar y compartir la historia!