Ponieważ granica między automatyzacją sztucznej inteligencji a autonomicznymi agencjami jest niejasna, pojawia się nowa granica techniczna, zaufanych, weryfikowalnych agentów, którzy mogą działać niezależnie w całym ekosystemie.iExec, aby zbadać, co ta zmiana oznacza dla przyszłości inteligentnej infrastruktury, jakie problemy rozwiązuje i jak deweloperzy i firmy powinni myśleć inaczej o obliczeniach opartych na agentach.
Ishan Pandey:Na początek, czy możesz wyjaśnić, czym tak naprawdę są „zaufani agenci AI” w Twoim kontekście i w jaki sposób różnią się od typowych agentów AI, które widzimy w automatyzacji lub produktach opartych na LLM?
Matthieu Jung:Wszyscy wiemy, że agenci AI są nowym interfejsem. Zmieniają sposób, w jaki tworzymy, budujemy i współpracujemy. Ale aby rozwijać skalę, agenci potrzebują jednej rzeczy: zaufania. Prywatność jest nie do negocjacji. Agenci pracują z wrażliwymi danymi: prywatnymi poleceniami, aktywami kryptograficznymi, portfelami. Bez prywatności nie ma zaufania, a bez agentów zaufania nie rozszerzają się. To dlatego zaufani agenci AI działają całkowicie w bezpiecznych enklawach, takich jak Intel TDX. Nasz zestaw do przetwarzania poufnych danych zachowuje swoją logikę, dane i działania prywatne, nawet od hosta, generując weryfikowalne dowody wykonania. W przeciwieństwie do typowych agentów opartych
Ishan Pandey:Współpraca między iExec i Eliza OS wydaje się łączyć infrastrukturę prywatności z obliczeniami autonomicznymi. Jak technicznie osiągacie zarówno weryfikowalność, jak i poufność?
Matthieu Jung:To świetne pytanie i jest centralne w tym, co czyni zaufanych agentów AI różnymi. napięcie między poufnością a weryfikowalnością jest prawdziwe w większości architektur, ale nie w naszej.
Dzięki pakietowi ElizaOS x iExec wykorzystujemy Trusted Execution Environments (TEEs), w szczególności Intel TDX, aby wyizolować nie tylko logikę agenta zbudowaną z systemem ElizaOS, ale także sam model AI, który służy do szkolenia lub dopasowania agenta. To jest kluczowe. Oznacza to, że całe środowisko czasowe, w tym zarówno logiczne, jak i wrażliwe parametry modelu, jest chronione przed dostępem zewnętrznym, nawet od hostów chmurowych lub administratorów systemów. W tym samym czasie te enklawy generują dowody kryptograficzne, które potwierdzają integralność wykonania. W ten sposób osiąga się weryfikowalność: każdy może zweryfikować, co zostało wykonane, nie widząc, jak to działa. Nie ma potrzeby wyboru
Ishan Pandey:W świecie, w którym wiele startupów sztucznej inteligencji w dużej mierze opiera się na scentralizowanych interfejsach API i zamkniętych modelach, co trzeba zrobić, aby zbudować autonomicznych agentów, które są zdecentralizowane przez projekt?
Matthieu Jung:Z poufnym obliczaniem iExec ułatwia udowodnienie każdej czynności w łańcuchu. iExec właśnie uruchomił generator iApp, narzędzie deweloperskie, które pozwala deweloperom budować i wdrażać poufne aplikacje w ciągu kilku minut.
Ishan Pandey:W jaki sposób agenci pomocy infrastruktury iExec udowadniają swoją pracę, stan lub logikę stronom zewnętrznym?
Matthieu Jung:iExec uruchamia agentów w enklawach Intel TDX, które generują podpisane dowody kodu, wejść i wyjść. Te dowody mogą być udostępniane w łańcuchu, dzięki czemu każdy może zweryfikować tożsamość enklawy i potwierdzić, że agent wykonał dokładnie to, co obiecał, bez ujawniania prywatnych danych lub kodu.
Ishan Pandey:Jaka jest potencjalna wada umożliwienia autonomicznym agentom AI działania w łańcuchach lub aplikacjach?
Matthieu Jung:Pozwolenie agentom na poruszanie się po łańcuchach lub aplikacjach podnosi nowe powierzchnie ataku i nieoczekiwane interakcje. Błąd w jednym protokole może wpadnąć w inny. Plus, bez jasnych standardów, udowodnienie odpowiedzialności lub odwrócenie złych działań staje się trudne.
Ishan Pandey:Czy możesz przejść przez hipotetyczny przykład lub przypadek użycia, w którym zaufany agent AI jest rozmieszczony na dzikim powietrzu, co robi, jak udowadnia swoje wykonanie i dlaczego jest lepszy niż tradycyjne modele?
Matthieu Jung:Wyobraź sobie agentów sztucznej inteligencji, którzy handlują dla Ciebie, zarządzają strategiami DeFi, czytają sygnały, umieszczają transakcje i dostosowują portfele. Musi on wchodzić w interakcję z wrażliwymi danymi i aktywami, takimi jak twój prywatny klucz lub portfel. Dzięki iExec, logika agenta działa poufnie w TEE. Traderzy mogą chronić swoje zestawy danych, bezpiecznie udostępniać dostęp do modelu, a nawet otrzymywać poufne alerty. Każda transakcja i każda decyzja jest wykonywana w sposób bezpieczny i weryfikowalny. Mogą nawet monetyzować swoje prywatne dane handlowe.
Ishan Pandey:Wreszcie, dla budowniczych i inwestorów, którzy oglądają rozwój narracji Trusted AI Agent, na jakie sygnały powinni zwracać uwagę w ciągu najbliższych 12 miesięcy?
Matthieu Jung:Wiemy już, że agenci są nowym interfejsem. I niestety oznacza to, że zaczniemy widzieć wycieki wskazówek agentów i ekspozycji danych, a to podkreśli, dlaczego prywatne wykonywanie ma znaczenie. Inną innowacją, która zabierze agentów na kolejny poziom, jest protokół MCP lub Model Context Protocol. Pozwala agentom bezpiecznie udostępniać zaszyfrowane zdjęcia swojego stanu pracy, gdy poruszają się i powtarzają w wielu aplikacjach. iExec już wdrożył serwer MCP. Te trendy ujawnią, kto naprawdę buduje zdecentralizowanych, agentów na pierwszym miejscu w porównaniu do tych, którzy nadal są związani z zamkniętymi API.
Nie zapomnij polubić i podzielić się historią!