301 lezingen
301 lezingen

Behind the Startup: Hoe OpenLedger een blockchain-native AI-ecosysteem bouwt

door Ishan Pandey4m2025/05/26
Read on Terminal Reader

Te lang; Lezen

OpenLedger decentraleert AI met transparante gegevensattributie, beloningen en agent-gebaseerde economieën.Leer hoe hun team van plan is om AI verantwoordelijk te maken.
featured image - Behind the Startup: Hoe OpenLedger een blockchain-native AI-ecosysteem bouwt
Ishan Pandey HackerNoon profile picture

Naarmate AI en blockchain convergen, staat één project op het kruispunt van deze revolutie: OpenLedger.Met beloften om modelopleiding te decentraliseren, data-attributie te belonen en power-agent-economieën, drijft OpenLedger naar een nieuw tijdperk van transparante en gemeenschapseigen AI.

In dit interview hebben we gezeten met de kern bijdrager Kamesh om de principes, innovaties en roadmap die OpenLedger's unieke proefschrift ondersteunen te begrijpen.

Ishan Pandey:Hallo Kamesh, het is een genoegen om u te verwelkomen in onze “Behind the Startup” serie.


Kamesh:Hey Ishan, ik ben een kern bijdrager bij OpenLedger. Voordat OpenLedger, werkte ik aan een AI / ML onderzoek en ontwikkeling bedrijf waarin ik werkte met zakelijke klanten zoals Walmart, Cadbury en meer. Er waren weinig belangrijke problemen die we opmerkten in het AI-segment, dat is de zwarte doos modellen en gebrek aan transparantie, en dat er geen manier was om te weten welke gegevens leiden tot een specifieke inferentie.


Ishan Pandey:OpenLedger wordt gepositioneerd als de "blockchain gebouwd voor AI." Kun je ons door de kloof in de huidige infrastructuur die OpenLedger probeert op te lossen en waarom dit moment in de tijd cruciaal is?


Kamesh:Zoals eerder vermeld, hebben gecentraliseerde bedrijven hun AI-modellen op gebruikersgegevens getraind zonder toestemming en hebben ze miljarden dollars verdiend zonder iemand eerlijk te betalen. Op OpenLedger laat elke trainingsstap, gegevensbron en modelupgrade een spoor achter dat iedereen kan inspecteren. Dit is nu belangrijk omdat mensen AI vragen om financieel advies, gezondheidsvoorstellen en zelfs verkiezingsdekking. Terwijl ze met dergelijke gevoelige onderwerpen omgaan, is het belangrijk om ervoor te zorgen dat het model nauwkeurige gegevens gebruikt en niet hallucinant. Door het gebruik van Proof of Attribution, kunnen we de gegevens elimineren die leiden tot een specifieke schadelijke inferentie, waardoor de veiligheid in gevoelige gebruiksgevallen wordt gewaarborgd.


Ishan Pandey:Een van de ambitieuzere ideeën achter OpenLedger is het creëren van attributiebaseerde beloningen voor gegevens- en modelbijdragen.


Kamesh:Denk aan een gedeelde geschiedenis op de keten die elke dataset en model tweak registreert samen met de portemonnee die het heeft ingediend. Telkens wanneer het netwerk een nieuwe versie traint of reageert op een gebruikersvraag, kijkt het terug door die geschiedenis om te zien welke bijdragen betrokken waren. Elke keer dat uw bericht verschijnt, ontvangt u automatisch een deel van de vergoeding gekoppeld aan die actie. Deze informatie is openbaar, zodat iedereen de explorer kan openen en precies kan volgen hoe hun werk is gebruikt en wat het heeft verdiend.


Ishan Pandey:Laten we het hebben over de Model Factory en OpenLoRA.Vanuit een technisch perspectief, hoe zijn deze tools gebouwd om te gaan met resource sharing, GPU bottlenecks en de eisen van model iteratie op schaal?


Kamesh:Denk aan Model Factory als een platform zonder code waar iedereen een gespecialiseerd taalmodel kan afstemmen zonder een volledig datacenter te huren. U kiest een basismodel en selecteert de parameters. Wanneer uw afstemmen voltooid is, wordt het opgeslagen als een lichte LoRA-adapter, dus veel versies kunnen naast elkaar leven zonder enorme hoeveelheden geheugen of bandbreedte te eten. OpenLoRA stelt u vervolgens in staat om die adapters tijdens inferentie aan te sluiten op een gedeeld basismodel, zodat een enkele GPU tussen tientallen specialisaties kan schakelen, waardoor iteratie op schaal mogelijk is. Model Factory en OpenLoRA zijn zeer belangrijke pijlers van het ecosysteem omdat ze iedereen in staat stellen deel te nemen aan AI-ontwikkeling zonder aanzienlijke kosten.


Ishan Pandey:U introduceert ook een concept genaamd "Proof of Attribution (POA)," wat precies wordt hier gemeten, en hoe zorgt u ervoor dat het een betrouwbare metric is bij het beoordelen van agentactiviteit?


Kamesh:Proof of Attribution is hoe we volgen welke gegevens door het model werden gebruikt om een specifieke inferentie te bereiken en elke betekenisvolle bijdrage te belonen. Wanneer uw gegevens door een model worden gebruikt om een inferentie te maken, wordt het op de keten opgenomen. Elke keer dat gebruikers op het model vertrouwen, wordt een deel van de inkomsten automatisch naar u teruggestuurd en het hele spoor is open voor iedereen om te controleren. Het stelt bijdragers in staat om het bewijs van hun werk op de keten te zien en hen in staat stelt om eerlijk te worden beloond.


Ishan Pandey:AI royalty als concept hangt af van langetermijntracking en vertrouwen.Hoe plan je om te gaan met kwesties van modelforking, proxy-gebruik en downstream-waardeverdeling over AI-agenten?


Kamesh:Om problemen zoals modelforking en proxy-gebruik te voorkomen, zullen we alle modellen zelf hosten en externe toegang zal alleen via API zijn.


Ishan Pandey:Kun je de volgende reeks mijlpalen delen waar je naar toe werkt, en wat ontwikkelaars kunnen verwachten wanneer ze zich bezighouden met OpenLedger in zijn huidige fase?


Kamesh:We hebben momenteel meer dan 4 miljoen actieve knooppunten op ons testnet, en we hebben net Epoch 2 opgebouwd. We hebben al meer dan 10 projecten opgebouwd, waaronder een voormalig Google DeepMind-onderzoeker. We zijn ook erg enthousiast om te delen dat we binnenkort gaan voor onze TGE en mainnet-lancering.


Ishan Pandey:Ten slotte, als iemand die deep-tech infrastructuur bouwt, welk advies zou u geven aan ontwikkelaars of onderzoekers die deze kruising van gedecentraliseerde AI willen betreden?


Kamesh:Het beste advies dat ik mensen kan geven is om uw product eenvoudig te houden. Mensen moeten in staat zijn te begrijpen wat u doet in de eerste paar minuten. Gebruikers geven meer om of een product soepel werkt en hun probleem oplost in plaats van fantasieke trefwoorden.


Vergeet niet om het verhaal te liken en te delen!


Vested Interest Disclosure: Deze auteur is een onafhankelijke bijdrager die publiceert via ons zakelijke bloggingprogramma. HackerNoon heeft het rapport beoordeeld op kwaliteit, maar de claims hierin behoren tot de auteur. #DYO

Vested Interest Disclosure: Deze auteur is een onafhankelijke bijdrager die publiceert via ons zakelijke bloggingprogramma. HackerNoon heeft het rapport beoordeeld op kwaliteit, maar de claims hierin behoren tot de auteur. #DYO

Geïnteresseerde interesse openbaarmaking:Business Blogging programma


L O A D I N G
. . . comments & more!

About Author

Ishan Pandey HackerNoon profile picture
Ishan Pandey@ishanpandey
Building and Covering the latest events, insights and views in the AI and Web3 ecosystem.

LABELS

DIT ARTIKEL WERD GEPRESENTEERD IN...

Trending Topics

blockchaincryptocurrencyhackernoon-top-storyprogrammingsoftware-developmenttechnologystartuphackernoon-booksBitcoinbooks