301 mga pagbabasa
301 mga pagbabasa

Sa ilalim ng Startup: Paano Binubuo ng OpenLedger ang isang Blockchain-Native AI Ecosystem

sa pamamagitan ng Ishan Pandey4m2025/05/26
Read on Terminal Reader

Masyadong mahaba; Upang basahin

OpenLedger ay decentralizing AI na may transparency na paghahatid ng data, mga rewards, at mga ekonomiya na batay sa mga agensya. Makikita kung paano ang kanilang team ay naglalakbay upang gumawa ng AI responsibility.
featured image - Sa ilalim ng Startup: Paano Binubuo ng OpenLedger ang isang Blockchain-Native AI Ecosystem
Ishan Pandey HackerNoon profile picture

Kapag ang AI at blockchain converge, isang proyekto ay nasa paglipas ng revolution na ito: OpenLedger. Sa mga promise ng pag-decentralize model training, pag-reward data attribution, at power agent economies, ang OpenLedger ay bumubuo sa isang bagong era ng transparan at community-owned AI.

Sa interview na ito, nagpasya kami sa core contributor Kamesh upang malaman ang mga prinsipyo, mga innovations, at roadmap na sumusunod sa OpenLedger's unique thesis.

Ishan Pandey:Hi Kamesh, it's a pleasure to welcome you to our "Behind the Startup" series. Maaari mong magsisimula sa pamamagitan ng sabihin sa amin tungkol sa iyo at kung paano mo naka-impormasyon sa OpenLedger?


Kamesh:Hey Ishan, ako ay isang core contributor sa OpenLedger. Bago sa OpenLedger, nagtatrabaho ako sa isang AI / ML research and development company habang nagtatrabaho ako sa mga enterprise kliyente tulad ng Walmart, Cadbury at higit pa. Mayroong ilang pangunahing mga problema na nakikita namin sa segmento ng AI, na kung saan ay ang mga modelo ng black box at hindi ng transparency, at na walang paraan upang malaman kung ano ang data ay nagdadala sa isang espesyal na inference. Ang mas mataas na problema ay na ang mga centralized na kumpanya ay hindi fairly na-compensate ang kanilang data contributors, at ito ay kung ano ang kami ay nagtatrabaho sa OpenLedger.


Ishan Pandey:Ang OpenLedger ay tinutukoy bilang ang "blockchain na binuo para sa AI." Maaari mong ipasok sa amin ang gap sa kasalukuyang infrastructure na ang OpenLedger ay nagtatrabaho at bakit ang moment sa oras na ito ay kritikal?


Kamesh:Tulad ng nakaraan, ang mga centralized na kumpanya ay nagtrabaho ang kanilang mga modelo ng AI sa mga data ng mga gumagamit nang walang permission at nakuha ang mga bilyong dolyar nang hindi magbayad ng anumang tao. Sa OpenLedger, ang bawat step ng pagsasanay, data source, at pag-upgrade ng modelo ay nagbibigay ng isang trace na ang lahat ay maaaring i-inspect. Ito ay mahalaga ngayon dahil ang mga tao ay nag-iisip sa AI para sa financial advice, mga suggestion sa kalusugan, at kahit na paghahatid ng mga elections. Nang nagtatrabaho sa tulad ng mga sensitibo na topics, ito ay mahalaga upang matugunan na ang modelo ay gumagamit ng aklat na data at hindi halusin. Sa pamamagitan ng paggamit ng Proof of Attribution, maaari naming ilipat ang data na


Ishan Pandey:Ang isa sa mga mas ambitioso na mga ideya sa ilalim ng OpenLedger ay upang lumikha ng pag-atribusyon-based mga rewards para sa data at modelo kontribusyon.


Kamesh:Pag-iisip ng isang shared on-chain history na i-record ang bawat dataset at model tweak kasama ang wallet na inilathala ito. Kapag ang network ay nagtrabaho ng isang bagong bersyon o sumusuporta sa isang user query, ito ay bumabalik sa pamamagitan ng istorya na upang makita kung ano ang mga kontribusyon ay nagtatagumpay. Sa bawat pagkakataon ang iyong entry ay dumating, automatically makakuha ka ng isang bahagi ng bayad na nakatuon sa iyon. Ang impormasyon na ito ay publikong, kaya ang lahat ay maaaring buksan ang explorer at patakbuhin na kung paano ang kanilang trabaho ay ginagamit at kung ano ang itinatag nito.


Ishan Pandey:Tungkol sa Model Factory at OpenLoRA. Sa isang teknolohiya, kung paano ang mga tool na ito ay binuo upang makuha ang resource sharing, GPU bottlenecks, at ang mga pangangailangan ng model iteration sa scale?


Kamesh:Tingnan ang Model Factory bilang isang walang code platform kung saan ang lahat ay maaaring i-fine-tune ang isang espesyalista na modelo ng wika nang walang pag-alok ng isang buong data center. Ipinili mo ang isang base model at piliin ang mga parameter. Kapag ang iyong fine-tune ay dumating, ito ay i-save bilang isang madaling LoRA adapter, kaya ang maraming mga bersyon ay maaaring mag-living side-by-side nang hindi kumain ng malaking halaga ng memory o bandwidth. OpenLoRA pagkatapos ay nagbibigay-daan sa iyo upang i-connect ang mga adapters na ito sa isang shared base model sa panahon ng inference, kaya ang isang single GPU ay maaaring i-switch sa pagitan ng mga pamantayan, na nagbibigay ng iteration sa pagitan. Model Factory at OpenLoRA ay


Ishan Pandey:Maaari mong i-introduce ang isang konsepto na tinatawag na "Proof of Attribution (POA)," kung ano ang sasabihin dito, at kung paano mo sigurado na ito ay isang reliable metric sa pag-evaluate agent activity?


Kamesh:Ang proof of attribution ay kung paano kami nag-track kung ano ang data ay ginagamit ng modelo upang makakuha ng isang tiyak na inference at i-reward ang bawat mahalagang kontribusyon. Kapag ang iyong data ay ginagamit sa pamamagitan ng isang modelo upang lumikha ng isang inference, ito ay na-record sa chain. Sa bawat pagkakataon na ang mga gumagamit ay tinatanggap sa modelo, isang bahagi ng mga revenue ay automatically na-routing sa iyo, at ang buong trail ay binubuo para sa lahat upang i-verify. Ito ay nagbibigay-daan sa mga contributors upang makita ang pag-evidence ng kanilang trabaho sa chain at nagbibigay-daan sa kanila upang makakuha ng isang fairly na reward para sa ito.


Ishan Pandey:Ang AI royalty bilang isang konsepto ay nagtatagumpay sa long-term tracking at trust. Paano planong magtatagumpay sa mga problema ng model forking, proxy paggamit, at downstream value attribution sa pagitan ng mga agente ng AI?


Kamesh:Upang maiwasan ang mga problema tulad ng model forking at paggamit ng proxy, kami ay mag-host ang lahat ng mga modelo natin at external access ay sa pamamagitan ng API lamang.


Ishan Pandey:Maaari mong ibahagi ang susunod na set ng mga milestones na nagtatrabaho sa iyo, at kung ano ang mga developer ay maaaring matanggap kapag nagtatrabaho sa OpenLedger sa kanyang kasalukuyang phase?


Kamesh:Ang mga contributors ay na-spinning up nodes at streaming real data sa network. Kami ay kasalukuyang may higit sa 4 milyong aktibo na nodes na gumagana sa aming testnet, at kami ay just wrapped up Epoch 2. Mayroon kaming higit sa 10 mga proyekto na binuo sa atin, kabilang ang isang former Google DeepMind researcher. Kami ay din ay napaka-exhilarated upang ibahagi na kami ay magkakaroon ng malapit para sa aming TGE at mainnet launch.


Ishan Pandey:Sa katunayan, bilang isang tao na bumuo ng infrastructure ng deep-tech, kung ano ang advice mong ibinigay sa mga developer o mga mananaliksik na naghahanap upang i-enter sa pagitan ng decentralized AI?


Kamesh:Ang pinakamahusay na tip na maaari ko magbigay sa mga tao ay upang matatagpuan ang iyong produkto simpleng. Ang mga tao ay dapat malaman kung ano ang ginagawa mo sa unang ilang minuto. Ang mga gumagamit ay interesado sa higit pa tungkol sa kung ang isang produkto ay gumagana nang malusog at solves ang kanilang problema sa halip ng mga fancy keywords.


Huwag kang gagaw ng pasiya na nagmamadali!


Vested Interest Disclosure: Ang autor na ito ay isang independiyenteng contributor na nag-publish sa pamamagitan ng aming mga negosyo blogging program. HackerNoon ay nag-reviewed ang report para sa kalidad, ngunit ang mga claim sa itaas ay sa mga awtor. #DYO

Mga pahinang tumuturo sa Interest: Ito ay isang independiyenteng contributor na nag-publish sa pamamagitan ng aming mga negosyo blogging program. HackerNoon ay reviewed ang report para sa kalidad, ngunit ang mga claim dito ay sa mga awtor. #DYO

Mga pahinang tumuturo sa Interest:Mga Blog sa Negosyo


Trending Topics

blockchaincryptocurrencyhackernoon-top-storyprogrammingsoftware-developmenttechnologystartuphackernoon-booksBitcoinbooks