301 lectures
301 lectures

Derrière la start-up : comment OpenLedger construit un écosystème d’IA natif de Blockchain

par Ishan Pandey4m2025/05/26
Read on Terminal Reader

Trop long; Pour lire

OpenLedger décentralise l’IA grâce à l’attribution de données transparente, aux récompenses et aux économies basées sur les agents.
featured image - Derrière la start-up : comment OpenLedger construit un écosystème d’IA natif de Blockchain
Ishan Pandey HackerNoon profile picture

Alors que l'IA et la blockchain convergent, un projet se trouve à l'intersection de cette révolution: OpenLedger.Avec des promesses de décentralisation de la formation des modèles, d'attribution de récompenses de données et d'économies d'agents de puissance, OpenLedger pousse vers une nouvelle ère d'IA transparente et appartenant à la communauté.

Dans cette interview, nous nous sommes assis avec le contributeur principal Kamesh pour comprendre les principes, les innovations et la feuille de route qui sous-tendent la thèse unique d’OpenLedger.

Ishan Pandey:Bonjour Kamesh, c'est un plaisir de vous accueillir dans notre série "Behind the Startup".Pouvez-vous commencer par nous parler de vous-même et de votre implication avec OpenLedger?


Kamesh:Hey Ishan, je suis un contributeur de base chez OpenLedger. Avant OpenLedger, je travaillais sur une société de recherche et de développement d'IA/ML au cours de laquelle j'ai travaillé avec des clients d'entreprise comme Walmart, Cadbury et plus. Il y avait peu de problèmes principaux que nous avons remarqués dans le segment de l'IA, qui est les modèles de boîte noire et le manque de transparence, et qu'il n'y avait aucun moyen de savoir quelles données ont conduit à une conclusion spécifique.


Ishan Pandey:OpenLedger est positionné comme la "blockchain construite pour l'IA."Pouvez-vous nous marcher à travers le fossé dans l'infrastructure actuelle que OpenLedger essaie de résoudre et pourquoi ce moment dans le temps est critique?


Kamesh:Comme mentionné précédemment, les sociétés centralisées ont formé leurs modèles d’IA sur les données des utilisateurs sans autorisation et ont gagné des milliards de dollars sans payer personne de manière équitable. Sur OpenLedger, chaque étape de formation, source de données et mise à niveau de modèle laisse une trace que n’importe qui peut inspecter. Cela compte maintenant parce que les gens demandent à l’IA des conseils financiers, des suggestions de santé et même une couverture électorale. Tout en traitant de tels sujets sensibles, il est important de s’assurer que le modèle utilise des données précises et non hallucinantes. En utilisant la preuve d’attribution, nous pouvons éliminer les données qui ont conduit à une conclusion nuisible spécifique, assurant la sécurité dans


Ishan Pandey:L’une des idées les plus ambitieuses de OpenLedger est de créer des récompenses basées sur l’attribution pour les contributions de données et de modèles.


Kamesh:Pensez à un historique partagé sur la chaîne qui enregistre chaque ajustement de données et de modèle ainsi que le portefeuille qui l'a soumis. Chaque fois que le réseau entraîne une nouvelle version ou répond à une requête d'utilisateur, il regarde en arrière dans cet historique pour voir quelles contributions ont été impliquées. Chaque fois que votre entrée apparaît, vous recevez automatiquement une partie de la redevance liée à cette action. Ces informations sont publiques, de sorte que tout le monde peut ouvrir l'explorateur et suivre exactement comment leur travail a été utilisé et ce qu'il a gagné.


Ishan Pandey:Parlons de Model Factory et d’OpenLoRA.D’un point de vue technique, comment ces outils sont-ils construits pour gérer le partage des ressources, les embouteillages GPU et les exigences d’itération des modèles à l’échelle?


Kamesh:Pensez à Model Factory comme une plate-forme sans code où tout le monde peut ajuster un modèle de langue spécialisée sans louer un centre de données entier. Vous choisissez un modèle de base et sélectionnez les paramètres. Lorsque votre ajustement finit, il est enregistré comme un adaptateur LoRA léger, de sorte que de nombreuses versions peuvent vivre côte à côte sans consommer d'énormes quantités de mémoire ou de bande passante. OpenLoRA vous permet ensuite de brancher ces adaptateurs sur un modèle de base partagé pendant la déduction, de sorte qu'une seule GPU peut passer entre des dizaines de spécialisations, permettant une itération à l'échelle. Model Factory et OpenLoRA sont des piliers très importants de l'écosystème car ils permettent à tout le monde de participer au


Ishan Pandey:Vous introduisez également un concept appelé «Proof of Attribution (POA)», ce qui est exactement mesuré ici, et comment vous assurez-vous qu’il s’agit d’une mesure fiable dans l’évaluation de l’activité de l’agent?


Kamesh:La preuve d’attribution est la façon dont nous suivons quelles données ont été utilisées par le modèle pour arriver à une déduction spécifique et récompenser chaque contribution significative. Lorsque vos données sont utilisées par un modèle pour créer une déduction, elle est enregistrée sur la chaîne. Chaque fois que les utilisateurs comptent sur le modèle, une partie des revenus est automatiquement redirigée vers vous, et l’ensemble de la piste est ouvert à quiconque pour vérifier. Il permet aux contributeurs de voir la preuve de leur travail sur la chaîne et leur permet d’être récompensés équitablement.


Ishan Pandey:Les droits d’auteur d’IA dépendent du suivi et de la confiance à long terme.Comment prévoyez-vous gérer les problèmes de forgeage de modèle, d’utilisation de proxy et d’attribution de valeur en aval parmi les agents de l’IA?


Kamesh:Notre priorité est de veiller à ce que les contributeurs reçoivent toujours une compensation équitable.Pour éviter des problèmes tels que le forking de modèle et l'utilisation de proxy, nous allons héberger tous les modèles nous-mêmes et l'accès externe sera uniquement via l'API.


Ishan Pandey:Pourriez-vous partager le prochain ensemble de jalons vers lesquels vous travaillez, et à quoi les développeurs peuvent s'attendre lorsqu'ils s'engagent avec OpenLedger dans sa phase actuelle?


Kamesh:Nous avons actuellement plus de 4 millions de nœuds actifs en cours d'exécution sur notre testnet, et nous venons d'emballer Epoch 2. Nous avons déjà plus de 10 projets construits sur nous, y compris un ancien chercheur Google DeepMind. Nous sommes également très excités de partager que nous allons bientôt lancer notre TGE et mainnet.


Ishan Pandey:Enfin, en tant que personne qui construit une infrastructure de technologie profonde, quel conseil donneriez-vous aux développeurs ou aux chercheurs qui cherchent à entrer dans cette intersection de l’IA décentralisée?


Kamesh:Le meilleur conseil que je peux donner aux gens est de garder votre produit simple.Les gens devraient être en mesure de comprendre ce que vous faites dans les premières minutes.Les utilisateurs se soucient davantage de savoir si un produit fonctionne correctement et résout leur problème au lieu de mots clés fantaisistes.


N’oubliez pas d’aimer et de partager l’histoire !


Déclaration d'intérêt: Cet auteur est un contributeur indépendant publiant via notre programme de blogging d'affaires. HackerNoon a examiné le rapport pour la qualité, mais les allégations contenues ici appartiennent à l'auteur. #DYO

Déclaration d’intérêt : Cet auteur est un contributeur indépendant publiant via notre programme de blogging d'affaires. HackerNoon a examiné le rapport pour la qualité, mais les allégations contenues ici appartiennent à l'auteur. #DYO

Déclaration d’intérêt :Blogging d’affaires


Trending Topics

blockchaincryptocurrencyhackernoon-top-storyprogrammingsoftware-developmenttechnologystartuphackernoon-booksBitcoinbooks