301 lecturas
301 lecturas

Detrás de la startup: cómo OpenLedger está construyendo un ecosistema de IA nativo de Blockchain

por Ishan Pandey4m2025/05/26
Read on Terminal Reader

Demasiado Largo; Para Leer

OpenLedger está descentralizando la IA con atribución de datos transparente, recompensas y economías basadas en agentes.
featured image - Detrás de la startup: cómo OpenLedger está construyendo un ecosistema de IA nativo de Blockchain
Ishan Pandey HackerNoon profile picture

A medida que la IA y la blockchain convergen, un proyecto se encuentra en la intersección de esta revolución: OpenLedger.Con las promesas de descentralizar la formación de modelos, la atribución de recompensas de datos y las economías de agentes de poder, OpenLedger está empujando hacia una nueva era de IA transparente y propiedad de la comunidad.

En esta entrevista, nos sentamos con el principal colaborador Kamesh para comprender los principios, las innovaciones y el mapa de ruta que apoyan la tesis única de OpenLedger.

Ishan Pandey:Hola Kamesh, es un placer darte la bienvenida a nuestra serie “Behind the Startup”. ¿Podrías empezar contándonos sobre ti mismo y cómo te involucraste con OpenLedger?


Kamesh:Hola Ishan, soy un colaborador principal en OpenLedger. Antes de OpenLedger, estaba trabajando en una empresa de investigación y desarrollo de IA/ML durante la cual trabajé con clientes empresariales como Walmart, Cadbury y más.Había pocos problemas principales que notamos en el segmento de IA, que son los modelos de cajas negras y la falta de transparencia, y que no había manera de saber qué datos conducían a una inferencia específica.El problema más grande es que las empresas centralizadas no han compensado equitativamente a sus contribuyentes de datos, y esto es lo que estamos tratando de abordar con OpenLedger.


Ishan Pandey:¿Puede caminarnos a través de la brecha en la infraestructura actual que OpenLedger está tratando de resolver y por qué este momento en el tiempo es crítico?


Kamesh:Como se mencionó anteriormente, las empresas centralizadas han entrenado sus modelos de IA en datos de usuarios sin permisos y han ganado miles de millones de dólares sin pagar a nadie de forma justa. En OpenLedger, cada paso de formación, fuente de datos y actualización de modelo deja un rastro que cualquiera puede inspeccionar. Esto es importante ahora porque la gente pide asesoramiento financiero de IA, sugerencias de salud e incluso cobertura electoral. Al tratar con temas tan sensibles, es importante asegurarse de que el modelo esté utilizando datos precisos y no alucinantes. Al usar Proof of Attribution, podemos eliminar los datos que llevaron a una inferencia perjudicial específica, asegurando la seguridad en casos de uso sensibles.


Ishan Pandey:Una de las ideas más ambiciosas detrás de OpenLedger es crear recompensas basadas en atribuciones para las contribuciones de datos y modelos.


Kamesh:Piense en un historial compartido en cadena que registra cada conjunto de datos y ajuste de modelo junto con la cartera que lo envió. Cada vez que la red trabaja una nueva versión o responde a una consulta de usuario, mira atrás a través de ese historial para ver qué contribuciones se han involucrado. Cada vez que aparece su entrada, usted recibe automáticamente una parte de la tarifa vinculada a esa acción. Esta información es pública, para que cualquiera pueda abrir el explorador y rastrear exactamente cómo se ha utilizado su trabajo y lo que ha ganado.


Ishan Pandey:Hablemos de Model Factory y OpenLoRA. Desde un punto de vista técnico, ¿cómo se construyen estas herramientas para manejar el intercambio de recursos, los obstáculos de la GPU y las exigencias de la iteración de modelos a escala?


Kamesh:Piense en Model Factory como una plataforma sin código donde cualquier persona puede ajustar un modelo de lenguaje especializado sin alquilar un centro de datos completo. Selecciona un modelo base y selecciona los parámetros. Cuando su ajuste finaliza, se guarda como un adaptador LoRA ligero, por lo que muchas versiones pueden vivir lado a lado sin comer grandes cantidades de memoria o ancho de banda. OpenLoRA luego le permite conectar esos adaptadores a un modelo de base compartido durante la inferencia, por lo que una única GPU puede cambiar entre docenas de especializaciones, permitiendo la iteración a escala. Model Factory y OpenLoRA son pilares muy importantes del ecosistema ya que permiten a todo el mundo participar en el desarrollo de IA sin coste significativo.


Ishan Pandey:También está introduciendo un concepto llamado “Prueba de Atribución (POA),” lo que exactamente se está midiendo aquí, y cómo se asegura que es una métrica fiable en la evaluación de la actividad del agente?


Kamesh:La prueba de atribución es cómo rastreamos qué datos fueron utilizados por el modelo para llegar a una inferencia específica y recompensar cada contribución significativa. Cuando sus datos son utilizados por un modelo para crear una inferencia, se registra en cadena. Cada vez que los usuarios confían en el modelo, una parte de los ingresos se dirige automáticamente de vuelta a usted, y todo el camino está abierto para que cualquiera lo verifique. Permite a los contribuyentes ver la prueba de su trabajo en cadena y les permite ser recompensados por ello de manera justa.


Ishan Pandey:Los derechos de autor de la IA como un concepto dependen del seguimiento y la confianza a largo plazo. ¿Cómo planea manejar los problemas de forjado de modelos, uso de proxy y atribución de valor a continuación a través de los agentes de IA?


Kamesh:Nuestra prioridad es garantizar que los contribuyentes siempre reciban una compensación justa.Para evitar problemas como el forking del modelo y el uso de proxy, estaremos alojando todos los modelos nosotros mismos y el acceso externo será solo a través de la API.


Ishan Pandey:¿Podrías compartir el próximo conjunto de hitos hacia los que estás trabajando, y qué pueden esperar los desarrolladores al involucrarse con OpenLedger en su fase actual?


Kamesh:Los contribuyentes ya están girando los nodos y transmitiendo datos reales a la red. Actualmente tenemos más de 4 millones de nodos activos en nuestro testnet, y acabamos de empaquetar Epoch 2. Ya tenemos más de 10 proyectos construidos sobre nosotros, incluido un ex investigador de Google DeepMind. También estamos muy emocionados de compartir que vamos a ir pronto para nuestro lanzamiento de TGE y mainnet.


Ishan Pandey:Finalmente, como alguien que está construyendo infraestructura de tecnología profunda, ¿qué consejo le daría a los desarrolladores o investigadores que buscan entrar en esta intersección de la IA descentralizada?


Kamesh:El mejor consejo que puedo dar a las personas es mantener su producto simple.La gente debe ser capaz de entender lo que usted hace en los primeros minutos.Los usuarios se preocupan más por si un producto funciona sin problemas y resuelve su problema en lugar de palabras clave fantásticas.


¡No te olvides de gustar y compartir la historia!


Divulgación de intereses: Este autor es un colaborador independiente que publica a través de nuestro programa de blogs de negocios. HackerNoon ha revisado el informe para la calidad, pero las afirmaciones aquí pertenecen al autor. #DYO

Divulgación de interés: Este autor es un colaborador independiente que publica a través de nuestro programa de blogs de negocios. HackerNoon ha revisado el informe por la calidad, pero las afirmaciones aquí pertenecen al autor. #DYO

Divulgación de interés:Programa de blogs de negocios


Trending Topics

blockchaincryptocurrencyhackernoon-top-storyprogrammingsoftware-developmenttechnologystartuphackernoon-booksBitcoinbooks