0G Labs Reporta 107B Avance en IA Descentralizada, Destacando Entrenamiento Eficiente en Costos y Planes de Código Abierto

En Resumen

0G Labs informó que entrenó el modelo DiLoCoX de 107 mil millones de parámetros—más grande que el sistema de Bittensor—utilizando un enfoque descentralizado rentable, y ha comenzado a reentrenarlo públicamente con total transparencia y plan de lanzamiento de código abierto.

0G Labs Reports 107B Decentralized AI Breakthrough, Highlighting Cost-Efficient Training And Open-Source Plans0G Labs, un desarrollador de infraestructura blockchain para agentes de inteligencia artificial, reportó que entrenó un modelo con 107 mil millones de parámetros aproximadamente hace ocho meses, marcando una escala aproximadamente un 48 por ciento mayor que el modelo desarrollado por Bittensor y representando el sistema de IA descentralizado más grande documentado hasta la fecha.

El modelo, conocido como DiLoCoX-107B, fue entrenado en julio de 2025 usando tecnología desarrollada en colaboración con China Mobile, la mayor operadora de redes móviles del mundo. Según una investigación revisada por pares publicada en arXiv, el sistema logró niveles de eficiencia de comunicación 357 veces superiores a los métodos tradicionales AllReduce cuando operaba sobre conexiones a internet estándar de 1 Gbps, lo que sugiere que el entrenamiento avanzado de IA puede ser factible sin depender de infraestructura de centros de datos de alto costo.

Los resultados iniciales del entrenamiento indicaron que las arquitecturas de computación distribuida podrían competir con enfoques centralizados en los niveles más altos de desarrollo de modelos. Mientras empresas como OpenAI, Google y Meta invierten fuertemente en clústeres de GPU a gran escala, 0G Labs informó que su marco distribuido podría reducir los costos en aproximadamente un 95 por ciento, según cifras citadas por Forbes. El sistema opera a través de nodos descentralizados conectados mediante infraestructura de internet ampliamente disponible.

En comparación, el modelo Covenant-72B de Bittensor, desarrollado en su red Subnet 3 por un grupo de colaboradores, ha sido descrito como un avance notable en el campo de la IA descentralizada. Sin embargo, 0G Labs afirmó que su trabajo previo ya había demostrado la viabilidad de entrenar modelos a mayor escala, respaldado por validación revisada por pares.

La compañía además anunció que ha iniciado una nueva fase que involucra el reentrenamiento público de DiLoCoX-107B, enfatizando la transparencia y una estrategia de lanzamiento de código abierto. Este esfuerzo busca establecer estándares más claros para prácticas verificables en el desarrollo de IA.

Al finalizar, se espera que el modelo actualizado se lance con acceso público completo a sus pesos, puntos de control y métricas de rendimiento. Se prevé que el proceso de reentrenamiento incluya documentación exhaustiva, cubriendo fuentes de datos, métricas de entrenamiento y mecanismos de verificación, incluyendo validación basada en entornos de ejecución confiables.

Infraestructura de pila completa para IA verificable

A diferencia de sistemas desarrollados principalmente con fines experimentales, DiLoCoX-107B está integrado en una infraestructura blockchain más amplia diseñada para agentes de IA. Esto incluye una pila de producción con una cadena de bloques compatible con EVM, recursos de computación descentralizados, capacidades de almacenamiento distribuido y una capa de disponibilidad de datos de alto rendimiento, que es significativamente más rápida y rentable que soluciones comparables como las asociadas con Ethereum.

La compañía afirmó que dicha infraestructura está destinada no solo al entrenamiento de modelos, sino también a inferencias verificables, almacenamiento seguro y procesos de liquidación en cadena, reflejando requisitos operativos más amplios para ecosistemas de agentes de IA.

El sistema incorpora varias aproximaciones técnicas, incluyendo paralelismo en pipeline, coordinación de doble optimizador entre actualizaciones locales y globales, sincronización retardada para permitir entrenamiento continuo, y compresión adaptativa de gradientes para reducir la sobrecarga de comunicación sin comprometer la precisión del rendimiento.

0G Labs indicó que el proceso de reentrenamiento está en curso y que todos los datos, metodologías y resultados relevantes serán divulgados a lo largo de su duración. Se espera que el modelo final se lance bajo una licencia de código abierto, con acceso completo a los artefactos de entrenamiento.

0G-0,01%
TAO19,01%
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado