Pocas personas entienden realmente el cambio revolucionario que se desarrolla ante sus ojos cuando se trata de IA. No solo nuestras herramientas y software se han vuelto más inteligentes, sino que hemos comenzado a desarrollar software de una manera completamente nueva. Esto es comprensible, por supuesto, ya que no ha habido ningún cambio dramático en el hardware o el software. Nuestros programas todavía se ejecutan en CPUs y GPUs digitales, y todavía están escritos en lenguajes de programación tradicionales como Python. Vale la pena echar un vistazo al código fuente de los grandes modelos de idiomas como , de Y el de Meta Incluso para un laico, una cosa sorprendente es lo corto y relativamente simple que es este código, lo que es sorprendente, teniendo en cuenta el vasto conocimiento y la inteligencia de resolución de problemas que poseen estos modelos. Gpd2 Grúas Llama y y En un sistema de inteligencia artificial, el código de tiempo de ejecución es sólo una parte marginal del sistema: el conocimiento real y la inteligencia provienen del conjunto de datos utilizado para la formación. En un sistema de inteligencia artificial, el código de tiempo de ejecución es sólo una parte marginal del sistema: el conocimiento real y la inteligencia provienen del conjunto de datos utilizado para la capacitación. Data is the new source code! Es precisamente por eso que esta nueva forma de software se ha llamado por Andrej Karpathy —y creo que es un nombre muy apropiado. El software 2.0 Peso abierto ≠ código abierto Hay varios modelos de código abierto disponibles libremente que cualquier persona puede descargar, ejecutar o incluso modificar.Ejemplos incluyen LLaMA, Grok y el recientemente discutido modelo chino DeepSeek. Estos modelos suelen consistir en unos pocos archivos de Python y varias matrices de peso masivo (cada uno de varios gigabytes de tamaño).Aunque es cierto que estos modelos pueden ser desarrollados más adelante —finamente ajustados, cuantizados, destilados, y así sucesivamente— todavía no pueden ser verdaderamente considerados código abierto en el sentido clásico. Es más correcto llamarlos en lugar de modelos de código abierto, ya que el componente verdaderamente valioso – los datos de formación – permanece en manos de las empresas de publicación (Meta, xAI, etc.). open-weight models y y La verdadera IA de código abierto se basa en datos abiertos. La verdadera IA de código abierto se basa en datos abiertos. ¿Quién es dueño de los datos? Los modelos de idiomas grandes generalmente se construyen creando primero una , que luego se ajusta a un propósito específico (por ejemplo, el chat, como con ChatGPT). Este modelo de fundación está entrenado en datos producidos por la humanidad y puestos a disposición del público - a través de sitios web, libros, vídeos de YouTube y redes sociales. Modelo de fundación Por esta razón, muchos servicios han decidido explícitamente prohibir a los desarrolladores de modelos de IA usar su contenido. Personalmente, no estoy totalmente de acuerdo con este enfoque, ya que creo que obstaculiza el progreso. que permite que los datos disponibles públicamente se utilicen para la capacitación de IA, a condición de que el conjunto de datos y el modelo resultante se hagan libres de acceso a cambio. fair-use model Dado que actualmente no existe un marco legal como este, y no hay ningún incentivo para que las empresas de IA desarrollen modelos verdaderamente de código abierto, esta responsabilidad pertenece a la comunidad. Almacenamiento descentralizado: el hogar ideal para los conjuntos de datos abiertos Pero ¿cómo sería realmente un conjunto de datos abierto construido por una comunidad global? eso está lejos de ser una pregunta trivial, ya que hay diferencias ideológicas y culturales significativas entre las personas en diferentes regiones del mundo. Por esta razón, es imposible crear un conjunto de datos único a partir de conocimientos globales disponibles públicamente que todos estarían de acuerdo. Más allá de eso, es crucial que ese conjunto de datos no sea propiedad de nadie, que el acceso no pueda ser restringido, que los datos no puedan ser modificados retroactivamente y que nadie tenga el poder de censurarlo. Dados estos criterios, la mejor opción es un sistema de almacenamiento descentralizado inmutable, como o Estas soluciones utilizan la dirección de contenido (donde la dirección de los datos es un hash generado a partir de su contenido), lo que hace que la modificación no autorizada del contenido sea prácticamente imposible.El almacenamiento se distribuye a través de varios nodos, garantizando un acceso seguro y resistente a la censura donde la disponibilidad de los datos no puede ser restringida. IPFS Ethereum Swarm Estos sistemas tienen otra característica extremadamente útil: almacenan contenido en bloques.Dado que la dirección de una pieza de contenido se deriva de su hash, si el mismo bloque aparece en varios archivos, solo necesita ser almacenado una vez. , donde la versión es automática, y el forjado es barato. Esto es ideal en los casos en los que queremos almacenar múltiples conjuntos de datos que difieren sólo ligeramente (por ejemplo, por menos de 1%). Si alguien no está de acuerdo con el contenido de un conjunto de datos, pueden crear una nueva versión sin tener que hacer una copia completa - sólo los cambios se almacenan. Exactamente como cuando forjamos un proyecto en GitHub para modificar algo. Git repository Cómo el blockchain puede apoyar la creación de conjuntos de datos abiertos Blockchain y almacenamiento descentralizado se complementan bien. Por un lado, el almacenamiento descentralizado permite almacenar grandes cantidades de datos con un nivel de seguridad comparable al almacenamiento en blockchain. Por otro lado, el blockchain puede proporcionar el sistema de incentivos y la capa de gobernanza para el almacenamiento descentralizado. Un buen ejemplo es Ethereum Swarm, que no podría funcionar sin un blockchain, ya que su sistema de incentivos - esencial para el funcionamiento óptimo de la red - se implementa a través de contratos inteligentes que funcionan en el blockchain. En el caso de los conjuntos de datos abiertos, los DAO basados en blockchain podrían decidir qué se incluye en un conjunto de datos. El sistema podría funcionar de manera similar a Wikipedia, donde los administradores aseguran que la información falsa no la haga entrar en la enciclopedia. Si alguien no está de acuerdo con el contenido de un conjunto de datos, puede crear su propio fork y lanzar un nuevo DAO para administrar la versión alternativa. Formación descentralizada Si los datos son el nuevo código fuente, entonces en el caso de Software 2.0 (inteligencia artificial), el entrenamiento es equivalente a compilar el programa. En el desarrollo de software tradicional, esta compilación es realizada localmente por los desarrolladores en sus propias máquinas. Una opción es para la comunidad para recaudar fondos y alquilar la potencia de computación de un proveedor de nube para la capacitación centralizada. Otra posibilidad es la capacitación descentralizada, donde los miembros donan la capacidad de computación de forma gratuita (como un bien público) o a cambio de una compensación. Sin embargo, la capacitación descentralizada está lejos de ser una tarea trivial. Uno de los desafíos es que los modelos grandes no pueden ser capacitados en un solo nodo - se requiere una capacitación multi-nodo, que requiere una comunicación de alto volumen entre los nodos. Esta comunicación debe ser optimizada para que la capacitación sea eficiente. Afortunadamente, varias startups están trabajando en este problema. , que ha desarrollado un protocolo llamado , diseñado para permitir la formación a través de una red conectada a Internet de nodos. Exo Laboratorios Diccionario Otro desafío —común a todos los sistemas descentralizados abiertos (blockchains, almacenamiento descentralizado, etc.)— es la cuestión de Dado que cualquiera puede contribuir libremente sus propios dispositivos al sistema, no hay garantía de que actuarán de forma honesta.Un actor malicioso, por ejemplo, podría utilizar datos no autorizados en lugar del conjunto de datos aprobado por el DAO, “contaminando” así el modelo. trust En estos sistemas, la confianza se sustituye por garantías computacionales.Cuanto más seguridad queremos en una red de nodos no confiables, más potencia computacional se requiere.Un buen ejemplo de esto es blockchain, donde cada nodo que publica un nuevo bloque también valida todos los cálculos en la cadena que lo conduce. Este enfoque, sin embargo, no funciona para la formación de IA, por lo que debemos explorar otras soluciones. Validación basada en el consenso One approach is to have each computation performed by multiple (e.g., three) randomly selected nodes. If the results don’t match, the dishonest node loses its staked deposit. The advantage of this method is that it provides relatively high security. The downside is that it triples the required computing power. Pruebas de conocimiento cero Con la tecnología de prueba de conocimiento cero (ZKP), uno puede probar que se realizó un cálculo - y hacerlo de una manera que la prueba en sí es barata para verificar. Esta técnica se utiliza en sistemas como zkRollups, donde un zkSNARK demuestra que las transacciones válidas se ejecutaron en una cadena de capa 2. La desventaja es que generar la prueba es computacionalmente costosa, especialmente a medida que aumenta el número de multiplicaciones en la computación. Esto significa que con la tecnología actual de ZKP, el entrenamiento de modelos de IA de esta manera requeriría drásticamente más potencia de computación. Aún así, los ZKPs son una área activamente investigada, y en el futuro, pueden llegar a ser lo suficientemente eficientes para el entrenamiento distribuido. Aprendizaje automático descentralizado El aprendizaje automático descentralizado optimista funciona de manera similar a los rollups optimistas. Se asume que el cálculo es correcto a menos que alguien presente una prueba de fraude para demostrar lo contrario. En la práctica, el nodo de entrenamiento registra cada paso del proceso, incluyendo la matriz de peso inicial, los datos de entrenamiento y la matriz de peso resultante. Si el registro también registra las semillas aleatorias, todo el cálculo se vuelve determinista y reproducible. Los nodos de validación pueden luego obtener muestras aleatorias de segmentos del registro de entrenamiento y verificarlos. Si se encuentran inconsistencias, el nodo de entrenamiento pierde su participación. Este método tiene el coste de cálculo más bajo: no requiere una generación de prueba de conocimiento cero costosa, y a diferencia de la validación basada en consenso, solo se deben volver a verificar partes aleatoriamente seleccionadas del cálculo. Por último, la capacitación descentralizada requiere un “mercado de nodos” – una plataforma donde los recursos de computación disponibles pueden ser descubiertos y utilizados. , que, al igual que otros proveedores de nube, ofrece capacidad de computación, pero es una plataforma descentralizada diseñada para proporcionar servicios de almacenamiento, computación y bases de datos escalables a través de una red de nodos distribuidos. utiliza un token ERC20 para pagar por los servicios, por lo que puede integrarse fácilmente con otras soluciones basadas en blockchain. nodos Aleph usan entornos de ejecución confiables, por lo que la validación es menos relevante en este caso. La nube de Aleph Inferencia descentralizada Para los modelos a gran escala, no sólo el entrenamiento no es trivial debido a las altas exigencias computacionales, sino que la ejecución del modelo (inferencia) también es desafiante. Esto es especialmente cierto para los modelos de razonamiento, donde los resultados surgen sólo después de múltiples pases adelante consecutivos - lo que significa que el poder computacional total necesario para la inferencia puede superar mucho al de la formación. Dado que la ejecución de una red neural funciona de la misma manera que durante el entrenamiento (la inferencia es fases adelante, mientras que el entrenamiento involucra muchas fases adelante y atrás), el aprendizaje automático descentralizado optimista también puede aplicarse aquí. El principal desafío en este contexto es la privacidad.Tecnologías como la encriptación homomórfica y la computación multiparte (MPC) pueden ayudar a proteger los datos privados.Al mismo tiempo, el rendimiento del hardware continúa creciendo exponencialmente, y las nuevas técnicas -como las redes neuronales de 1,5 bits y los modelos de Mixture-of-Experts (MoE) destilados como DeepSeek - están haciendo cada vez más posible ejecutar estas redes localmente. Creo que a largo plazo, podremos ejecutar tales modelos localmente, o al menos, dentro de entornos de confianza alquilados en privado. Conclusión Por ahora, es claro para la mayoría de la gente que la IA va a traer cambios revolucionarios. ¿reformará nuestro mundo de maneras que difícilmente podemos imaginar - y eso sin mencionar el impacto de los robots humanoides. Lo que es absolutamente crucial es quién tiene el poder sobre la IA. ¿Quedará centralizado en manos de unas pocas grandes corporaciones, o se convertirá en un bien público compartido que beneficia a toda la humanidad? Esto hace que una pregunta sea central para nuestro futuro: ¿será realmente descentralizada la IA? La construcción de un sistema de este tipo requiere más que simplemente innovación técnica: requiere conjuntos de datos abiertos, almacenamiento descentralizado, gobernanza basada en blockchain y mecanismos de incentivo que permitan a las comunidades contribuir y colaborar libremente. Si logramos, no solo democratizaremos la IA, sino que pondremos las bases para un nuevo común digital, donde la inteligencia misma es co-creada, transparente y abierta a todos.