Introducción: Lo que pensamos vs. lo que hacemos Cuando pensamos en cómo las personas utilizan los Grandes Modelos de Idiomas (LLM), nos viene a la mente una imagen familiar: la productividad. Imaginamos que los desarrolladores codifican más rápido, los comerciales escriben correos electrónicos y los analistas resumen documentos densos. Un nuevo estudio innovador de OpenRouter, que analiza más de 100 billones de tokens de uso en el mundo real, revela un cuadro mucho más complejo y sorprendente. Desde la “app asesina” nadie habla de un fenómeno extraño que decide qué modelos ganan a largo plazo, los datos desafían nuestras suposiciones básicas sobre el estado de la IA hoy. En realidad El mayor caso de uso de la IA de código abierto no funciona; es un juego. Contrariamente a la narración dominante de la IA como un motor de productividad, el caso de uso más grande para los modelos de código abierto (OSS) es el juego de rol creativo.Los datos muestran que el "juguete de rol creativo" y la narración de historias representan más de la mitad (alrededor del 52%) de todo el uso de token OSS, con la programación siendo un segundo lejano. Esto es una revelación significativa. Sugiere que una base de usuarios masiva se convierte en modelos abiertos para estas experiencias, ya que ofrecen mayor libertad creativa y a menudo son menos restringidos por los filtros de contenido comercial que se encuentran en los modelos propietarios. Este hallazgo revela una demanda de los consumidores importante y subserviente para el entretenimiento, la compañía y la ficción interactiva impulsados por la IA. Mientras que la industria se centra en soluciones empresariales, una mayoría silenciosa está utilizando la IA para crear e explorar nuevos mundos. El ascenso silencioso del “agente AI” La forma en que las personas utilizan los LLMs está experimentando un cambio fundamental. Nos estamos desplazando de las interacciones simples, de un solo turno, de preguntas y respuestas y hacia flujos de trabajo integrados con herramientas en múltiples pasos. En estos flujos de trabajo "agenticos", los planes del modelo, las razones y las acciones para completar una tarea compleja, a menudo sin intervención humana directa en cada paso. Este cambio es evidente en los datos: los modelos optimizados para el razonamiento ahora manejan más del 50% de todo el uso, un aumento dramático desde una cantidad insignificante a principios de 2025.Este movimiento hacia el razonamiento está alimentado por cargas de trabajo más complejas, ya que el usuario promedio ha crecido casi cuatro veces desde principios de 2024 para acomodar tareas como analizar bases de código enteras; una tendencia impulsada principalmente por los prompts de programación, que son 3-4 veces más largos que los de propósito general. El informe pone este cambio en términos severos, concluyendo que la inferencia de agentes se está convirtiendo rápidamente en el nuevo estándar para interactuar con la IA. Pronto lo suficiente, si no ya, la inferencia de agentes tomará la mayoría de la inferencia. El éxito ya no se centrará simplemente en generar texto plausible, sino en manejar tareas complejas y estrictas que requieren planificación y acción. El código abierto está silenciosamente capturando un tercio del mercado de la IA Mientras que los modelos propietarios de los principales laboratorios como Anthropic y OpenAI siguen liderando el mercado, los modelos de código abierto han crecido constantemente para capturar aproximadamente un tercio de todo el uso de token para finales de 2025. Un motor clave de esta expansión ha sido el aumento de los modelos de OSS desarrollados en China de proveedores como Qwen y DeepSeek. Estos modelos crecieron de una cuota de mercado semanal de sólo el 1,2% a casi el 30% en algunas semanas, ganando rápidamente tracción con los usuarios globales. Esta tendencia apunta a una "estructura dual duradera" en el ecosistema de la IA. La fuente sugiere que el equilibrio entre los modelos propietarios y los modelos OSS se ha estabilizado actualmente en aproximadamente el 30% para el código abierto. Este equilibrio existe porque los desarrolladores eligen sistemas propietarios para tareas empresariales de alta fiabilidad, aprovechando la eficiencia en el coste y la personalización de OSS para otras cargas de trabajo críticas. El paisaje de la IA no se está formando para ser un mercado ganador-tomando todo. Por qué la IA no es una mercancía (Pero) Muchos han predicho que los modelos de IA se convertirían rápidamente en una mercancía barata, con el precio como el principal diferenciador. Los datos, sin embargo, cuentan con una historia diferente. La demanda de LLM es sorprendentemente inelástica, lo que significa que los cambios de precios tienen poco efecto en el uso. Según el estudio, una disminución del precio del 10% corresponde a un pequeño aumento del uso del 0,5-0,7%. En lugar de un mercado mercantilizado, el ecosistema se ha segmentado en distintos arquetipos: Líderes Premium: modelos como el Claude 4 Sonnet de Anthropic manejan precios altos, pero todavía ven un uso masivo, lo que demuestra que los usuarios están dispuestos a pagar un premio por la calidad y la fiabilidad de primera línea. Gigantes eficientes: modelos como Gemini Flash y DeepSeek de Google combinan bajo costo con alto volumen, lo que los convierte en la elección predeterminada para tareas a gran escala sensibles al costo. Especialistas Premium: Los modelos extremadamente costosos como el GPT-5 Pro de OpenAI se utilizan de manera económica para las tareas más altas, donde el rendimiento es lo único que importa y el coste es secundario. The Long Tail: modelos como Qwen 2 7B Instruct y IBM Granite 4.0 Micro tienen precios de fondo pero alcance limitado, destacando que la capacidad y la adecuación al mercado del modelo son diferenciadores críticos más allá de simplemente el costo. Esta segmentación revela una visión crucial sobre el estado actual del mercado. La elasticidad de la demanda relativamente plana sugiere que los LLM aún no son una mercancía; muchos usuarios están dispuestos a pagar una prima por la calidad, las capacidades o la estabilidad. Por el momento, las capacidades especializadas y el rendimiento confiable a menudo cuestan, especialmente para cargas de trabajo profesionales o críticas a la misión. Ganar en AI es como Cinderella's "Glass Slipper" En un mercado donde se lanzan nuevos modelos constantemente, ¿cómo puede un modelo único construir una ventaja duradera?El estudio propone un nuevo marco llamado el "efecto Glass Slipper" para explicar la retención del usuario.La idea es simple: cuando un nuevo modelo es el primero en resolver una necesidad crítica, previamente no satisfecha para un grupo de usuarios, logra un "ajuste perfecto". Estos primeros usuarios forman "cohortes fundamentales" que se adhieren al modelo a largo plazo, mostrando una retención mucho mayor que los usuarios que lo adoptan más tarde. sus flujos de trabajo, herramientas y hábitos se vuelven encerrados en el modelo que primero resolvió su problema, lo que los hace altamente resistentes a cambiar a alternativas más recientes, incluso ligeramente mejores. Un claro ejemplo puede verse en la cohorte de junio de 2025 para Gemini 2.5 Pro y la cohorte de mayo de 2025 para Claude 4 Sonnet, que retuvieron alrededor del 40% de sus usuarios cinco meses después; una tasa mucho más alta que las cohorte posteriores. Este fenómeno significa que en el mundo de la IA en movimiento rápido, la ventaja de "primero a resolver" es increíblemente poderosa y duradera.La verdadera señal de un modelo revolucionario no es sólo el hype o los índices de referencia, sino la formación silenciosa de estos grupos de usuarios pegajosos y fundamentales que han encontrado su ajuste perfecto. Conclusión: La verdadera historia de la IA sigue siendo escrita El uso del mundo real de la IA es mucho más matizado, diverso y sorprendente de lo que sugiere la narración principal.Los datos muestran un ecosistema impulsado tanto por la creatividad lúdica como por la productividad, uno que se está desplazando rápidamente hacia flujos de trabajo complejos y agentes.Es un mundo donde el código abierto es una fuerza poderosa y donde la lealtad duradera del usuario se forja no por el hype, sino por ser el primero en resolver un problema difícil. A medida que la IA pasa de ser una herramienta simple a un colaborador complejo, ¿qué comportamientos inesperados y aplicaciones asesinas surgirán a continuación? Podcast de Apple: aquí Spotify: aquí El podcast de Apple: Aquí En Spotify: Aquí