Inledning: Vad vi tänker vs. vad vi gör När vi tänker på hur människor använder stora språkmodeller (LLM) kommer en välbekant bild till sinnet: produktivitet. Vi föreställer oss utvecklare som kodar snabbare, marknadsförare som skriver e-postmeddelanden och analytiker som sammanfattar täta dokument. En banbrytande ny studie från OpenRouter, som analyserar över 100 biljoner tokens av verklig användning, avslöjar en mycket mer komplex och överraskande bild. Från "killer-appen" pratar ingen om ett konstigt fenomen som bestämmer vilka modeller som vinner på lång sikt, data utmanar våra kärnförutsättningar om tillståndet i AI idag. Faktiskt Den största användningsfallet för öppen källkod AI är inte fungerar; Det är spel. I motsats till den dominerande berättelsen om AI som en produktivitetsmotor är det enda största användningsfallet för öppna källkodsmodeller (OSS) kreativt rollspel.Data visar att "kreativt rollspel" och berättande står för mer än hälften (ungefär 52%) av all användning av OSS-token, med programmering som en avlägsen sekund. Det tyder på att en stor användarbas vänder sig till öppna modeller för dessa upplevelser, eftersom de erbjuder större kreativ frihet och ofta är mindre begränsade av de kommersiella innehållsfilter som finns i proprietära modeller.Denna upptäckt avslöjar en stor, underbetjänad konsumentbehov för AI-driven underhållning, sällskap och interaktiv fiktion.Medan branschen fokuserar på företagslösningar använder en tyst majoritet AI för att skapa och utforska nya världar. Den tysta uppkomsten av ”AI-agenten” Sättet människor använder LLMs genomgår en grundläggande förändring. Vi flyttar bort från enkla, enkla, fråga-och-svar-interaktioner och mot multi-steg, verktyg-integrerade arbetsflöden. I dessa "agentiska" arbetsflöden, modell planer, skäl och handlingar för att slutföra en komplex uppgift, ofta utan direkt mänskligt ingripande vid varje steg. Detta skifte är uppenbart i uppgifterna: resonemang-optimerade modeller hanterar nu över 50% av all användning, en dramatisk ökning från en försumbar mängd i början av 2025. Rapporten sätter detta skifte i skarpa termer och drar slutsatsen att agentisk inferens snabbt blir den nya standard för att interagera med AI. Snart nog, om inte redan, kommer agentisk inferens att ta över majoriteten av inferensen. Framgång kommer inte längre att handla om att bara generera trovärdig text, utan om att hantera komplexa, statliga uppgifter som kräver planering och åtgärder. Öppen källkod fångar tyst en tredjedel av AI-marknaden Medan proprietära modeller från stora laboratorier som Anthropic och OpenAI fortfarande leder marknaden, har öppna källkodsmodeller stadigt vuxit för att fånga ungefär en tredjedel av all tokenanvändning i slutet av 2025. En viktig drivkraft för denna expansion har varit uppkomsten av kinesiskt utvecklade OSS-modeller från leverantörer som Qwen och DeepSeek. Dessa modeller växte från en veckovis marknadsandel på bara 1,2 % till nästan 30 % på några veckor, snabbt få dragkraft med globala användare. Denna trend pekar på en "hållbar dubbelstruktur" i AI-ekosystemet. Källan föreslår att balansen mellan proprietära och OSS-modeller för närvarande har stabiliserats på ungefär 30% för öppen källkod. Denna balans existerar eftersom utvecklare väljer proprietära system för hög tillförlitlighet företagsuppgifter, samtidigt som de utnyttjar kostnadseffektiviteten och anpassningen av OSS för andra kritiska arbetsbelastningar. AI-landskapet bildar inte en vinnare-tar-all-marknad. Istället är det ett komplementärt ekosystem där utvecklare alltmer använder en blandning av både öppna och stängda modeller för att få jobbet gjort. Varför AI inte är en råvara (Yet) Många har förutsett att AI-modeller snabbt skulle bli en billig råvara, med priset som huvuddifferentiator. Data berättar dock en annan historia. Efterfrågan på LLMs är förvånansvärt prishöjande, vilket innebär att prisförändringar har liten effekt på användning. Enligt studien motsvarar en prisminskning på 10% en liten ökning av användningen på 0,5-0,7%. I stället för en kommersialiserad marknad har ekosystemet segmenterats i olika arketyper: Premium Leaders: Modeller som Anthropics Claude 4 Sonnet dominerar höga priser men ser fortfarande massiv användning, vilket bevisar att användare är villiga att betala en premium för toppkvalitet och tillförlitlighet. Effektiva jättar: Modeller som Googles Gemini Flash och DeepSeek matchar låg kostnad med hög volym, vilket gör dem till standardvalet för kostnadskänsliga, storskaliga uppgifter. Premium Specialister: Ultra dyra modeller som OpenAI: s GPT-5 Pro används sparsamt för de mest höga satsningarna, där prestanda är det enda som räknas och kostnaden är sekundär. Long Tail: Modeller som Qwen 2 7B Instruct och IBM Granite 4.0 Micro har rockbottom prissättning men begränsad räckvidd, vilket understryker att kapacitet och modell-marknadsmatchning är kritiska differentiatorer bortom bara kostnad. Denna segmentering avslöjar en avgörande insikt om marknadens nuvarande tillstånd. Den relativt platta efterfrågan elasticitet tyder på LLMs är ännu inte en råvara; många användare är villiga att betala en premie för kvalitet, kapacitet eller stabilitet. För närvarande kostar specialiserade förmågor och pålitlig prestanda ofta, särskilt för professionella eller missionskritiska arbetsbelastningar. Vinnande i AI är som Cinderellas "Glass Slipper" I en marknad där nya modeller släpps ständigt, hur bygger någon enskild modell en varaktig fördel?Studien föreslår ett nytt ramverk som kallas "Glass Slipper-effekten" för att förklara användarbevarande.Iden är enkel: när en ny modell är den allra första att lösa ett kritiskt, tidigare ouppfyllt behov för en grupp användare, uppnår den en "perfekt passform". Dessa tidiga användare bildar "grundläggande kohorter" som håller sig till modellen på lång sikt, vilket visar mycket högre retention än användare som antar den senare. Ett tydligt exempel kan ses i juni 2025 kohorten för Gemini 2.5 Pro och maj 2025 kohorten för Claude 4 Sonnet, som behöll cirka 40% av sina användare fem månader senare; en mycket högre andel än efterföljande kohorter. Detta fenomen innebär att i den snabbt föränderliga världen av AI är "första-till-lös" fördelen otroligt kraftfull och hållbar.Den verkliga signalen för en banbrytande modell är inte bara hype eller benchmarks, men den tysta bildandet av dessa klibbiga, grundläggande användargrupper som har funnit sin perfekta passform. Slutsats: Den verkliga historien om AI skrivs fortfarande Den verkliga användningen av AI är mycket mer nyanserad, mångsidig och överraskande än den vanliga berättelsen föreslår.Data visar ett ekosystem som drivs lika mycket av lekfull kreativitet som av produktivitet, en som snabbt flyttar mot komplexa, agentiska arbetsflöden. När AI flyttar från att vara ett enkelt verktyg till en komplex medarbetare, vilka oväntade beteenden och mördare appar kommer att dyka upp nästa? Podcast från Apple: här Spotify: här För Apple Podcast: Här är Från Spotify: Här är