LLMs are already museum pieces LLMs اوس هم د موسيقي ټوټې دي Why JEPA, transformers, and LLMs all fail in the same Euclidean flatland, and the toroidal geometry that fixes them بله، ChatGPT، Claude، Gemini، دوی ټول. د یو ژور لغوي عمر چې په پای کې دی. دوی په عمومي توګه وده کوي، : د لوی ماډلونه، اوږد معیارونه، په هر واټونو کې نور هالوژینونو. د ډیرو میلیارده ډالرو اوس هم د خپل صندوقونو پوښلو لپاره سپارښتنه کیږي د ډیرو میلیارده ډالرو اوس هم د خپل صندوقونو پوښلو لپاره سپارښتنه کیږي د ډیرو میلیارده ډالرو اوس هم د خپل صندوقونو پوښلو لپاره سپارښتنه کیږي The “predict-the-next-word” LLM era is over. په سټیشن کې د نوي قاتل نه دی، دا د نړۍ ماډل دی. یو AI چې د واقعیت په څیر د مفهوم پازل درکوي، په کوم کې تاسو د ټولو ټوټهونو ته اړتیا نلري چې ټول انځور وګورئ. موږ یوازې د قدیم LLM ستراتیژۍ څخه ډک نه کړې. که تاسو په ټوله کې د چیټ بوټونو ته وده ورکړئ، تاسو د یو نړۍ لپاره چمتو کوئ چې اوس هم نه دی. موږ یوازې د قدیم LLM ستراتیژۍ څخه ډک نه کړې. که تاسو په ټوله کې د چیټ بوټونو ته وده ورکړئ، تاسو د یو نړۍ لپاره چمتو کوئ چې اوس هم نه دی. موږ یوازې د پیرودو LLM ستراتیژۍ څخه د سټیشن څخه نه لرئ. که تاسو اوس هم د چټی بوټونو ته وده ورکړئ، نو تاسو د یو نړۍ لپاره چمتو یاست چې اوس دی. موږ د ماشينونو ته اړتیا نلري چې د ټوکنونو په څیر دماغ نلري. موږ د ماشينونو ته اړتيا لري چې دا دا "Stochastically parroted" د 2023 لپاره ښکلي وه. دا هوښيار نه دی. دا احتمالي cosplay دی. carry objects through time bind cause to effect keep the scene consistent او دلته هغه څه دی چې موږ ډیری په ټیکنالوژۍ صنعت کې مخکې وګورئ: که د AI په پایله کې راټول کیږي په ځای کې ، د صنعت چې د بریښنا د چټک چټک کوکټونه به د بریالیتوب لپاره. په چټکه کې. likelihood reality 1 trillion dollars Is JEPA the New AI Hope? په د Menlo پارک څخه نه تر منځ د ګاڼو کې، د چیټ بوټ امپراتور د ګاڼو څخه یو نوی مخکښ جوړ شوی دی: JEPA! The promised one. The architecture was said to restore balance to the Force after the LLM wars. مخکې له دې چې موږ د میټا د مارکیټینګ وزارت ته اجازه ورکړو چې دا د راتلونکي مسیح په توګه بڼه ونیسئ، اجازه ورکړئ چې د مخکینګ ډکولو. د استوګنې د چار کلمه چې په عمده توګه ښودل کیږي تر هغه چې تاسو پوه شئ چې دوی د GPU لیک نوی پوښونو پوښونو لپاره د ډیری قدیم مفکورې بیان کوي: JEPA Joint Embedding Predictive Architecture - یوځای، ځکه چې دا د سټینټ د دوو برخو - یو ښکلي، یو مخکښ - او دوی ته په یو مشترکه مخکښ فضا کې موافقه وکړي. Embedding، ځکه چې د خام پیکسلونو یا کلمې لکه LLMs په ځای کې کار کوي، دا په ټیټ وکتور وړاندیزونو کې کار کوي: د مخکښ فضا چې د عصري AI معنی ذخیره کوي. Predictive، ځکه چې د هغه یوازې ټیک دی چې د هغه څه چې دا اوس هم وګورئ له خوا د ناڅاپي ټوټې مخنیوي. د آرژانتیک، ځکه چې هر نوی AI مفهوم ته په پای کې د تعلیق کولو لپاره د حیرانتیا نندارتون ته اړتيا لري. the new high priest of the cult - غواړم دا په ساده انګلیسي کې بیان کړئ: د ژانر LeCun - د LLM د ژانر LeCun ژانر LeCun د LLM هوښيار نه دی، نه دا د راتلونکي کلمه مخکښ کوي. هوښيار دا ده چې مخکښ شي چې په نړۍ کې څه به ترسره شي. هوښيار نه دی، نه دا د راتلونکي کلمه مخکښ کوي. هوښيار دا ده چې مخکښ شي چې په نړۍ کې څه به ترسره شي. . دا زده کوي چې نه د متن یا پیکسلونه جوړولو له لارې، بلکه د داخلي نمونې له لارې له دې امله چې . او دا دقیقا هغه څه دی چې JEPA هڅه کوي guess what’s missing in a world it only half perceives context can explain absence او دا دقیقا هغه څه دی چې JEPA هڅه کوي دا نه چاپوي؛ دا بشپړوي. دا تصور نه کوي؛ دا پای ته ورسیږي. دا نه چاپوي؛ دا بشپړوي. دا تصور نه کوي؛ دا پای ته ورسیږي. د حقیقت لپاره ډیر ښه؟ But you’re probably wondering whether this is the real deal - or just another half-baked tech product with brighter LEDs and duller intelligence ایا موږ د لوی خبرې کولو لپاره یو ثانیو له لاسه ورکړئ. د نندارتون لکه څنګه چې په سیلیکون کې نندارې: د "حقیقتي انټرنټ" سپینه، د چیټ بوټانو پای ته، د نړۍ د نمونوي خدایونو پیل. JEPA او په لومړي نظر کې، دا په حقیقت کې په دې ډول وګورئ - که تاسو strip off the marketing halo, and you’ll see what’s actually there. نه په بشپړه توګه د جادو LeCun خرڅلاو، خو هم څه ارزانه: ، مګر هنوز اوږد لاره ته لاړ شئ د په سمه لار کې یو ګام اوس مهال، JEPA په عمده توګه ژوند کوي په داسې حال کې چې همدارنګه په ورته ډول په سخته توګه لیون they claim to have surpassed (see chart 1 below). videos and physical-world scenarios wording layer stochastic parrot LLMs Of course, Meta just prefers not to mention that part in the brochures. No surprise there نو نه، په blueprint کې، JEPA چیرته سمارټ دی - نوی ماډلونه، ښکلي پټونه، او تازه هدف احساس، مګر په لاندې کې، موږ تل د ورته کڅوړه چمتو کوو. د کلمه سوپ ستونزه یوازې د پرمختګ ترلاسه کړ . د مختلفو خوښۍ، د ورته اندیښنې. concept-soup د عادلانه توګه، isn’t pure marketing incense. As the chart below shows — humorously stripped of Meta’s triumphal glow, its د او یو ښکلي کوچني ټریډ جوړ کړئ چې په حقیقت کې د د LLMs. JEPA context encoder target encoder predictor token tyranny په حقیقت کې تاسو کولی شئ with ایا تاسو پوښتنه؟ Well, you can show wit ، او دا د ناڅاپي برخه مخکښ کوي نه د pixels نښلوي، خو د . دا د پرمختګ دی: د JEPA h half an image ستاسو لپاره، reasoning in latent space perception over parroting. او دلته د lineup: تصدیق د نږدې ځینې نښې نندارتونونه، اغیزمن. دا اوس هم په پایله توزیع لرونکي غږونو کې ناکام کیږي او هیڅکله د ژور لټون نه کوي. د JEPA انځورونه But د JEPA د JEPA , trained on videos to learn motion intuition, what moves, when, and why. نه د واقعي فیزیک: تشنابونه، قوتونه، تماس هم د لاس رسی څخه. بیا د JEPA But بیا د JEPA د JEPA More into robotics? ** ** د روباتي لاسونو لارښوونه کوي، د عمل مخکې د اجزاو په څرنګوال کې څرنګواله کوي. دا هنوز د فیزیکی معیارونو په اړه د انسانانو پیژندل کوي او، Irony of ironies، اړتیا لري د هغه څه په اړه چې دوی وګورئ. د V-JEPA 2 But LLM د V-JEPA 2 So yes, progress, enough to declare LLM technology as a fossil in artificial life maintenance - but still flatland thinking dressed up as revelation. And that’s the part Meta doesn’t want you to see. دلته د JEPA سلیک ډیزاینونو او LeCun د اعتماد وړ اعلانونو پیژندل کیدای شي: they solved the problem by creating an one that’s mathematically far worse. د زبانونو د آرژانتیک دوی د کلمه زندان څخه خوندي دي یوازې د ضخامت دیوال سره د مفهوم زندان جوړولو لپاره. دلته د JEPA سلیک ډیزاینونو او LeCun د اعتماد وړ اعلانونو پیژندل کیدای شي: they solved the problem by creating an one that’s mathematically far worse. د زبانونو د آرژانتیک د زبانونو د آرژانتیک دوی د کلمه زندان څخه خوندي دي یوازې د ضخامت دیوال سره د مفهوم زندان جوړولو لپاره. فکر وکړئ: LLMs بد دی ځکه چې دوی د واقعیت په توګه د ټوکنونو په کرښه سیسټم په توګه درملنه وکړه: د احتمالي فضا په اوږدو کې یو متغیر. JEPA وايي. " ” او په عالي مقناطیسي نندارتون فضا کې سوکوي، په کوم ځای کې د مفهومونو په توګه د وکتورونو په توګه افقی شي. . موږ د دې څخه سمارټ تر دي د 768-Dimensional Cloud موږ د دې څخه سمارټ تر دي Sounds impressive, right? Wrong. They just traded a bad neighborhood for a worse one: the kind where . د ریاضی قانونونه د ناکامۍ تضمین کوي د نوي AI آرکټیکټیکونو د مایع ریاضیاتو آخذه: دوی هنوز هم د فلیټ نړۍ وګورئ او اوس، چمتو شي، مهرباني وکړئ، د هغه څه چې تاسو به په بل ځای کې نه وګورئ. څنګه د ریاضیات د زرق په سمه توګه هر AI آرکټیکټوریټ کولی شي - د LLM ډینوزر څخه د نوي ځوانانو ته چې دوی د هر څه حل کوي. Stop. Breathe 😄 دا دا دی چې د داستان ته خطرناک شي. But don’t worry, we have the antidote. And you can use it to your own advantage. Before you go on, a small recommendation. که تاسو غواړئ د عضلاتو، نارینه، ښکلي ریاضیات ته وده ورکړي چې د دوو شمیره toroidal ماډل څنګه د خوښۍ درملنه کوي او د امروزه د AI آرکټیکټیکونو سره مخامخ شوي ماډل ته وده ورکړي - زه تاسو لپاره ځینې دروازې خوندي کړم: → →__ __\→ JEPA-AI: Core Technologies & Programming Stack The Mathematical Myopia of New AI Architectures Mathematical Core Equations: AI JEPA’s Failures vs. AI-Toroidal Truth JEPA-AI: Core Technologies & Programming Stack JEPA-AI: د کور تکنالوژۍ او پروګرام سټاک The Mathematical Myopia of New AI Architectures د ریاضیاتو اصلي مساواتونه: د AI JEPA د ناکامۍ په مقابل کې د AI-Toroidal حقیقت د ریاضیاتو اصلي مساواتونه: د AI JEPA د ناکامۍ په مقابل کې د AI-Toroidal حقیقت Take your time there if you wish. If not, stay with us. We’re about to cross the event horizon. اوس، چیرې چیرې. تصور وکړئ چې تاسو خپل لوی موسيقي کتابتون سازمان کړي. تاسو کولی شئ ستاسو ټول آهنگونه په یوه لوی پوښونو کې ډک کړئ او امید وکړئ چې ستاسو کمپیوټر د "Stairway to Heaven" او "Highway to Hell" تر منځ د فرق په اساس پوه شي ... vibes؟ دا په اصل کې دا دی چې JEPA او د نوي AI آرکټیکټیکټونو کار کوي. دلته ستونزه ده: دا سیسټمونه په هغه څه کې ژوند کوي چې ریاضیانو د "ايکليډي فضا" په نوم نوم کوي، په اصل کې یو فلیټ، غیر پای ته ورسیږي چې په دې کې هر څه د شمیره ټوټه ده. دا منطقي وي، نه؟ غلط. دا د دې لپاره چې تاسو به د ورته ریاضیاتو د ځمکې په مستقیم ډول د "د راتلونکي نسل" AI سيستمونو کې پاملرنه ونیسئ: هغه چې د LLM د زرق لپاره د انډول په توګه پلورل کیږي. دوی سپارښتنه کوي مګر د ورته بریالیتوب ریاضیات وارث کوي. This is why you’ll find the same mathematical doom baked right into the so-called “next generation” AI systems: the ones sold as the antidote to LLM poison. They promise salvation but inherit the same broken math. دا د دې لپاره چې تاسو به د ورته ریاضیاتو د ځمکې په مستقیم ډول د "Next Generation" AI سیسټمونو کې راټول کړئ: هغه چې د LLM زرق لپاره د انډول په توګه پلورل کیږي. دوی سپارښتنه کوي، مګر د ورته د کټګورۍ کټګورۍ وارث کړي. — Welcome again to the Hall of AI Shame. Here they are. — The Birthday Party Disaster ایا تاسو د توليدو پاراډکس پوه شئ؟ په یوه کمرې کې د 23 لګښتو خلکو ته ونیسئ، او د 50٪ شتون لري چې دوه د توليدو په برخه کې ونیسئ. اوس تصور وکړئ چې ستاسو د AI باید په دې فلیټ شمیره فضا کې یو میلیونه مفهومونه ذخیره کړي. . “White truck” ends up looking almost identical to “bright sky” because they landed in nearly the same spot in this giant number soup, and there’s how you got those self-driving Tesla killer cars. The math says: تضمین کول The math says: تضمین کول تضمین کول دا لکه څنګه چې تاسو د کتابونو په لټه کې د کتابو په لټه کې ډکولو له لارې د کتابتون سازمانولو هڅه وکړئ او امید وکړئ چې تاسو کولی شئ دوی وروسته په یاد کې ونیسئ ... تاسو نه کولی شئ. The Gradient Descent Hamster Wheel اوسني AI آرکټیکټونه د "gradient descent" په نامه یو څه کاروي ترڅو د غلطی دنده له خوا لږ تر لږه غلطی پیدا کړي، کوم چې دا د دې لپاره دی چې دوی په تاریک کې ځي. poking things with a stick, hoping to eventually find the exit. دوی کولی شي د کوه په شکل کې نه وګوري چې دوی هڅه کوي چې ځي، په هر وخت کې یوازې یو پټلۍ. دا لکه څنګه چې تاسو د سان فرانسیسکو سره یو چڼاسکه او یو ښکلا ښکلا چې تاسو یوازې یو مربع انچه د پټلۍ وګورئ. د ستونزو؟ دوی د نيمې infinitesimals کاروي چې د نقطې زاويه myopic نظر لري. د ستونزو؟ دوی د نيمې infinitesimals کاروي چې د نقطې زاويه myopic نظر لري. د ستونزو؟ دوی د نيمې infinitesimals کاروي چې د نقطې زاويه myopic نظر لري. خو انتظار وکړئ، دا ډبره وي: تاسو باید خپل epsilon غوره کړئ (د مرحله اندازه) you start stumbling. Pick it too big? You’re that drunk guy at a party, taking huge steps and crashing into walls. Too small? You’re inching forward like a paranoid snail, and you’ll die of old age before you get anywhere. Yup, this whole mess comes from 19th-century calculus and its epsilon–delta limit formalism. مخکې خو د ټولو دیوانۍ څه د روزنې په وخت کې ترسره کیږي: د AI د دې د ګټور کولو ګامونو میلیارده کار کوي چې هڅه کوي چې د خپل کڅوړې دنده کم کړي. میلیارده! هر یو یا لکه یو buggy روبوټ په څیر د کڅوړې په څیر یا د ویډیوډونو په څیر پرمختګ کوي چې د 1٪ کې لوستل کیږي. د کمپیوټریټیک خنډ په بشپړه توګه ډک دی - دا ټول ځکه چې دا د 19th Century کې جوړه شوې فریم ورک، تاسو ته اړتیا لري چې مخکې یو epsilon ارزښت غوره کړئ. خو د ټولو دیوانۍ څه د روزنې په وخت کې ترسره کیږي: د AI د دې د ګټور کولو ګامونو میلیارده کار کوي چې هڅه کوي چې د خپل کڅوړې دنده کم کړي. میلیارده! هر یو یا لکه یو buggy روبوټ په څیر د کڅوړې په څیر یا د ویډیوډونو په څیر پرمختګ کوي چې د 1٪ کې لوستل کیږي. د کمپیوټریټیک خنډ په بشپړه توګه ډک دی - دا ټول ځکه چې دا د 19th Century کې جوړه شوې فریم ورک، تاسو ته اړتیا لري چې مخکې یو epsilon ارزښت غوره کړئ. caused by this outdated way of doing infinitesimal calculus is the compounding effect of tiny approximation errors. You start with something like 10^-8 and think, “Eh, close enough to zero, right?” Wrong. Square it and you get 10^-16. Still. Not. Zero. After billions of iterations, these pretend infinitesimals pile up like compound interest from hell, spawning numerical explosions, instabilities, and rounding errors that eventually turn into full-blown AI hallucinations. The second error Yup, there is an easy solution: switch to a dual-number system that laughs at this entire clown show. No limits. No epsilon guessing games. No billion-step hamster wheel. When ε² = 0 by definition, not approximation, actual mathematical law: derivatives are exact, and topology just tells you where everything belongs. No stumbling required. Yup, there is an easy solution: switch to a dual-number system that laughs at this entire clown show. نه محدودیتونه. نه epsilon ګټو لوبې. نه میلیارده ګټه هامستر څرخ. کله چې ε2 = 0 د تعریف له مخې، نه تثبيت، په حقیقت کې د ریاضیاتو قانون: derivatives دقیق دي، او topology یوازې تاسو ته ورکوي چې هر څه ته اړتيا لري. نه اړتيا وي. Yup, there is an easy solution: switch to a dual-number system that laughs at this entire clown show. The Attention Apocalypse use something called “attention,” where every word looks at every other word. That’s N-squared complexity, which means if you double your text length, the computation goes up 4x. Transformers (the tech behind ChatGPT, not the robots) Transformers (د ChatGPT پیژندل تکنالوژۍ، نه روبوټونه) د 1000 کلمه سره؟ دا یو میلیون پرتله ده. د 10000 کلمه سره؟ 100 میلیون پرتله ده. ستاسو د AI په اصل کې د هر ډول کلمه سره د هر بل کلمه په ورته وخت کې پرتله کوي. سخت او ارزانه. څنګه زموږ Toroidal ماډل د AI Flatland Doom حل کوي دلته د منو سره راځي. Instead of a flat spreadsheet, we use a donut (mathematically, a torus) Instead of a flat spreadsheet, we use a donut ډونټ (د ریاضی، د ټوروس) په ډونټ کې، تاسو کولی شئ په مختلفو طریقو کې د دې په منځ کې د رنګ پوښښئ: په کور کې، په کور کې، یا هر دوې. دا احتمالي نه ده، دا د تپولوژیک دی. د مختلفو پټرنټونه د چرګانو او د شکل-8 په څیر مختلف دي. دوی کلمې کولی شي یو بل نه وي. دا "پرنټونه" هر مفهوم ته یو ځانګړي پته ورکوي چې نه شي collide دا "پرنټونه" هر مفهوم ته یو ځانګړي پته ورکوي چې نه شي cannot کولی شي The Real Infinitesimals - دا د تعریف دی. دا معنی لري چې زموږ کټګورۍ د واقعي infinitesimals، نه جعلي دي. نه شمیره انفجارونه. نه اړتیا gradient نیسي. د تپولو په ساده ... کار کوي. موږ دوه شمیره کاروئ چې ε2 = 0 د تثبيت نه ده موږ دوه شمیره کاروئ چې ε2 = 0 د تثبيت نه ده Sparse by Design ډیری اړیکو دقیقا د صفر نه دي - نه "د صفر پورې" بل . This drops complexity from N-squared to linear. That 100 million comparisons? Our attention mechanism only connects compatible winding patterns structurally impossible اوس دا ده 10،000. زموږ تمرکز ميخانيکي یوازې د متوافقې پینلونو سره اړیکه ونیسئ اوس دا ده 10،000. The Bottom Line The Bottom Line JEPA او د دې نوي AI آرکټیکټیکونه د دې لپاره چې زموږ په اصل کې د اصل AI په لاره کې راټول شي مناسب ایده دی. مګر په هرصورت، د LLMs په څیر، دوی د ورته غلطۍ تکرار کوي ترڅو په بریالیتوب سره د بریالیتوب او approximations سره یو پلټنې نړۍ ته چمتو کړي. The real leap won’t come from another tweak in parameters. It will come from changing the space itself. د واقعي چټک به د پارامترونو په بل بدلون څخه نه وي. دا به د فضا په ځان کې بدلون څخه وي. We need to abandon the Euclidean coffin that traps intelligence in two dimensions, and build in a topology where meaning can breathe. په زموږ د Toroidal ماډل کې، مفهومونه نږدې نږدې نږدې نږدې نږدې نږدې نږدې نږدې نږدې نږدې نږدې نږدې نږدې نږدې نږدې نږدې نږدې نږدې نږدې نږدې نږدې نږدې نږدې نږدې نږدې نږدې نږدې نږدې نږدې نږدې نږدې نږدې نږدې نږدې نږدې نږدې نږدې نږدې نږدې نږدې نږدې نږدې نږدې نږدې. چرا Toroidal AI نه جوړ شوی دی - اوس هم اوس، د حساس لوستونکي ممکن پوښتنه وکړي: "اگر دا په دې ډول واضح دی، نو چرا کوم چې دا جوړ نه وه؟" "اگر دا په دې ډول واضح دی، نو چرا کوم چې دا جوړ نه وه؟" مناسب پوښتنه - او د ځواب په ځان کې د موضوع ثابتوي. The entire AI establishment has sunk trillions into Euclidean architectures. د دې جغرافیې بدلون به معنی ولري چې د کاتراډر له خپل بنسټونو څخه بیا جوړ شي - او ځینې انجنيرونه کولی شي د خپل د معبد په پلهونو کې چټک کړي. 1. Institutional Inertia: Every framework, every GPU kernel, every optimization routine assumes a flat world هر فریم ورک، هر GPU کورل، هر غوره کولو روښانه یو فلیټ نړۍ فرض کوي. Every framework, every GPU kernel, every optimization routine assumes a flat world . Retraining them to reason with curvature, continuity, and dual numbers is not a weekend tutorial - it’s a civilizational shift in mathematical literacy. 2. The Workforce Barrier: __ A full generation of machine-learning engineers has been trained to think in gradients, not geometry د ماشین زده کړې انجنیرانو بشپړ نسل د ګراډینټونو په اړه فکر کولو لپاره روزل شوی دی، نه جغرافیایی . Any true geometric paradigm shift would invalidate entire layers of existing intellectual property and licensing chains. The system isn’t optimized for truth - it’s optimized for control. 3. Patents and IP Locks: Big Tech doesn’t innovate; it defends its moat Big Tech doesn’t innovate; it defends its moat From cloud infrastructure to AI chips, everything has been built for the flatland paradigm. Even when engineers it’s broken, the machinery keeps running - . 4. The Sunk-Cost Fallacy: know ځکه چې د دې اعتراف کول به ډیری توازنونه او ډیری اګانو خراب کړي. ځکه چې د دې اعتراف کول به ډیری توازنونه او ډیری اګانو خراب کړي. ځکه چې د دې اعتراف کول به ډیری توازنونه او ډیری اګانو خراب کړي. So yes - it hasn’t been built yet. نه ځکه چې دا غلط دی. خو ځکه چې دا ، د خپل غلطیونو په اړه د نړۍ لپاره ډیر خراب، او ډیر ارزښت لري. too right And that’s precisely why it will happen. ځکه چې د ریاضی په اړه مهمه نه ده چې هغه یې مقاومت کوي. دا یوازې ګټه کوي - تل. And soon, the new startups will notice the gap. You’ll watch Toroidal AI evolve exactly as every disruptive technology has before it: First ignored - Then ridiculed “crackpot” accusations from people who don’t understand topology. And finally, triumphantly accepted*“Of course! We always knew Euclidean space was wrong.” too threatening to a trillion dollars in sunk investments. And soon, the new startups will notice the gap. You’ll watch Toroidal AI evolve exactly as every disruptive technology has before it: First ignored - Then ridiculed “crackpot” accusations from people who don’t understand topology. او په پایله کې، ترټولو ګټه واخلئ * *: "د طبيعي! موږ تل پوه شو چې د یاکلیډینې فضا غلط دی." هم ته د تریلیون ډالرو په غليظ استوګنې ته خطر ورکوي. History doesn’t repeat itself. It curves. 😁 د 10 مهمو پیژندنې د JEPA Architectures په اړه: (September 2025) 1.- LLM-JEPA: Large Language Models Meet Joint Embedding Predictive Architectures 1.- LLM-JEPA: لوی ژور ماډلونه په ګډه کې د مخکښ آرکټیکشنونو سره راځي 1.- LLM-JEPA: لوی ژور ماډلونه په ګډه کې د مخکښ آرکټیکشنونو سره راځي (د 2025 کال د اپریل) 2.- ACT-JEPA: د بریالیتوب د سیاستونو د وړاندې کولو د زده کړې لپاره د نوټ Joint-Embedding Predictive Architecture 2.- ACT-JEPA: Novel Joint-Embedding Predictive Architecture for Efficient Policy Representation Learning 2.- ACT-JEPA: د بریالیتوب د سیاستونو د وړاندې کولو د زده کړې لپاره د نوټ Joint-Embedding Predictive Architecture (February 2025) 3.- Point-JEPA: A Joint Embedding Predictive Architecture for Self-Supervised Learning on Point Cloud 3.- Point-JEPA: د Point Cloud په اړه د ځان څارنې لپاره یو مشترکه انډول پیژندني آرکیټیک 3.- Point-JEPA: د Point Cloud په اړه د ځان څارنې لپاره یو مشترکه انډول پیژندني آرکیټیک د تبادلې تمرکز پیچیدو په اړه: (د اکتوبر 2024) 4.- د Transformers پای ته؟ د پاملرنې د چمتو کولو او د Sub-Quadratic Architectures د ودې په اړه 4.- د Transformers پای ته؟ د پاملرنې د چمتو کولو او د Sub-Quadratic Architectures د ودې په اړه 4.- د Transformers پای ته؟ د پاملرنې د چمتو کولو او د Sub-Quadratic Architectures د ودې په اړه (د اکتوبر 2023، اوس هم په پراخه کچه په 2024-2025 کې اشاره شوي) 5.- FlashAttention-2: Faster Attention with Better Parallelism and Work Partitioning 5.- FlashAttention-2: د ښه paralelism او د کار د پارټینګ سره په چټکۍ سره دقت 5.- FlashAttention-2: د ښه paralelism او د کار د پارټینګ سره په چټکۍ سره دقت د Toroidal / Topological نوري شبکې په اړه: (January 2022, Nature — still foundational for 2024–25 work) 6.- Toroidal Topology of Population Activity په ګرځنده سیلونو کې 6.- Toroidal Topology of Population Activity په ګرځنده سیلونو کې 6.- Toroidal Topology of Population Activity په ګرځنده سیلونو کې (د 2022 کال په میاشت کې) 7.- په Toroids Deep Networks: د Simmetries د جغرافیې جغرافیې کې د فلیټ جغرافیې جوړښت ښودل 7.- Deep Networks on Toroids: Removing Symmetries Reveals the Structure of Flat Regions in the Landscape Geometry 7.- په Toroids Deep Networks: د Simmetries د جغرافیې جغرافیې کې د فلیټ جغرافیې جوړښت ښودل On Dual Numbers & Automatic Differentiation: (د جنوري په 2025 کې) 8-. Dual Numbers for Arbitrary Order Automatic Differentiation 8-. دوه شمیره لپاره د عادي نظم اتومات فرق 8-. دوه شمیره لپاره د عادي نظم اتومات فرق په LLM Hallucinations: (September 2025) 9.- چرا د لغوي ماډلونه هلیسینټونه کوي 9.- چرا د لغوي ماډلونه هلیسینټونه کوي 9.- چرا د لغوي ماډلونه هلیسینټونه کوي Bonus - Yann LeCun’s Vision: (د 2025 کال د اپریل) 10.- د نړيوال ماډلونه 10.- د نړيوال ماډلونه 10.- د نړيوال ماډلونه