التالي : د. The AI boxes are coming. We can build our own or let Big Tech build them for us. Guess which one they’re betting on. TL;DR: Remember when Richard Hendricks kept ranting about “The Box” and everyone thought he’d lost it? Well, turns out the crazy bastard was right. We just got the timeline wrong. في ولاية سيليكون في HBO، كان "The Box" خيارًا بين منصات متقدمة تتيح للمستخدمين القدرة على المنافسة مقابل الأجهزة المتقدمة التي تدخلهم في بيئات الشركات. The Box ليست بعض ألغاز التكسير السحرية، بل هي أجهزة الذكاء الاصطناعي المتقدمة التي يمكن أن تعمل على النماذج التي كان يحتاجها مراكز البيانات في جوجل قبل عامين. النموذج الذي ينبغي أن يغضبك 2014: يظهر Amazon Echo. "هذا هو مجرد محرر"، قالنا. 2018: Google وApple تتبع مع طائراتها الخاصة. 2022: ChatGPT يقطع الإنترنت. 2025: تقدم AMD بطاقات المستهلك مع 50 TOPS. NVIDIA Jetson يصل إلى 275 TOPS ل 2400 دولار. 2027: توقعات Canalys أن 60% من أجهزة الكمبيوتر الجديدة ستكون قادرة على الذكاء الاصطناعي، مقابل 20% في عام 2024. هذا التوقيت النهائي لعام 2027 هو حيث نتقرر ما إذا كان الأسرة لديها الذكاء الاصطناعي أم تأجيرها إلى الأبد من Big Tech. Here’s What Just Changed Everything هذه النماذج التي تحتاج إلى البنية التحتية الشمسية الكبيرة؟ إصداراتها المتوسطة ولكن فعّالة تعمل على الأجهزة التي يمكنك حقا شراء - إذا كنت تعرف من أين تبحث: Consumer/Prosumer Options: AMD Ryzen AI Max+ 395: 128 جيجابايت من الذاكرة المشتركة، 2800 دولار، 45-120 جيجابايت - الجهاز الوحيد الذي يمكن القيام به Llama 70B على المستوى المحلي بمعدل 4-8 طنا / ثانية 24GB VRAM, $1,500, 350W - powerful but memory-limited, can't handle 70B models NVIDIA RTX 4090: NVIDIA Jetson AGX Orin: 64 جيجابايت RAM، 2400 دولار، 15-60W - رائع للطاقة الذكية المرتفعة ولكن يضرب جدار الذاكرة مع النماذج الكبيرة حلول Enterprise Only: NVIDIA H100/H200: 80-192 جيجابايت VRAM، $ 20,000 +، 350-1000W - يمكن تشغيل أي نموذج ولكن يتطلب البنية التحتية المورد Intel Gaudi 2/3: 96 جيجابايت + الذاكرة ، 5-8k ، 350-600W - الأداء المنافسة ولكن الأسعار المؤسسية ومتطلبات الطاقة مشاهدة النسخة كاملة : AMD Ryzen AI Max+ 395 يمكن أن تعمل Llama 70B على المستوى المحلي. GPUات NVIDIA المستخدمة تصل إلى 24 جيجابايت (لا يكفي)، بطاقات الشركة تكلفة 20،000 دولار، وحتى Jetson AGX Orin يضغط على جدار 64 جيجابايت. فقط تمكنت AMD من تحقيق ذلك من خلال تصميم الذاكرة الوحيد - ما يصل إلى 128 جيجابايت LPDDR5X المشتركة بين CPU وGPU وNPU في حزمة هادئة وفعالة للطاقة التي تناسب جهاز الكمبيوتر أو الكمبيوتر المحمول. لحظة Linux Desktop (ولكن أسوأ) جاءت Windows أولاً، وبدأت تأثيرات الشبكة، وفي الوقت الذي كان لينكس مستعداً للسياسات، كان الجميع محاصراً في بيئة مايكروسوفت. نحن في نفس الوقت مع الذكاء الاصطناعي، باستثناء هذه اللحظة، هي 2-3 سنوات، وليس عقود، والخيارات هي الذكاء في عائلتك، وليس فقط إدارة الملفات الخاصة بك. في Ready Player One ، يجد وايد وايتس حلمًا من تحديث الأجهزة القديمة من أجل الوصول إلى عالمٍ إيجابيٍ أفضل ، ولكن لا يستطيع أن يملك الأشياء الجيدة. لماذا يمكننا بالفعل الفوز هذه المرة ويمكنك تشغيل النماذج المحلية الممكنة لمحاسبات المستندات المستهلكة، والتحليل الجغرافي، والأنظمة الذكية المعتادة، ولكننا لم نتمكن حتى الآن في سرعة ChatGPT في الوقت الحقيقي. The Hardware Gap Is Closing (But Not Closed): Here’s the acceleration that matters: hardware costs are dropping 30% annually while energy efficiency improves 40% per year. New chips are delivering 2.8–3x performance gains over previous generations every 12–18 months — faster than Moore’s Law. What costs $2,800 today will cost $800-$1,200 within 18–24 months. من إلغاء TikTok إلى التناقضات التي تنتج البيانات في ChatGPT ، فإن الناس في النهاية يفكرون في أن بياناتهم ليست آمنة. Privacy Isn’t Abstract Anymore: Meta (Llama), Mistral, DeepSeek, Alibaba (Qwen) تطلق نموذجًا قابلًا للتطبيق على المستوى المحلي. Models Are Becoming Commodities: The Honest Technical Reality What Can You Actually Do With 4–8 Tokens Per Second? Let’s be honest — this isn’t for regular families yet. At 4–8 tokens per second, you’re not getting the smooth ChatGPT experience most people expect. You’re setting up tasks and waiting. This is currently for tech enthusiasts who want to experiment with local AI, developers building applications, and privacy-conscious users willing to trade convenience for data sovereignty. The real family market arrives when this hardware hits $500–800 and the software becomes as simple as setting up a wireless router. ولكن هذا هو السبب في أن هذا هو السبب: عندما تكون الذكاء الاصطناعي أسرع من العائلة، نحن بحاجة إلى البنية التحتية والتكنولوجيا البرمجية والخبرة المجتمعية للقيام بذلك. The Current Limitations: الفجوة في الأداء: النماذج المحلية لا تزال تبعد عن GPT-4o/Claude في التفكير المعقد والمهام متعددة الأطراف You’re responsible for security patches, model updates, and hardware failures Maintenance Burden: الكهرباء والحرارة: تشغيل AI 24/7 يعني التعامل مع استهلاك الكهرباء 45-120W، والإنتاج الحراري، والضغوط المحتملة من المتفجرات While improving rapidly with projects like Ollama, the tooling still has rough edges Software Ecosystem: هذا ليس plug-and-play حتى الآن. فهو أكثر شيوعًا "المتعاطي DIY ذي القدرة على القيادة مع عطلة نهاية الأسبوع عديدة ومزيد من الصبر". What You Can Actually Do Right Now If you’re technically minded: البدء في التجربة مع Ollama، ونماذج محددة، ومعدات AI Edge تسجيل ما يعمل (وما لا يعمل) لأشخاص آخرين Join communities building this stuff: r/selfhosted, r/homelab, r/LocalLLaMA If you’re business-minded: There’s a service economy emerging around edge AI setup and maintenance الأسرة تريد السيادة الرقمية ولكنها لا تعرف كيفية بناءها If you just care about digital freedom: Support projects building alternatives لا تشتري الكوب الأول الذي يمنح السفن Share this with people who remember when the internet was decentralized Cloud vs. Edge: الأرقام الحقيقية Cloud AI (ChatGPT Plus, Claude Pro): Upfront cost: $0 تكلفة سنوية: $ 240- $ 600 ($ 20-50 / شهر) 3 سنوات: $720 - $1,800 Data privacy: Your conversations leave home and train corporate models Edge AI (DIY Setup): تكلفة إضافية: 2500 دولار (مجموعة AMD Ryzen AI Max+) تكلفة سنوية: $ 100 - $ 200 (الطاقة والخدمة) 3 سنوات: 2.800 - 3.100 $ Data privacy: Everything stays local الرياضيات تعمل: 2500 دولار تكلفة الأجهزة مرة واحدة مقابل 20-50 دولار / شهري للمشتريات إلى الأبد، ولكن القيمة الحقيقية هي خصوصية. نحن في لحظة 1993 في عام 1993، كنت لا تزال قادرة على اختيار الإنترنت المنقسمة. في عام 2003، كانت المنصات قد فازت. In 2025, you can still choose edge AI sovereignty. By 2027, multiple industry forecasts project a major inflection point: ، , and the ecosystems will be locked in. 60% of new PCs will be AI-capable AI compute will grow 10x globally The window is open now. Pied Piper’s vision of decentralized technology serving users instead of platforms is finally technically possible. الأبواب ليست مفتوحة إلى الأبد. خط أسفل السؤال هو: هل ستقوم بتصنيعها، أم ستقوم بتصنيعها لـ Big Tech؟ The next 2–3 years will determine whether families own their AI or rent it forever. The hardware exists. The models are available. The only missing piece is the decision to act. ، مع و المعدات موجودة، والأنماط موجودة، والسوق يحتاجها، والسؤال الوحيد هو: من يسيطر عليه؟ توقعات الباحثين من الصناعة أن يتم دمج الذكاء الاصطناعي في جميع برامج الأعمال بحلول عام 2027 globally available AI compute expected to grow 10x سوق الذكاء الاصطناعي يصل إلى 1 تريليون دولار ماذا تفكرون؟ هل نشاطنا في المستقبل أم نلعب فقط كوسيلة لقتال الحرية الرقمية؟