كنت أراقب إعلانات المنتجات الديناميكية في تويتر، حيث أرتبطت بالملايين من المستخدمين مع مئات الملايين من منتجات التجارة الإلكترونية في الوقت الحقيقي. كانت النتائج الأكثر شيوعاً بين 5 و 6 منتجات لكل مستخدم. استخدمت النظام إدخالات المنتجات والمستخدمين مع طرازات ML الكلاسيكية لخدمة الإعلانات الشخصية على نطاق تويتر. هذا كان قبل بضعة سنوات. ولكن الآن، الجميع يتحدثون عن الذكاء الاصطناعي واللغات الكبيرة كما لو أنهم سيحلون كل شيء. لذلك، كنت أفكر في ما إذا كنت قد وضعت إعلانات المنتج الديناميكي اليوم، هل استخدمت LLM؟ وأكثر أهمية، ما الذي لن يتغير على الإطلاق، ولماذا؟ الإجابة: سأستخدم LLMs على حوالي 20% من النظام، وبشكل خاص لإنتاج إدراج، والحفاظ على كل شيء آخر كما هو الحال. نهجنا الأصلي المشكلة في اليد: نصائح المنتجات للمستخدمين الذين هم على الأرجح يلجأون إلى الشراء، في حين أنهم يتحركون بسرعة في خطة عملهم. كان هناك ملايين المنتجات التي تختارهم وشركات الإعلانات. بالإضافة إلى ذلك، كان هناك ملايين المستخدمين يتحركون في نفس الوقت. كان النظام بحاجة إلى إجراء تقديرات للملايين من المستخدمين في غضون ثمانية مليارات ثانية. سيكون من الضروري إكمال تقديرات الإعلانات في أقل من 50 مليارات ثانية، على الأقل. كان النهج كتابيًا للغاية (أقل من 2022). المنتجات المملوكة استخدمنا البيانات المتعددة لكل منتج، مثل عنوان، وصف، فئة، السعر، وما إلى ذلك، ونمطها في مساحة الفوركس المرتبطة ب 128 متراً. المستخدمين Embeddings تمثل المستخدمين من قبل المركبات بناءً على الإشارات مثل مشاركتهم في منصة، معلومات الملفات، والعمليات التجارية السابقة. حتى الجغرافيا والتوقيت اليوم قد تلعب دوراً هاماً هنا. نموذج التوازن في وقت التفكير ، سنستخدم نهجًا ثانويًا. أولاً ، سنستخدم سحبًا سريعًا للبحث عن أقرب قارئ للعثور على المنتجات المرشحة التي كانت ترتبط مع التركيزات المستخدمة. ثم ، سنستخدم شجرة القرار المرتفعة للتركيز على هذه المرشحين ، والتي تضم ميزات إضافية مثل الأخبار الأخيرة ، إشارات الأسعار ، والمفاهيم مثل الوقت من اليوم. كان النموذج و ANN (المقارنة المقارنة المقارنة) قابلة للتفسير والتحميل، والأهم من ذلك، سريعًا بما يكفي من حجم تويتر. كيف سأترك هذا اليوم؟ الآن هو عام 2026.إذا كنت قد وضعت هذا النظام اليوم، فهذا هو ما كنت قد تغير. إدخال المنتج أفضل مع LLM Encoders سيكون أكبر تحسين سيكون في إنتاج إدراجات المنتج أفضل.المنتجات اللغوية الكبيرة الحديثة جيدة بشكل كبير في فهم المعنى العنصري والتقاليد. بدلاً من إدراج توصيات المنتج (الغالبية منها كانت سيئة للغاية في البداية) ، سأستخدم محرر على أساس LLM لإنتاج إدراجات المنتج. هذا الأمر مهم لأن منتج يطلق عليه "السحابة المريحة" سيكون قريبًا من "السحابة المريحة للاستيقاظ"، على الرغم من أنهم لا يشاركون الكلمات الحقيقية. يجب أن تتعامل مع هذا بسهولة. all-MiniLM-L6-v2 كان لدينا في وقت سابق قائمة منتجات نيكي تحت عنوان "Air Max 270 React" التي لم تتمكن إدراجاتنا في عام 2022 من المنافسة مع المستخدمين الذين يبحثون عن "أحذية رياضية" أو "أحذية رياضية" لأنها لم تكن متوافقة مع الكلمات الرئيسية. تحسين عملية البدء البارد كما أن LLM قد يجعل التعامل مع بدء الشتاء أفضل بكثير. عندما يظهر منتج جديد في الكاتالونيه، يمكنك استخراج إشارات غنية من وصفات المنتج، والرسائل، والصور لخلق إدراج مبكر معقود. كما هو الحال، بالنسبة للمستخدمين الجدد مع تاريخ الإدماج القصير، يمكن للكوديوهات الحديثة أن تفهم المزيد من المعلومات الخاصة بهم ومواقع تويتر الأولي (إذا كان لديهم) لخلق ممثلات معقولة. لذلك، أين سيكون LLMs يناسب الأكاديمية الحقيقية؟ نهج هيدروجين سأستخدم أيضاً ML الكلاسيكي لتخزين وتقديم الجدران الحقيقية. Feature LLM or Classic LLM-based encoder to generate user and product embeddings LLM Match embeddings to generate candidate products per user Classic Final scoring and ranking Classic أندرويد على أساس LLM لإنتاج مزيج من المستخدمين والمنتجات LLM تخصيصات تنافسية لإنتاج المنتجات المرشحة لكل مستخدم الكلاسيكية النتيجة النهائية و الترتيب الكلاسيكية لماذا يجب أن أستخدم النماذج الكلاسيكية لتقييم الأرقام؟ الأسباب هي التوقعات، والتكلفة، والتعليق. لا يمكن لـ LLM أن تتخيل المنتجات للملايين من المستخدمين في أقل من 10 ميغابكسلات. إنها مأساة لدمج الميزات الرقمية وجعل قرار التصنيف. أن النماذج الكلاسيكية سوف تفعل ذلك في ميغابكسلات. على نطاق تويتر، الفارق بين 1ms و 10ms وقت النتائج يتجسد في ملايين الدولارات في تكاليف البنية التحتية والخسائر المحددة في مشاركة المستخدمين. تدريب LLM للتأكيد لكل طلب التوقيت سيكلف 50-100 مرة أكثر من نهجنا الكلاسيكي. ماذا عن إنتاج Ad Copy؟ هناك الكثير من التفكير على الإنترنت حول استخدام LLMs لإنتاج نسخة إعلانية شخصية على الطريق أو التفكير حول أهداف المستخدم في الوقت الحقيقي. إن إنشاء نسخة إعلانية مع LLMs يضيف مخاطر غير قابلة للتقبيل مثل التخيلات حول خصائص المنتج، والتصميم غير متكافئ، والمحتوى الصعب التقييم في هذه الصناعة. سيكون النظام بحاجة إلى عرض ملايين التعديلات الإعلانية يومياً، ولن يكون هناك طريقة لتقييمها للحصول على دقة وحماية العلامة التجارية. لن يكون هناك أي دليل على التخيلات حول منتج مثل "مقاومة للماء" عندما لا يكون، أو "تأكد من FDA" عندما لا يكون، سيخلق الالتزامات القانونية. ما الذي لا يتغير؟ ما إذا كان النظام يستخدم إدراجات من 2022 أو LLM من 2026، لا يزال التحدي الأساسي هو نفسه: إدراك ما يريد شخص ما من الإشارات الصوتية. قد يكون الشخص الذي يكتب على تويتر حول أحذية المشي شراء مرمى للمرشحين القادمين، أو مراقب عادي الذي شاهد مسيرته على التلفزيون. يحتاج هذا المشكلة إلى بيانات جيدة لتحديدها، والهندسة الخصائص المتفردة، والعديد من التجارب. لا تصميم نموذج حل هذا. Understanding user intent لا يمكن التفاوض. على نطاق واسع، كل ميلي ثانية تتألف. يستخدم المستخدمون التخلي عن تجربة تشعر ببطء. أنظمة الإعلانات لا يمكن أن تبطئ في تثبيت خطة الوقت. لقد شاهدت العديد من أنظمة البنية التحتية ML تتقطع في اختبارات A / B لأنها أضافت 100ms من التوقيت إلى نظام مصمم بشكل جيد. قد يكون النموذج أفضل، ولكن متطلب التوقيت يخسر كل شيء. Latency requirements لا يزال هناك مشكلات مثل بدء الشتاء للمنتجات الجديدة أو المستخدمين، ومشاكل نوعية البيانات عندما يكون الكاتالونات تحتوي على وصفات المنتج المفقودة أو غير صحيحة. Last-mile problems يسرع التفكير في نمو النماذج. يسرع فريق يمكن أن يعمل 10 تجربة في الأسبوع مع نموذج أسهل باستمرار من فريق يعمل 1 تجربة في الأسبوع مع نموذج معقد للغاية. القدرة على اختبار بسرعة، قياس النتائج، وتكرار هو أكثر قيمة من تحسينات سلبية في جودة النماذج. عندما بدأنا إطلاق إعلانات المنتج الديناميكي، نجحنا في إجراء 3-4 تجربة في الأسبوع. نجحنا في اختبار أبعاد إدخال مختلفة، ألغاز ANN مختلفة، ومميزات مختلفة في نموذج النموذج. Iteration speed السؤال الحقيقي هو: أين الحبوب؟ من الواضح أن معظم محادثات "كيفية بناء ذلك اليوم مع الذكاء الاصطناعي الحديث" لا تنتهي بالطبع.لقد لا ينبغي أن يكون السؤال ما هو ممكن مع التكنولوجيا الجديدة.لذلك يجب أن تكون: "ما هي الحقيقة في نظامك حيث يمكن أن تساعد الذكاء الاصطناعي؟". بالنسبة لنا، لم تكن المفاجأة أبداً على جودة المكونات. كان الأمر على فهم أهداف المستخدمين، والتعامل مع مشاكل جودة البيانات في قوائم المنتجات، وإدارة مشكلات بدء الشتاء، فضلاً عن بناء أنظمة يمكن أن تتعامل مع الكثافة. إذا كنت تخطط لإنشاء هذا النظام اليوم، سأستغرق 20٪ من جهودي في "استخدام LLM لإنتاج إدراجات أفضل" و 80٪ على نفس المشكلات من الحجم، جودة البيانات، التجربة، والتفكير في أهداف المستخدم. نظرية غير شعبية إن صناعة التكنولوجيا تحب التغيير في القصص. كان هناك إحباط مماثل حول blockchain و Web3 قبل بضعة سنوات. ولكن الحقيقة هي أن معظم أنظمة ML الإنتاج تعمل، وتتوسع، وتجعل المال. إن نهج الثورة من استخدام LLM سيجعل تحسين 5٪، ولكن سيكون أسرع 10 مرة وأكثر تكلفة 100 مرة. هو الذكاء الاصطناعي الحديث قيمة حقيقية عندما يتم تطبيقها بجدية إلى الحفرة، وليس كبديل لجميع النظام الذي يعمل بالفعل.