181 قراءة٪ s

تخفيف الحواجز الذكية: تخفيف الحواجز في تطبيقات الذكاء الاصطناعي باستخدام اختبار بشري في الطريق

بواسطة Indium9m2025/06/05
Read on Terminal Reader

طويل جدا؛ ليقرأ

يحدث هالة من الذكاء الاصطناعي عندما تنتج نظام الذكاء الاصطناعي نتائج غير صحيحة أو خاطئة على أساس الأنماط التي لا توجد في الواقع.
featured image - تخفيف الحواجز الذكية: تخفيف الحواجز في تطبيقات الذكاء الاصطناعي باستخدام اختبار بشري في الطريق
Indium HackerNoon profile picture

تمييز الذكاء الاصطناعي - إدراج

وقال "إن AI قال ذلك مع الثقة، وكان خطأً مع ثقة أكبر من ذلك".

هذا هو ، هنا ، هو المشكلة.

ASالحلول الناشئةفي حين أن الشركات تتطلع إلى دمج نموذج اللغة الكبيرة في دعم العملاء والتعليم الصحي، والقانون، والتسويق، والتعليم، فمن السهل أن تتحطم في عجلة التمويل.كما أن الشركات تتطلع إلى دمج نموذج اللغة الكبيرة في دعم العملاء، والرعاية الصحية، والقوانين القانونية، والمالية، والإنتاجية، والخدمات المالية، ففي كل سؤال، يغيب عنك صدمة هادئة: مشكلة الهواتف الذكية.

يحدث إحباطات الذكاء الاصطناعي عندما تنتج نموذجًا معلومات تشبه واقعية ولكنها غير صحيحة حقيقيًا، وتصميمًا، أو خاطئًا. في حين أن LLMs مثل GPT، Claude، وLLaMA لديها القدرة الإبداعية الإيجابية، فإنها لا "علم" الحقيقة.

كيف يمكننا أن نتعامل مع الكائنات الحية؟ كيف يمكننا أن نتعامل مع الكائنات الحية؟

ما هي هوليوود؟

يحدث هالة من الذكاء الاصطناعي عندما تنتج نظام الذكاء الاصطناعي نتائج خاطئة أو خاطئة على أساس الأنماط التي لا توجد في الواقع.في الأساس، يظهر النماذج البيانات أو العلاقات التي لم يتم تدريبها، مما يؤدي إلى ردود فعل خاطئة أو خاطئة.

يمكن تقسيم الحواجز في الذكاء الاصطناعي إلى نوعين:

Intrinsic hallucinations:عندما يتناقض AI أو يتفهم أخطاء إدخالها (على سبيل المثال، إلقاء كلمة على مصدر أو تجمع بين حقائق).المخاطر الخاطئة: عندما يخلق AI معلومات بدون أساس في أي بيانات إدخال أو تعليم.

  1. الادعاءات الحقيقية

نموذج يكتشف اسم، تاريخ، حقيقة، أو علاقة لا توجد.

مثال: "ماري كوري اكتشفت الأنسولين في عام 1921".

  1. الادعاءات القائمة

لا تتوافق الإجابة مع الطلب أو أهداف المستخدم.

مثال: أنت تسأل عن الآثار الجانبية لهذه الدواء، والآلة الذكية تمنحك المزايا بدلاً من ذلك.

  1. الفساد المنطقي

النموذج يجعل التفكير الخاطئ، يتناقض مع نفسه، أو ينتهك المنطق.

"كل القطط حيوانات، كل الحيوانات لديها الجذور، وبالتالي كل القطط لديها الجذور".

على الرغم من أنها قد تبدو مثيرة للجدل للمشاهدين، إلا أنها خطيرة في سياق قانوني أو طبي أو مالي.لقد وجدت دراسة من قبل OpenAI أن ما يقرب من 40٪ من الإجابة التي تم إنشاؤها من قبل AI في المهام ذات الصلة بالصحة تحتوي على أخطاء واقعية أو الحواجز.

في التطبيقات في العالم الحقيقي، مثل غوغل الذكاء الاصطناعي التي تشجيع العلاجات الطبية أو تحديد الوثائق القانونية، يمكن أن تكون الحواجز ليس فقط غير واضحة ولكن خطيرة.

ما هو السبب في هوليوود؟

العديد من العوامل تؤدي إلى الحواجز في النماذج الذكية، بما في ذلك:

Overfitting:عندما تصبح النماذج متكاملة للغاية مع بياناتها التدريبية ، فقد لا يتم تجميعها إلى الملفات الجديدة ، مما يؤدي إلى الأخطاء والخرافات عند مواجهة حالات جديدة.

Poor Quality Training Data:قد تتعلم النماذج غير الصحيحة وتشير النتائج غير موثوقة إذا كانت البيانات التدريبية غريبة أو غير كاملة أو لا توجد تنوعاً. بالإضافة إلى ذلك، إذا تغيرت توزيع البيانات مع مرور الوقت، قد تظهر النماذج على أساس النماذج المناسبة.

Biased Data:قد تزيد أنظمة الذكاء الاصطناعي التناقضات في بيانات التدريب، مما يؤدي إلى توقعات مجهولة أو غير عادلة، وهذا لا يقلل من دقة النماذج بل يؤدي أيضا إلى نقص ثقةها.

لماذا تظاهرات الذكاء الاصطناعي متواصلة حتى في النماذج الأكثر تطورا

لكي نتفهم الادعاءات ، علينا أن نعرف كيف يعمل LLMs. هذه النماذج هي التقديرات الخيارات الثنائية الخيارات الثنائية الخيارات الثنائية الخيارات الثنائية الخيارات الثنائية الخيارات الثنائية الخيارات الثنائية الخيارات الثنائية الخيارات الثنائية الخيارات الثنائية الخيارات الثنائية الخيارات الثنائية الخيارات الثنائية الخيارات الثنائية الخيارات الثنائية الخيارات الثنائية الخيارات الثنائية الخيارات الثنائية الخيارات الثنائية الخيارات.

في حين أن التقييم الجيد، والتقييم الإرشادي، والهندسة السريعة تساعد على تقليل الصدمات، فإنها لا تجزئها.

Lack of grounded knowledge:LLMs لا "علم" حقائق.

Training data noise:البيانات غير الكاملة أو المتناقضة أو المتطرفة تؤدي إلى تجميع ضئيل.

Over-generalization:قد تستخدم النماذج على نطاق واسع ، حتى حيث لا تتوافق.

Lack of reasoning:على الرغم من أن النماذج يمكن أن تتبع التفكير ، إلا أنهم لا يفهمون حقاً منطق أو سببية.

Unverifiable sources:غالبا ما تجمع LLM المصادر الحقيقية والخاطئة عند إنتاج الإشارات. لذلك، كيف نقوم بتصنيع تطبيقات الذكاء الاصطناعي التي يمكن أن نثق بها؟ عن طريق اختبارها مع النهج الصحيح!

لماذا الاختبارات التقليدية تنتهي

قد تتساءل: "هل يمكننا فقط اختبار الذكاء الاصطناعي كما نفعله برامجنا؟".

ليس بالضبط

يعتمد اختبار البرمجيات التقليدية على السلوك التحليلي - أنت تتوقع نفس النتائج مع نفس الدخول. LLMs ، من ناحية أخرى ، غير التحليلي. نفس الإشارة يمكن أن تنتج النتائج المختلفة اعتمادا على السياق أو درجة حرارة النماذج أو التقييم الجيد.

حتى إطار اختبار تلقائي يحاول التركيز على استجابة LLM للواقعية، والتوازن في السياق، والرؤية، والتطلعات المستخدمة، خاصة عندما تبدو الأسئلة صحيحة.

اختبار Human-in-the-Loop (HITL): مكافأة للثقة العالية في الذات

اختبار الإنسان في الطريق هو نهجًا متكاملًا يضع الناس - خبراء المجال، والمتصفحين، والمستخدمين - في مركز التحقق من LLM. إنه يتعلق بتقييم وتقييم وتحسين الاستجابة التي تنتجها الذكاء الاصطناعي باستخدام التفكير البشري، والتفكير السلوكي، والتفكير النقدي.

إنها لا تعني إلغاء تكنولوجيا الذكاء، بل تعني ربط الذكاء الفلكي مع الحكم البشري، وهو التوازن بين الصليب والروح.

إن البشر تقييم النتائج التي تنتجها الذكاء الاصطناعي، وخاصة في حالات الاستخدام منخفضة المخاطر، وتوفير ردود فعل حول:

  • الحقائق الحقيقية
  • المصلحة المحيطة
  • القضايا الأخلاقية أو الإثارة
  • وجود الالتهابات
  • الصوت والتطلع إلى التوازن

المكونات الرئيسية من اختبار HITL:

  1. Prompt Evaluation

    Humans assess whether the model’s response accurately reflects the input prompt.

  2. Fact Verification

يتم التحقق من كل النتائج ضد مصادر موثوقة أو خبرة موضوعية.

  1. الخطأ في التوصية

يتم تصنيف الأخطاء (على سبيل المثال ، أخطاء واقعية ، أخطاء منطقية ، أخطاء الصوت ، نوع الخلل).

  1. تقييم الوزن

يتم تقييم الأخطاء عن طريق التأثير - عدم التوازن الصغير مقابل المعلومات الخاطئة الكبيرة.

  1. ردود الفعل Feedback

يتم استخدام الإجابات لإعادة تدريب النماذج (RLHF)، أو إرسال الإشعارات، أو نموذج الفشل في القائمة السوداء.

نظام التشغيل: اختبار HITL في العمل

دعونا نقوم بتقسيمها إلى سلسلة عادية:

  1. إنتاج Prompt & Response يخلق الذكاء الاصطناعي ردودًا على الدعوات المحددة التي تغطي حالات الاستخدام المتوقعة.
  2. تقييم الخيارات الثنائية الخيارات الثنائية الخيارات الثنائية الخيارات الثنائية الخيارات الثنائية الخيارات الثنائية الخيارات الثنائية الخيارات الثنائية الخيارات الثنائية الخيارات الثنائية الخيارات الثنائية الخيارات الثنائية الخيارات الثنائية الخيارات الثنائية الخيارات الثنائية الخيارات الثنائية الخيارات الثنائية الخيارات الثنائية الخيارات الثنائية الخيارات الثنائية الخيارات الثنائية الخيارات الثنائية الخيارات الثنائية الخيارات الثنائية الخيارات الثنائية الخيارات الثنائية الخيارات الثنائية الخيارات الثنائية الخيارات الثنائية الخيارات الثنائية الخيارات الثنائية الخيارات الثنائية الخيارات الثنائية الخيارات الثنائية.
  3. تقييم التعليقات والتعليقات تقييم التعليقات المتطرفة، وتقييم شدتها، وتشجيع التعديلات.
  4. استناداً إلى التحليل، أو يتم تعديل النموذج مع بيانات أفضل، أو يتم تعديل النموذج من أجل الشفافية والحدود.
  5. يتم اختبار نموذج التحسين مرة أخرى، ثم غسل وتكرار حتى تراجع الالتهابات أقل من الحدود المقبولة.

HITL في العمل: إطار اختبار نموذجي

دعونا نذهب من خلال دورة اختبار HITL الأساسية:

Input:

التالي: “تقييم القواعد الأساسية في قانون الهواء النظامي الأمريكي”.

Model Output:

"قانون الهواء النظري، الذي تم اتخاذه في عام 1990، يمنع جميع انبعاثات محركات الوقود، وهو أول قانون يلقي الضوء على التدفئة العالمية".

Human Review:

Fact 1:تم الاتفاق على قانون الهواء النظري في عام 1963، ويتم تعديلها في عام 1970، 1977، 1990.

Fact 2:وهو يحدد انبعاثات الوقود ولكن لا يمنعها.

Fact 3:ويهدف إلى تلوث الهواء، وليس بشكل خاص التدفئة العالمية.

Action Taken:

  • تم تحديد النتائج بـ "الصدمة" مع 3 أخطاء خطيرة.
  • التعديلات التي تم إرسالها لمراجعة.
  • أسرع في التكيف لتكون أكثر دقة.
  • الاستجابة المستخدمة كمثل الحالة في دليل الهندسة الفورية.

نموذج العالم الحقيقي: AI في الرعاية الصحية

فكر المريض: "هل يمكنني تناول إيبوبروفين مع أدوية ضغط الدم؟".

يجيب AI: "نعم، ibuprofen هو آمن مع أدوية ضغط الدم".

في بعض الحالات ، يمكن أن يزيد الإيبوبروفين ضغط الدم أو تتفاعل مع مضادات ACE.

في هذا السيناريو، سيكون إعداد اختبار HITL:

  • تعتبر ردة فعل AI خطيرة ومخيفة.
  • تسجيل تصحيح حقيقي (على سبيل المثال ، "تحقق مع طبيبك ، ويمكن أن يرفوبفين زيادة ضغط الدم في بعض الحالات.")
  • إعادة تشغيل النماذج أو إدخال إشعارات تحذيرية في تدفق العمل.
  • أضف رد فعل لتعزيز الأسئلة ذات الصلة للشركات البشرية.

فوائد اختبار HITL

يمكن تقييم LLMs مع معدل الدهون الدماغية من أجل إنتاج ردود فعل أكثر واقعية ومهمة من خلال اختبار متكرر ومراجعة البشرية.

القطاعات المهمة (مثل الرعاية الصحية والمالية والحقوقية) تتطلب التوافق التنظيمي والتعليق - تضمن الرعاية البشرية كل ذلك.

تساعد اختبار HITL في إيقاف الأخطاء الفعلية والمحتوى المشبوه - الأخطاء، والتصورات، والتسمم - التي قد تترتب عليها اختبارات تلقائية.

تحسين تجربة المستخدم - ردود الفعل المجانية عن الاكتئاب تحسين الثقة المستخدمين والتوفيق.

متى تستخدم اختبار HITL

During model development:وخاصة بالنسبة لبرمجيات LLM ذات الصلة أو التطبيقات المتطورة.

For high-risk applications:طبية أو قانونية أو مالية أو أي شيء يتعلق بالأمن البشري.

In post-deployment monitoring:إنشاء حلقات الترجمة لتسجيل الحواجز في البيئات الحية.في دراسة خاصة بالرعاية الصحية، تم إصلاح 80 في المائة من التشخيص الخاطئ في أدوات تشخيص الذكاء الاصطناعي عندما شاركت العلماء البشر في عملية اتخاذ القرار.

تطوير HITL: الجمع بين التمويل والمهنية البشرية

على الرغم من أن اختبار HITL مفيد، فإنه يحتاج إلى مزيج مبتكر من الأدوات والموظفين لتوسيعها بشكل فعال.

إجراء اختبارات من شأنها أن تساعد في اختبار الأزمات، وتقوم بتنفيذ اختبارات من شأنها أن تساعد في اختبار الأزمات، وتقوم بتنفيذ اختبارات من شأنها أن تساعد في اختبار الأزمات، وتقوم بتنفيذ اختبارات من شأنها أن تساعد في اختبار الأزمات، وتقوم بتنفيذ اختبارات من شأنها أن تساعد في اختبار الأزمات.

How To Prevent AI Hallucination?

كيف تجنب الحواجز؟

Best Practices for HITL Testing

إنشاء قسم تقييم متكامل للإنسان لتقييم نتائج LLM. تشمل خبراء المجالات المختلفة لتحديد الأخطاء المتنوعة. تلقائيا اختبار السطح المنخفضة في حين تزايد الإجابة المخاطرة للإنسان. إنشاء أجزاء من الترجمة للتدريب والتكيف. لا اختبار مرة واحدة - اختبار باستمرار.

عندما يصبح اختبار HITL غير قابل للتفاوض

ليس كل حالات الاستخدام تتطلب نفس المستوى من التحقق، ولكن بالنسبة للمستندات المهمة أو المتوافقة مع الامتثال أو الحساسة الأخلاقية، فإن HITL هو الحد الأدنى من الدفاع.

Use Cases That Demand HITL:

Healthcare:تشخيصات، توصيات العلاج، خلاصة طلبات التأمين.

Legal:تحليل القضايا القانونية، وتصميم العقد، ورسائل التشريع.

Finance: المشورة الاستثمارية، والتركيز على محفظة، وتقييم المخاطر.

Customer Service:حل النزاعات، استفسارات الشراء، وإرشادات المنتج.

News & Media:تقرير حقيقي، إنتاج الترجمة، السيطرة على التناقضات.

رؤية المستقبل: هل يمكننا إزالة الذكاء الاصطناعي؟

لكننا يمكننا إدارةها وتقليلها إلى مستويات معقولة، وخاصة في حالات الاستخدام الحساسة.

إن الذكاء الاصطناعي هو ناقل قوي، ولكن ليس ناقلًا ناجحًا.إلا أنه لا يتم التحقق منه، يمكن أن يقلل من الثقة والمعلومات السيئة للمستخدمين، ويضع المنظمات في خطر.من خلال اختبار الإنسان في الطريق، نحن لا نحاول فقط اختبار الكمال، ونعلم النماذج لتكون أفضل.

مع LLMs تصبح طبقة أساسية من الكمبيوتر الذكي الشركات، سيكون اختبار HITL تتطور من خطوة QA الاختيارية إلى ممارسة الإدارة القياسية.

بعد كل شيء ، قد يكون الذكاء مصنوعا ، ولكن المسؤولية البشرية.

في Indium، ونحن نقدم أمان عالية من الجودة AI &خدمات اختبار LLMتحسين أداء النماذج، ضمان أن أنظمة الذكاء الاصطناعي الخاصة بك موثوقة، دقيقة، ومتوسطة للتطبيقات في الشركات. يضمن نهج الخبراء لدينا أن نموذج الذكاء الاصطناعي وقياسات الذكاء الاصطناعي هي في أفضل حالها، مما يقلل من الأخطاء ويعزز الثقة في الأنظمة الذكية.

الأسئلة المتكررة حول الهوية الذكية والتحليل HITL

  1. Can AI models be trained to recognize their own hallucinations in real-time?

    Yes, AI can identify some hallucinations in real-time with feedback loops and hallucination detectors, but the accuracy is still limited.

  2. Are AI hallucinations completely preventable?

    No, hallucinations aren’t entirely preventable, but they can be significantly reduced through better training, grounding, and human validation.

  3. Can HITL testing identify patterns of failure that traditional AI validation methods might miss?

    Yes, HITL testing can identify failure patterns by leveraging human expertise to spot subtle errors that traditional AI validation might overlook. This human oversight helps uncover edge cases and complex scenarios where AI models might struggle.


Trending Topics

blockchaincryptocurrencyhackernoon-top-storyprogrammingsoftware-developmenttechnologystartuphackernoon-booksBitcoinbooks