لقد أمضيتُ مسيرتي المهنية في خوض غمار أمن المعلومات، منتقلاً من عمليات التدقيق الفني المتعمقة إلى العمل الحاسم في مجال حوكمة الذكاء الاصطناعي التوليدي وإدارة المخاطر والامتثال (GRC). طوال تلك الفترة، تعلمتُ حقيقةً راسخةً: كل تحول جذري في نموذج التكنولوجيا يُحدث تحولاً مُقابلاً في استراتيجية الهجوم. على مدار العقد الماضي، اعتمدنا على التدريب الأمني والتكنولوجيا للحماية من التصيد الاحتيالي. أقف هنا اليوم لأُخبركم أن هذا العصر قد ولّى. في اللحظة التي احتفلنا فيها بنجاح بتدريب زملائنا على اكتشاف رسائل البريد الإلكتروني سيئة الصياغة، قام الخصوم بتطوير كامل قدراتهم التشغيلية. السؤال المُلحّ الذي أواجهه يوميًا هو: كيف نتصدى لتهديدٍ يُنفّذ بتخطيطٍ ومثابرةٍ وعمقٍ نفسيٍّ يُضاهي تهديدًا بشريًا مُتفانيًا، ومع ذلك يُنفّذ بسرعةٍ ونطاقٍ آليٍّ هائل؟ هذا هو التحدي الجوهري الذي يُمثّله الذكاء الاصطناعي الوكيل. في هذه المقالة، أود أن أشرح لكم لماذا يُعدّ الذكاء الاصطناعي الوكيل السلاحَ الأمثل للعنصر البشري، إذ يتجاوز التصيد الاحتيالي البسيط إلى التلاعب الدقيق. سأشارككم رؤيتي حول كيفية تأثير هذه التقنية بشكل جذري على سلسلة الهجمات السيبرانية، مستندةً إلى خبرتي في مجال الحوكمة والمخاطر والامتثال لتوضيح الإخفاقات الفادحة في استراتيجياتنا الحالية لإدارة مخاطر الجهات الخارجية والمرونة التشغيلية. بالنسبة لأي مطور أو مهندس أو متخصص في الأمن يقرأ هذا، فإن فهم هذا التحول ليس أمرًا اختياريًا؛ بل هو الأساس الجديد للبقاء. تعريف الوكيل: ليس ماجستير القانون من جدك عندما يناقش معظم العاملين في هذا المجال الذكاء الاصطناعي في سياق الهجمات الإلكترونية، فإنهم لا يزالون يتصورون أن نماذج اللغة الكبيرة (LLMs) ستُنشئ رسائل بريد إلكتروني احتيالية دقيقة السياق. هذا تهديد خطير بلا شك، ولكنه في جوهره سلبي. لا يزال الخصم بحاجة إلى شخص (أو برنامج نصي) لإدارة الحملة، وتحليل الردود، وتحديد الخطوة التالية. الذكاء الاصطناعي الوكيل مختلف. أُعرّفه بأنه نظام مبني على ماجستير في القانون، مُعزز بالقدرة على التفكير والتخطيط وتنفيذ الإجراءات في العالم الرقمي الخارجي، والأهم من ذلك، التصحيح الذاتي بناءً على الملاحظات. فكّر فيه ككيان برمجي مستقل أكثر منه كأداة. يُحدد الوكيل هدفًا، مثل استخراج بيانات العملاء الحساسة، ثم يُنشئ خطة متعددة الخطوات: العثور على هدف، وجمع المعلومات، واستكشاف الثغرات الأمنية، وصياغة ثغرة أمنية، وإدارة الاختراق. إذا فشلت الخطوة الثالثة، لا يتوقف الوكيل؛ بل يُعيد توجيه مساره، ويتعلم، ويجرب نهجًا جديدًا. الفرق الجوهري الذي أُحلله في عملي في مجال الحوكمة والمخاطر والامتثال هو الاستقلالية. يمكن للذكاء الاصطناعي الوكيل أن يقضي أسابيع أو أشهرًا في استطلاع صامت ومتواصل، مُكيّفًا تكتيكاته الهندسية الاجتماعية آنيًا حتى يجد الحلقة الضعيفة اللازمة - وهذه الحلقة غالبًا ما تكون إنسانًا. سلسلة القتل الجديدة: التحسين النفسي على نطاق واسع تفترض سلسلة جرائم القتل السيبرانية التقليدية تسلسلًا مستهلكًا للوقت من الأحداث، مما يمنحنا فرصًا سانحة للكشف عن التهديدات والتخفيف من حدتها. لكن الذكاء الاصطناعي الفعّال يُقلّص هذه الفرص إلى ما يقارب الصفر. أرى أخطر تسارع يحدث في المراحل الأولية: الاستطلاع والتسليح. لسنوات، كنتُ أدعو إلى أهمية الحد من تسريب المعلومات. الآن، يستطيع الذكاء الاصطناعي الوكيل القيام بعمل عشرين محللًا متمرسًا في دقائق، حيث يجمع البيانات من منصات التواصل الاجتماعي والسجلات العامة ومنتديات الويب المظلم. لا يقتصر دوره على العثور على اسم الموظف ووظيفته فحسب، بل يرسم خريطة لعلاقاته ومشاريعه الأخيرة وكفاءته اللغوية التقنية، وحتى حالته النفسية بناءً على منشوراته العامة. عندما يتعلق الأمر بالهندسة الاجتماعية، يُحسّن الوكيل استغلال نقاط الضعف النفسية. التصيد الاحتيالي التقليدي عملية عشوائية مصممة لاصطياد بعض الأهداف السهلة المنال. أما الذكاء الاصطناعي الوكيل فيصوغ سردًا مُخصصًا للغاية. فهو يعرف تمامًا أي مشروع أقوده حاليًا، وأي مورد خارجي أتعامل معه أكثر من غيره، وأي من زملائي أثق به ثقةً تامة. يمكنه توليد اتصالات تُحاكي تمامًا نبرة وإيقاع ومصطلحات زميل موثوق، مستغلًا ثقتي البشرية لتجاوز طبقات الأمان التقني. هذه القدرة ليست مجرد تهديد؛ بل هي تحدٍّ عميق لمفهوم "جدار الحماية البشري" بحد ذاته. معركتي على المحيط: متجه الطرف الثالث في وظيفتي الحالية، تُعدّ إدارة مخاطر الجهات الخارجية أمرًا بالغ الأهمية. لطالما أدركتُ أن وضعي الأمني يعتمد على قوة أضعف مورد لديّ. لكن الذكاء الاصطناعي الوكيل يُحوّل هذه المعرفة الشائعة إلى كارثة. لقد قمتُ مؤخرًا بمحاكاة سيناريو هجوم بيّن لي الخطر بوضوح. ركزتُ على مزود خدمة مُدار (MSP) يتولى مراقبة بيئة السحابة لدينا، وهو شريك موثوق وطويل الأمد. صممتُ ذكاءً اصطناعيًا فعّالًا لاستهداف هذا المزود تحديدًا، ليس عبر رسائل بريد إلكتروني جماعية، بل عبر حملة هندسة اجتماعية مُعقدة تستهدف أحد مهندسيهم المبتدئين، والذي كنتُ أعلم أنه يتمتع بصلاحيات إدارية. أمضى العميل أسبوعًا في إنشاء شخصية رقمية زائفة. أنشأ ملفًا شخصيًا مفصلًا للغاية لجهة اتصال جديدة وهمية لعميل يتشارك اهتمامًا تقنيًا محددًا مع المهندس المستهدف. عندما تواصل العميل أخيرًا، لم يكن طلبًا للحصول على بيانات اعتماد؛ بل كان استفسار دعم معقدًا يتعلق بواجهة برمجة تطبيقات شريكة ضعيفة يستخدمها مزود الخدمة المُدارة. كان التواصل سلسًا: استخدام صحيح للمصطلحات التقنية، وإلحاح مهذب، ومقتطف شيفرة برمجية يبدو سليمًا ولكنه خبيث "لتصحيح" مشكلة واجهة برمجة التطبيقات المزعومة. نفذ المهندس الشيفرة، واثقًا بما اعتبره زميلًا موثوقًا يطلب مساعدة فنية على واجهة برمجة تطبيقات مألوفة. ما حدث بعد ذلك كان مُرعبًا: قام العميل تلقائيًا بتغيير إعداداته باستخدام بيانات الاعتماد المُخترقة، وأنشأ نظامًا للاستمرارية، وبدأ برسم خريطة لشبكتي، كل ذلك في غضون عشرين دقيقة من التفاعل البشري الأولي. أدركتُ التحول الجذري هنا: لم يكن العميل بحاجة إلى ثغرة أمنية في نظامي لتنفيذ الاختراق؛ بل استغل ثغرة أمنية في إطار الثقة وعملية مصادقة واجهة برمجة التطبيقات (API). صُمم إطار عمل GRC الخاص بي للتحقق من سياسات البائع، وليس القرارات البشرية الفورية التي تُتخذ تحت ضغط حجج مقنعة من مُفترس رقمي مُستقل. عندما يلتقي الرقمي بالواقعي: مهاجمة المرونة التشغيلية الجانب الأكثر إثارة للقلق، من وجهة نظري كمتخصص في الحوكمة والمرونة التشغيلية والحوكمة والمخاطر، هو قدرة العميل على تنسيق هجمات متعددة الاتجاهات لسد الفجوة بين تكنولوجيا المعلومات وتكنولوجيا التشغيل. هذه القدرة تحول التهديد من فقدان البيانات إلى التعطيل المادي والشلل المالي المحتمل. أفكر كثيرًا في عمليات لوجستيات سلسلة التوريد التي ساهمتُ في تأمينها. تخيّل ذكاء اصطناعيًا مُبرمجًا مسبقًا بهدف التسبب في تجميد كبير لسلسلة التوريد لعملية تصنيع حيوية. أولًا، يُنفّذ العميل اختراقًا مُستهدفًا لشبكة تكنولوجيا المعلومات الخاصة بالمُصنّع (النطاق الأولي). بمجرد دخوله، يُحلّل تلقائيًا تدفق الاتصالات بين نظام تكنولوجيا المعلومات وبيئة تكنولوجيا التشغيل، بما في ذلك خوادم جدولة الإنتاج، وأنظمة إدارة المخزون، ومنصات اللوجستيات. في الوقت نفسه، يُطلق العميل حملة هندسة اجتماعية ثانوية، غير ذات صلة، ضد مزود خدمات لوجستية تابع لجهة خارجية (3PL) موثوق. يُرسل رسائل بريد إلكتروني مُحددة للغاية وحساسة زمنيًا إلى مدير التوزيع لدى مزود الخدمات اللوجستية، مُستخدمًا نبرة استعجال إداري داخلي رأيتها تُطبق مرات لا تُحصى في حالات الأزمات، مما يُجبرهم على إيقاف الشحنات قبل أوانها بسبب "تدقيق تنظيمي" وهمي. النتيجة هي حركة كماشة. لا يحتاج العميل في شبكة تكنولوجيا المعلومات إلى تنفيذ حمولة تقنية تشغيلية مدمرة؛ بل يُحدث ببساطة فوضى في البيانات: إفساد جرد المخزون، وتعديل جداول الإنتاج بالدقائق، وإنشاء طلبات وهمية. مع إيقاف الشحنات الفعلي من قِبل مزود الخدمات اللوجستية الخارجي (3PL) بتأثير بشري، يكون الاضطراب التشغيلي كاملاً. سيتعين عليّ ليس فقط إدارة خرق بيانات، بل إدارة انهيار تشغيلي شامل حيث تتوزع الأسباب الجذرية بين كيانين موثوقين وذكاء اصطناعي مستقل واحد. ستُطغى على استجابتي الفورية للمرونة التشغيلية تعقيد الهجوم وتنسيقه الهائل، والذي لا يسعني وصفه إلا بأنه ذو نهج استراتيجي عسكري. تغيير نموذج الدفاع: من جدار الحماية إلى الإطار أعتقد أن هوسنا الحالي بالضوابط التقنية، رغم ضرورته، أصبح ثانويًا مقارنةً بالحاجة المُلِحّة إلى إطار عمل قوي لحوكمة الذكاء الاصطناعي وإدارة المخاطر. فالإصلاحات التقنية بطيئة جدًا بحيث لا تواكب برنامجًا قادرًا على إعادة كتابة سلسلة استغلاله ديناميكيًا. لقد أقنعني عملي في GenAI GRC بأن الدفاع يجب أن يبدأ بإعادة تقييم جذرية لمفهوم "جدار الحماية البشري". لا يمكننا محو قدرة الإنسان على الخطأ أو التعاطف أو التعب من خلال التدريب. بدلاً من ذلك، أدعو إلى أطر عمل تُدخل "وكلاء مضادين" مدعومين بالذكاء الاصطناعي في أنظمة GRC وأنظمة المراقبة لدينا. يجب تدريب هؤلاء الوكلاء المضادين ليس فقط على اكتشاف الأنماط الخبيثة المعروفة، بل أيضًا على تحديد نية واستقلالية سلوك الوكيل المُعادي. أتحدث هنا عن الكشف الفوري عن أي شذوذ سلوكي في جميع تفاعلات واجهات برمجة التطبيقات (API) مع جهات خارجية، وتطبيق سياسات آلي فوري يُجمّد العمليات الحرجة عندما يُخالف قرار بشري، مهما بدا مشروعًا، نمطًا مُحددًا مسبقًا من المخاطر، وفقًا لقواعد الحوكمة والمخاطر والامتثال (GRC). هذا يعني تحويل آليات المصادقة من الاعتماد على التحقق البشري إلى أنظمة ثقة صفرية تُدقّق في كل استدعاء لواجهة برمجة التطبيقات (API) وإجراءات المستخدم بناءً على سياقها الآلي، وليس فقط مصدرها البشري. العدو المستقل يطالب بالدفاع المستقل لقد ولّى عصر التصيد الاحتيالي البسيط. أتوقع مستقبلاً تُجري فيه أنظمة الذكاء الاصطناعي الوكيل المتطورة والمستقلة اختباراتٍ مستمرة على دفاعاتنا، مستغلةً السمات البشرية التي نُقدّرها: الثقة والسرعة والكفاءة. لقد أظهرت لي خبرتي في إدارة المخاطر في هذا المشهد المتغير أن الدفاع السلبي والتدريب البشري لم يعودا كافيين. فالخصم المستقل يتطلب دفاعًا ذكيًا ومستقلًا بنفس القدر. يقع عبء المسؤولية الآن على عاتق مجتمع التكنولوجيا لبناء أنظمة ليست آمنة فحسب، بل مرنة من حيث التصميم: أنظمة لا تُعدّ فيها الحوكمة والمخاطر والامتثال أمرًا ثانويًا، بل هي جوهر منطق التشغيل. أحثّ كل من يُطوّر الجيل القادم من البرمجيات على دمج الحوكمة وضوابط المخاطر مباشرةً في بنية الكود. إذا فشلنا في ذلك، فإننا نُسلّم مفاتيح ممالكنا الرقمية إلى أكثر الخصوم تطورًا واجتهادًا وتكيفًا عرفهم العالم. هذا تحدٍّ يُمكننا، بل يجب علينا، مواجهته بكل قوة.