وفقًا لتقرير حديث، تتجه فرق الأمن المؤسسية بشكل متزايد إلى منصات أمن الاستدلال مع كشف الهجمات التي تعتمد على الذكاء الاصطناعي في وقت التشغيل عن نقاط ضعف حرجة. يأتي هذا التحول في الوقت الذي تكافح فيه التدابير الأمنية التقليدية لمواكبة المهاجمين الذين يستغلون نقاط الضعف في وكلاء الذكاء الاصطناعي العاملين في بيئات الإنتاج.
تعتبر السرعة المتزايدة لهذه الهجمات محركًا رئيسيًا وراء تبني منصات أمن الاستدلال. سلط تقرير CrowdStrike العالمي للتهديدات لعام 2025 الضوء على أوقات الاختراق السريعة، حيث حقق المهاجمون حركة جانبية في غضون 51 ثانية فقط بعد الوصول الأولي. هذه السرعة تجعل التدابير الأمنية التقليدية، التي غالبًا ما تعتمد على اكتشاف تواقيع البرامج الضارة، غير فعالة. وأشار التقرير أيضًا إلى أن 79٪ من الهجمات المكتشفة كانت خالية من البرامج الضارة، وتستخدم تقنيات "لوحة المفاتيح العملية" لتجاوز دفاعات نقطة النهاية.
أكد مايك ريمر، كبير مسؤولي أمن المعلومات الميدانيين في Ivanti، على تقلص نافذة الفرص المتاحة لتصحيح الثغرات الأمنية. وقال ريمر لموقع VentureBeat: "يقوم المهاجمون بعكس هندسة التصحيحات في غضون 72 ساعة". "إذا لم يقم العميل بالتصحيح في غضون 72 ساعة من الإصدار، فسيكون عرضة للاستغلال. لقد تعززت السرعة بشكل كبير بفضل الذكاء الاصطناعي." هذه السرعة في تسليح الثغرات الأمنية تجبر مديري أمن المعلومات على البحث عن حماية في الوقت الفعلي ضد الهجمات التي تستهدف نماذج الذكاء الاصطناعي واستدلالاتها.
تعالج منصات أمن الاستدلال هذا التحدي من خلال مراقبة سلوك نماذج الذكاء الاصطناعي في وقت التشغيل، واكتشاف الحالات الشاذة والهجمات المحتملة بناءً على الانحرافات عن الأنماط المتوقعة. توفر هذه المنصات رؤية وتحكمًا في وكلاء الذكاء الاصطناعي في الإنتاج، مما يمكّن فرق الأمن من تحديد التهديدات والاستجابة لها قبل أن تتسبب في أضرار جسيمة.
يمثل صعود الهجمات التي تدعمها الذكاء الاصطناعي تحولًا جوهريًا في مشهد التهديدات. النماذج الأمنية التقليدية، المصممة للحماية من البرامج الضارة ونقاط الضعف المعروفة، غير مجهزة للتعامل مع الطبيعة الديناميكية والتكيفية لهذه التهديدات الجديدة. التأثير على الصناعة كبير، حيث تتصارع المؤسسات في جميع القطاعات مع تحدي تأمين عمليات نشر الذكاء الاصطناعي الخاصة بها. من المتوقع أن يستمر نشر منصات أمن الاستدلال في التسارع طوال عام 2026 حيث تسعى المؤسسات إلى التخفيف من المخاطر المرتبطة بالهجمات التي تعتمد على الذكاء الاصطناعي في وقت التشغيل.
Discussion
Join the conversation
Be the first to comment