أظهر باحثون مدى ضعف وسائل الدفاع عن الذكاء الاصطناعي، حيث نجحوا في اختراق جميع الأنظمة التي اختبروها، وفقًا لدراسة نُشرت في أكتوبر 2025. وكشفت الورقة البحثية، التي تحمل عنوان "المهاجم يتحرك ثانيًا: هجمات تكيفية أقوى تتجاوز الدفاعات ضد عمليات كسر الحماية وحقن التعليمات في نماذج اللغات الكبيرة"، عن تجاوز 12 وسيلة دفاع عن الذكاء الاصطناعي، ادعى العديد منها تحقيق معدلات نجاح هجوم تقترب من الصفر، بمعدلات نجاح تجاوزت 90٪ في معظم الحالات. أجرى البحث فريق من OpenAI و Anthropic و Google DeepMind.
تثير النتائج مخاوف جدية بشأن فعالية منتجات أمن الذكاء الاصطناعي التي تنشرها المؤسسات حاليًا. أفاد لويس كولومبوس في 23 يناير 2026، أن العديد من هذه المنتجات يتم اختبارها ضد مهاجمين لا يمثلون بدقة التهديدات الواقعية.
قام فريق البحث بتقييم الدفاعات القائمة على التعليمات، والقائمة على التدريب، والقائمة على التصفية في ظل ظروف الهجوم التكيفي. شهدت الدفاعات القائمة على التعليمات، والمصممة لمنع التعليمات البرمجية الضارة من التلاعب بنماذج الذكاء الاصطناعي، معدلات نجاح هجوم تتراوح بين 95٪ و 99٪. وبالمثل، كان أداء الطرق القائمة على التدريب، والتي تهدف إلى تحصين نماذج الذكاء الاصطناعي ضد الهجمات من خلال بيانات تدريب محددة، ضعيفًا، حيث تراوحت معدلات التجاوز من 96٪ إلى 100٪.
استخدم الباحثون منهجية صارمة للتحقق من صحة الادعاءات التي قدمتها أنظمة الدفاع عن الذكاء الاصطناعي. وشمل ذلك فريقًا مكونًا من 14 مؤلفًا ومجموعة جوائز بقيمة 20,000 دولار لتحفيز الهجمات الناجحة. اختبرت الدراسة الدفاعات عبر أربع فئات، ادعت جميعها في البداية تحقيق معدلات نجاح هجوم تقترب من الصفر.
تمتد آثار هذا البحث إلى ما هو أبعد من المخاوف الأمنية المباشرة. إن التبني الواسع النطاق للذكاء الاصطناعي عبر مختلف القطاعات، من التمويل إلى الرعاية الصحية، يستلزم اتخاذ تدابير أمنية قوية. يسلط الضعف الذي تم إثباته في وسائل الدفاع الحالية عن الذكاء الاصطناعي الضوء على الحاجة إلى اتباع نهج أكثر استباقية وتكيفًا لأمن الذكاء الاصطناعي.
بالنظر إلى هذه النتائج، يجب على المؤسسات التي تشتري حلول أمن الذكاء الاصطناعي أن تطرح على البائعين أسئلة مهمة حول منهجيات الاختبار الخاصة بهم ومرونة الهجوم التكيفي. يجب أن تتضمن هذه الأسئلة ما يلي:
1. ما هي أنواع الهجمات التكيفية التي تم استخدامها لاختبار النظام؟
2. ما هو معدل نجاح الهجوم الموثق في ظل ظروف الهجوم التكيفي؟
3. ما هو عدد المرات التي يتم فيها إعادة تقييم النظام مقابل ناقلات الهجوم الجديدة؟
4. ما هي الطرق المستخدمة لمحاكاة سلوك المهاجم الواقعي؟
5. كيف يتعامل النظام مع عمليات حقن التعليمات ومحاولات كسر الحماية؟
6. ما هي عملية تحديث النظام استجابةً للثغرات الأمنية المكتشفة حديثًا؟
7. هل يمكن للبائع تقديم تحقق مستقل من ادعاءات أمان النظام؟
يؤكد البحث على أهمية المراقبة المستمرة والتكيف في مواجهة تهديدات الذكاء الاصطناعي المتطورة. مع تقدم تكنولوجيا الذكاء الاصطناعي، يجب أن تتقدم أيضًا استراتيجيات الدفاع ضد الجهات الخبيثة. تشير النتائج إلى الحاجة إلى مزيد من التعاون بين مطوري الذكاء الاصطناعي وباحثي الأمن والمؤسسات لتطوير حلول أمن الذكاء الاصطناعي أكثر قوة ومرونة.
Discussion
Join the conversation
Be the first to comment