الفجوة بين تهديدات برامج الفدية والدفاعات المصممة لإيقافها تتسع، مع وجود تباين كبير بين مستوى التهديد المتصور والاستعداد، وفقًا لتقرير حديث. في حين أن 63% من المتخصصين في الأمن يصنفون برامج الفدية على أنها تهديد كبير أو حرج، يشعر 30% فقط بالاستعداد التام للدفاع ضدها، مما يخلق فجوة 33 نقطة، كما ورد في VentureBeat. تتفاقم هذه الثغرة الأمنية المتزايدة بسبب العدد المتزايد لهويات الآلات داخل المؤسسات، والتي يتمتع العديد منها بوصول مميز، مما يجعلها أهدافًا رئيسية للمهاجمين.
كشف تقرير Ivantis 2026 State of Cybersecurity عن اتساع فجوة الاستعداد عبر جميع فئات التهديدات. سلطت CyberArk 2025 Identity Security Landscape الضوء على حجم المشكلة، مشيرة إلى وجود 82 هوية آلة لكل هوية بشرية في المؤسسات في جميع أنحاء العالم، مع امتلاك 42% من هويات الآلات هذه وصولاً مميزًا أو حساسًا، وفقًا لـ VentureBeat. تتفاقم هذه الحالة بسبب حقيقة أن العديد من خطط عمل برامج الفدية لا تعالج بيانات اعتماد الآلات، وهي سهو حرج يدركه المهاجمون.
في أخبار ذات صلة، واجهت باحثة الأمن السيبراني، أليسون نيكسون، تهديدات بالقتل من أفراد مجهولين يستخدمون أسماء مستعارة عبر الإنترنت مثل "Waifu" و "Judische" على قنوات Telegram و Discord، كما ورد في MIT Technology Review. نشأت هذه التهديدات من عمل نيكسون كمسؤولة أبحاث رئيسية في شركة التحقيقات السيبرانية Unit 221B، حيث تتبعت مجرمي الإنترنت وساعدت في اعتقالهم.
في غضون ذلك، تستمر التطورات في التكنولوجيا في التطور. يستكشف الباحثون طرقًا جديدة لمكافحة القضايا الملحة. يستخدم أحد العلماء الذكاء الاصطناعي للبحث عن المضادات الحيوية، ومعالجة التهديد المتزايد لمقاومة مضادات الميكروبات، والتي ترتبط بأكثر من 4 ملايين حالة وفاة سنويًا، وهو رقم من المتوقع أن يتجاوز 8 ملايين بحلول عام 2050، وفقًا لتحليل حديث نُشر في The Lancet، كما ورد في MIT Technology Review.
علاوة على ذلك، توفر Docker Sandboxes بيئات آمنة لتشغيل وكلاء الذكاء الاصطناعي، مثل مساعد WhatsApp خفيف الوزن يعمل بتقنية Claude، NanoClaw، كما ورد في Hacker News. يسمح هذا للمستخدمين بتشغيل أدوات الذكاء الاصطناعي دون منحهم حق الوصول إلى نظامهم بأكمله، مما يوفر حلاً لأولئك المهتمين بالأمن.
AI Experts & Community
Be the first to comment