Featuredلويس كولومبوس 30 يناير 2026 تجاوز OpenClaw، مساعد الذكاء الاصطناعي مفتوح المصدر المعروف سابقًا باسم Clawdbot ثم Moltbot، 180,000 نجمة على GitHub وجذب 2 مليون زائر في أسبوع واحد، وفقًا للمنشئ بيتر شتاينبرجر. وجد باحثو الأمن الذين يمسحون الإنترنت أكثر من 1800 حالة مكشوفة تسرب مفاتيح API وسجلات الدردشة وبيانات اعتماد الحساب. تمت إعادة تسمية المشروع مرتين في الأسابيع الأخيرة بسبب نزاعات العلامات التجارية. حركة الذكاء الاصطناعي الوكيلة الشعبية هي أيضًا أكبر سطح هجوم غير مُدار لا تستطيع معظم أدوات الأمان رؤيته. لم تنشر فرق أمان المؤسسات هذه الأداة. ولا جدران الحماية أو EDR أو SIEM الخاصة بهم. عندما تعمل الوكلاء على أجهزة BYOD، تصبح مجموعات الأمان عمياء. هذه هي الفجوة. لماذا لا تستطيع المحيطات التقليدية رؤية تهديدات الذكاء الاصطناعي الوكيلة؟ تتعامل معظم دفاعات المؤسسات مع الذكاء الاصطناعي الوكيل كأداة تطوير أخرى تتطلب عناصر تحكم قياسية في الوصول. يثبت OpenClaw أن هذا الافتراض خاطئ من الناحية المعمارية. تعمل الوكلاء ضمن الأذونات المصرح بها، وتسحب السياق من مصادر قابلة للتأثير من قبل المهاجمين، وتنفذ الإجراءات بشكل مستقل. لا يرى محيطك أيًا من ذلك. نموذج تهديد خاطئ يعني عناصر تحكم خاطئة، مما يعني نقاط عمياء. قال كارتر ريس، نائب رئيس قسم الذكاء الاصطناعي في Reputation، لـ VentureBeat: "هجمات وقت تشغيل الذكاء الاصطناعي دلالية وليست نحوية". "عبارة بريئة مثل "تجاهل التعليمات السابقة" يمكن أن تحمل حمولة مدمرة مثل تجاوز سعة المخزن المؤقت، ومع ذلك فهي لا تشترك في أي قواسم مشتركة مع تواقيع البرامج الضارة المعروفة." Sim
Discussion
Join the conversation
Be the first to comment