مخاوف أمنية بشأن الذكاء الاصطناعي الوكيلي تظهر مع اكتساب OpenClaw شعبية
وصل مساعد الذكاء الاصطناعي مفتوح المصدر OpenClaw، المعروف سابقًا باسم Clawdbot و Moltbot، إلى 180,000 نجمة على GitHub وجذب 2 مليون زائر في أسبوع واحد، وفقًا للمنشئ Peter Steinberger، لكن نموه السريع كشف عن نقاط ضعف أمنية كبيرة. اكتشف باحثو الأمن أكثر من 1800 حالة مكشوفة تسرب مفاتيح API وسجلات الدردشة وبيانات اعتماد الحساب، مما أثار مخاوف بشأن الآثار الأمنية للذكاء الاصطناعي الوكيلي، وفقًا لـ VentureBeat.
يسلط المشروع، الذي أعيدت تسميته مرتين مؤخرًا بسبب نزاعات العلامات التجارية، الضوء على تحديات تأمين الذكاء الاصطناعي الوكيلي، خاصة عند تشغيله على أجهزة BYOD (إحضار جهازك الخاص). ذكرت VentureBeat أن الإجراءات الأمنية التقليدية مثل جدران الحماية و EDR (الكشف عن نقطة النهاية والاستجابة لها) و SIEM (إدارة معلومات الأمان والأحداث) غالبًا ما تفشل في اكتشاف التهديدات من هؤلاء الوكلاء، مما يخلق فجوة كبيرة في أمن المؤسسات.
لاحظ لويس كولومبوس من VentureBeat أن حركة الذكاء الاصطناعي الوكيلي الشعبية تمثل "أكبر سطح هجوم غير مُدار لا تستطيع معظم أدوات الأمان رؤيته". إن الطبيعة اللامركزية لهذه الأدوات، التي غالبًا ما يتم نشرها دون علم أو إشراف فرق أمان المؤسسات، تزيد من تفاقم المشكلة.
يؤكد صعود OpenClaw وأدوات الذكاء الاصطناعي الوكيلية المماثلة على الحاجة إلى نماذج أمان محدثة يمكنها مراقبة وحماية فعالة ضد التهديدات الناشئة عن هذه التقنيات الجديدة. يعمل الحادث بمثابة تذكير بأن التبني السريع للذكاء الاصطناعي يمكن أن يتجاوز تطوير تدابير أمنية كافية، مما يترك المؤسسات عرضة للهجوم.
Discussion
AI Experts & Community
Be the first to comment