مساعد OpenClaw AI يكشف عن ثغرات أمنية مع ارتفاع شعبيته
شهد مساعد الذكاء الاصطناعي مفتوح المصدر، OpenClaw، المعروف سابقًا باسم Clawdbot و Moltbot، طفرة في شعبيته، حيث وصل إلى أكثر من 180,000 نجمة على GitHub وجذب 2 مليون زائر في أسبوع واحد، وفقًا لمنشئه بيتر شتاينبرجر. ومع ذلك، كشف هذا النمو السريع أيضًا عن ثغرات أمنية كبيرة، مما ترك فرق أمان المؤسسات تتدافع لمعالجة المخاطر.
اكتشف باحثو الأمن أكثر من 1800 حالة مكشوفة من OpenClaw تسرب مفاتيح API وسجلات الدردشة وبيانات اعتماد الحساب. يسلط هذا التعرض الواسع النطاق الضوء على فجوة حرجة في أمان المؤسسات، حيث غالبًا ما تفشل أدوات الأمان التقليدية في مراقبة الوكلاء الذين يعملون على أجهزة "إحضار جهازك الخاص" (BYOD). وفقًا لـ VentureBeat، فإن هذا يجعل حركة الذكاء الاصطناعي الوكيلة الشعبية "أكبر سطح هجوم غير مُدار لا تستطيع معظم أدوات الأمان رؤيته".
يسلط المشروع، الذي أعيدت تسميته مرتين مؤخرًا بسبب نزاعات العلامات التجارية، الضوء على تحديات إدارة وتأمين تقنيات الذكاء الاصطناعي سريعة التطور. تمثل الطبيعة اللامركزية للذكاء الاصطناعي الوكيلي، حيث يعمل الوكلاء خارج المحيطات التقليدية، تحديًا فريدًا لفرق الأمان المعتادة على مراقبة والتحكم في الأنظمة المدارة مركزيًا.
يثير الحادث مخاوف بشأن الآثار الأمنية لأدوات الذكاء الاصطناعي المتطورة بشكل متزايد والتي يتم نشرها دون رقابة كافية. مع تزايد انتشار الذكاء الاصطناعي الوكيلي، ستحتاج المؤسسات إلى تكييف استراتيجياتها الأمنية لمعالجة المخاطر المرتبطة بوكلاء الذكاء الاصطناعي اللامركزيين وغير المُدارين. تعد حالة OpenClaw بمثابة تذكير صارخ بأن التبني السريع للتقنيات الجديدة يجب أن يكون مصحوبًا بتدابير أمنية قوية لحماية البيانات الحساسة ومنع الوصول غير المصرح به.
Discussion
AI Experts & Community
Be the first to comment