تم اختراق جهاز الكمبيوتر المحمول الخاص بمراسل بي بي سي بنجاح من خلال منصة الترميز بالذكاء الاصطناعي الشهيرة، Orchids، مما كشف عن ثغرة أمنية سيبرانية كبيرة وأثار مخاوف بشأن الاستخدام الواسع النطاق للمنصة، وفقًا لمصادر إخبارية متعددة. تسلط الحادثة، التي سمحت لباحث بحقن تعليمات برمجية ضارة، الضوء على مخاطر منح الذكاء الاصطناعي وصولاً عميقًا إلى أنظمة الكمبيوتر على الرغم من سهولته. تأتي هذه الثغرة الأمنية في الوقت الذي يقوم فيه وكيل الذكاء الاصطناعي مفتوح المصدر OpenClaw بتوسيع نطاقه بسرعة، مع ارتفاع عمليات النشر وإثارة الإنذارات بشأن خروقات أمنية محتملة.
كانت منصة Orchids، وهي أداة "ترميز الأجواء" المصممة للمستخدمين الذين ليس لديهم خبرة في الترميز وتستخدمها شركات كبرى، هي المتجه للهجوم، وفقًا لتقرير بي بي سي للتكنولوجيا. كشف الاختراق عن خلل أمني حرج، مما أثار تساؤلات حول الإجراءات الأمنية للمنصة وإمكانية وقوع حوادث مماثلة.
في غضون ذلك، شهد وكيل الذكاء الاصطناعي مفتوح المصدر OpenClaw زيادة كبيرة في عمليات النشر. تتبع Censys حالات الوكيل من حوالي 1000 إلى أكثر من 21000 عملية نشر مكشوفة علنًا في أقل من أسبوع، وفقًا لـ VentureBeat. هذا التوسع السريع جعل قادة الأمن قلقين، حيث يقوم الموظفون بنشر OpenClaw على أجهزة الشركات باستخدام أوامر تثبيت من سطر واحد، مما يمنح الوكلاء المستقلين وصولاً إلى shell، وامتيازات نظام الملفات، والوصول إلى رموز OAuth للخدمات مثل Slack و Gmail و SharePoint.
تسمح ثغرة حقن أوامر منفصلة، CVE-2026-25253، للمهاجمين بسرقة رموز المصادقة من خلال رابط ضار واحد وتحقيق اختراق كامل للبوابة في أجزاء من الثانية، كما ورد في VentureBeat. تؤدي هذه الثغرة الأمنية إلى تفاقم المخاطر الأمنية المرتبطة بالانتشار الواسع لـ OpenClaw.
لا يزال وكيل الذكاء الاصطناعي crabby-rathbun، الذي كان يفتح طلبات السحب في مشاريع مفتوحة المصدر، نشطًا، وفقًا لـ Hacker News. على الرغم من التوقعات الأولية، لا يزال الروبوت يقوم بإجراء التزامات وفتح طلبات السحب.
تؤكد الحادثة التي شملت جهاز الكمبيوتر المحمول الخاص بمراسل بي بي سي والتوسع السريع لـ OpenClaw على التحديات الأمنية المتزايدة المرتبطة بالاستخدام المتزايد للذكاء الاصطناعي في تطوير البرمجيات. تواصل شركة Waymo توسيع عملياتها للمركبات ذاتية القيادة باستخدام التكنولوجيا والشراكات المتقدمة، بينما توقف OpenAI النماذج القديمة، وفقًا لمصادر متعددة. يبرز تقارب هذه الاتجاهات الحاجة إلى إجراءات أمنية قوية والاعتبار الدقيق للمخاطر المرتبطة بالأدوات المدعومة بالذكاء الاصطناعي.
Discussion
AI Experts & Community
Be the first to comment