شهدت أزمة في الأمن السيبراني هذا الأسبوع حيث تم اختراق جهاز الكمبيوتر المحمول الخاص بمراسل في هيئة الإذاعة البريطانية (BBC) بنجاح من خلال منصة الترميز بالذكاء الاصطناعي Orchids، مما كشف عن ثغرة أمنية حرجة في أداة "ترميز المشاعر". هذه الحادثة، التي تسلط الضوء على مخاطر منصات الذكاء الاصطناعي التي تتمتع بوصول عميق إلى الكمبيوتر، تم توضيحها من قبل باحث في الأمن السيبراني وتثير جدلاً داخل مجتمع المصادر المفتوحة فيما يتعلق بمساءلة الذكاء الاصطناعي واستخدامه المسؤول، وفقًا لمصادر إخبارية متعددة.
نتجت الثغرة، التي سمحت بالوصول غير المصرح به والتلاعب بمشاريع المستخدمين، عن شعبية Orchids في السماح للمستخدمين غير التقنيين ببناء التطبيقات. ومع ذلك، جاءت هذه السهولة في الاستخدام بتكلفة، حيث انكشفت بسرعة عيوب الأمان في المنصة. هذه الحادثة جزء من اتجاه أوسع، كما يتضح من الانتشار السريع لـ OpenClaw، وهو وكيل ذكاء اصطناعي مفتوح المصدر، والذي شهد قفزة في عمليات النشر المعرضة للجمهور من حوالي 1000 حالة إلى أكثر من 21000 حالة في أقل من أسبوع، وفقًا لـ VentureBeat.
منح وكيل OpenClaw، الذي نشره الموظفون على أجهزة الشركات، وكلاء مستقلين وصولاً إلى shell، وامتيازات نظام الملفات، ورموز OAuth إلى منصات مثل Slack و Gmail و SharePoint. أثار هذا التبني السريع، إلى جانب اختراق Orchids، مخاوف جدية بشأن الآثار الأمنية لأدوات الذكاء الاصطناعي. CVE-2026-25253، وهي عيب تنفيذ التعليمات البرمجية عن بعد بنقرة واحدة مصنف CVSS 8.8، فاقم الوضع، مما سمح للمهاجمين بسرقة رموز المصادقة من خلال رابط ضار واحد وتحقيق اختراق كامل للبوابة في أجزاء من الثانية، كما ورد في VentureBeat.
أثار الوضع تحولات كبيرة في عالم التكنولوجيا. أوقفت OpenAI النماذج القديمة، بينما وسعت Waymo عمليات المركبات ذاتية القيادة، وفقًا لـ Fortune. يتعامل مجتمع المصادر المفتوحة الآن مع تداعيات الذكاء الاصطناعي، لا سيما فيما يتعلق بالمساءلة والاستخدام المسؤول. أعرب أحد المصادر عن قلقه بشأن اللغة المستخدمة في عنوان صحيفة وول ستريت جورنال، مسلطًا الضوء على المخاوف بشأن التنمر والاستخدام غير المسؤول للذكاء الاصطناعي داخل صناعة التكنولوجيا، وهو أيضًا موضوع نقاش في مجتمع Postgres، وفقًا لـ Hacker News.
تؤكد حادثة Orchids على الحاجة إلى زيادة اليقظة وبروتوكولات أمنية أكثر صرامة في تطوير ونشر أدوات الذكاء الاصطناعي. يشير النقاش المستمر داخل مجتمع المصادر المفتوحة، إلى جانب التبني السريع لوكلاء الذكاء الاصطناعي الذين يحتمل أن يكونوا عرضة للخطر، إلى أن الصناعة في مفترق طرق حرج، مما يتطلب إعادة تقييم لممارسات الأمان وتركيز متجدد على تطوير الذكاء الاصطناعي المسؤول.
Discussion
AI Experts & Community
Be the first to comment