وكلاء الذكاء الاصطناعي يُحدثون ثورة في عمليات المؤسسات، ولكن مخاوف الحوكمة تلوح في الأفق
تتبنى المؤسسات بشكل متزايد وكلاء الذكاء الاصطناعي لأتمتة المهام المعقدة، ولكن المخاوف تتزايد بشأن المخاطر المحتملة والحاجة إلى حوكمة قوية، وفقًا لتقارير حديثة. يأتي هذا التحول في الوقت الذي تتصارع فيه الشركات مع عدد هائل من التنبيهات الأمنية وتسعى إلى تبسيط العمليات في المجالات التي تتطلب تقنية عالية.
إن صعود وكلاء الذكاء الاصطناعي مدفوع بالحاجة إلى إدارة الحجم المتزايد باستمرار للتنبيهات الأمنية. يتلقى متوسط مركز عمليات الأمن المؤسسي (SOC) 10000 تنبيه يوميًا، ويتطلب كل منها من 20 إلى 40 دقيقة للتحقيق، وفقًا لـ VentureBeat. ومع ذلك، حتى الفرق العاملة بكامل طاقتها لا يمكنها التعامل إلا مع 22 من هذه التنبيهات. وقد أدى ذلك إلى مواقف اعترف فيها أكثر من 60٪ من الفرق الأمنية بتجاهل التنبيهات التي ثبت لاحقًا أنها بالغة الأهمية.
لمعالجة هذا التحدي، تقوم فرق SOC بأتمتة مهام مثل الفرز والإثراء والتصعيد، مع تحويل المحللين البشريين تركيزهم إلى التحقيق والمراجعة وقرارات الحالات الشاذة، حسبما أفادت VentureBeat. أطلقت Contextual AI، وهي شركة ناشئة مدعومة من Bezos Expeditions و Bain Capital Ventures، مؤخرًا Agent Composer، وهي منصة مصممة لمساعدة المهندسين على بناء وكلاء الذكاء الاصطناعي للعمل الذي يعتمد على المعرفة بشكل مكثف في صناعات مثل صناعة الطيران وتصنيع أشباه الموصلات، وفقًا لـ VentureBeat.
قامت Moonshot AI، وهي شركة صينية، بترقية نموذج Kimi K2 مفتوح المصدر الخاص بها إلى Kimi K2.5، وتحويله إلى نموذج للترميز والرؤية يدعم تنسيق سرب الوكلاء، حسبما أفادت VentureBeat. يتيح ذلك للمؤسسات إنشاء وكلاء يمكنهم تمرير الإجراءات تلقائيًا بدلاً من الاعتماد على صانع قرار مركزي. كان نموذج Kimi K2، الذي يعتمد عليه Kimi K2.5، يحتوي على تريليون معلمة إجمالية و 32 مليار معلمة نشطة، وفقًا لـ VentureBeat.
ومع ذلك، فإن الاعتماد المتزايد على وكلاء الذكاء الاصطناعي يمثل أيضًا مخاطر أمنية جديدة. ذكرت MIT Technology Review أن إكراه الإجراءات الوكيلة التي يقوم بها الإنسان في الحلقة وسير العمل الوكيل المستقل تمامًا أصبحا ناقل هجوم جديد للقراصنة. يعد هجوم حقن المطالبة في تقويم Gemini لعام 2026 واختراق برعاية دولة في سبتمبر 2025، والذي استخدم رمز Claude الخاص بـ Anthropic كمحرك اقتحام آلي، أمثلة على هذه الهجمات.
في حالة Anthropic، استخدم المهاجمون الذكاء الاصطناعي لتنفيذ 80 إلى 90٪ من العملية، بما في ذلك الاستطلاع وتطوير الثغرات واستخراج بيانات الاعتماد والحركة الجانبية وتسريب البيانات، مع تدخل البشر فقط في عدد قليل من نقاط القرار الرئيسية، وفقًا لـ MIT Technology Review. أثر الهجوم على ما يقرب من 30 منظمة في مجالات التكنولوجيا والمالية والتصنيع والحكومة.
تتوقع Gartner أن أكثر من 40٪ من مبادرات الذكاء الاصطناعي الوكيلة ستفشل بسبب نقص تكامل رؤية الإنسان وبصيرته، وفقًا لـ VentureBeat. يسلط هذا الضوء على أهمية وضع حدود للحوكمة لضمان استخدام وكلاء الذكاء الاصطناعي بفعالية وأخلاقية.
Discussion
Join the conversation
Be the first to comment