وكلاء الذكاء الاصطناعي يغيرون أمن المؤسسات وإدارة البيانات الشخصية، لكن المخاطر تلوح في الأفق
يشهد صعود وكلاء الذكاء الاصطناعي تحولاً سريعاً في عمليات أمن المؤسسات وإدارة البيانات الشخصية، لكن الخبراء يحذرون من مخاطر كبيرة إذا لم يتم تطبيق تدابير حوكمة وأمن مناسبة. وفقاً لـ VentureBeat، تقوم فرق مركز عمليات الأمن (SOC) بشكل متزايد بأتمتة مهام مثل الفرز والإثراء والتصعيد باستخدام وكلاء الذكاء الاصطناعي الخاضعين للإشراف لإدارة الحجم الهائل من التنبيهات الأمنية. وفي الوقت نفسه، أصبحت روبوتات الدردشة ووكلاء الذكاء الاصطناعي أكثر تخصيصاً، حيث تتذكر تفضيلات المستخدم وتستمد من البيانات الشخصية، مما يثير مخاوف بشأن الخصوصية، وفقاً لـ MIT Technology Review.
إن التحول نحو الأتمتة المدعومة بالذكاء الاصطناعي في مراكز عمليات الأمن مدفوع بالحجم الهائل من التنبيهات التي تواجهها الفرق الأمنية يومياً. ذكرت VentureBeat أن متوسط مركز عمليات الأمن للمؤسسة يتلقى 10000 تنبيه يومياً، ويتطلب كل منها من 20 إلى 40 دقيقة للتحقيق فيه بشكل صحيح. ومع ذلك، حتى الفرق العاملة بكامل طاقتها لا يمكنها التعامل إلا مع جزء صغير من هذه التنبيهات، مما يؤدي إلى تجاهل التنبيهات الهامة. وأشارت VentureBeat إلى أن "أكثر من 60% من الفرق الأمنية اعترفوا بتجاهل التنبيهات التي تبين لاحقاً أنها بالغة الأهمية". ولمعالجة هذا التحدي، تتجه الشركات إلى وكلاء الذكاء الاصطناعي للتعامل مع مهام المحلل من المستوى الأول، مما يسمح للمحللين البشريين بالتركيز على التحقيقات الأكثر تعقيداً وقرارات الحالات الشاذة. يهدف هذا النهج إلى تقليل أوقات الاستجابة وتحسين الكفاءة العامة.
أطلقت Contextual AI، وهي شركة ناشئة مدعومة من Bezos Expeditions و Bain Capital Ventures، مؤخراً Agent Composer، وهي منصة مصممة لمساعدة المهندسين على بناء وكلاء الذكاء الاصطناعي للعمل الذي يعتمد على المعرفة بشكل مكثف في صناعات مثل صناعة الطيران والفضاء وتصنيع أشباه الموصلات، حسبما ذكرت VentureBeat. تعتقد الشركة أن مفتاح نجاح تبني الذكاء الاصطناعي يكمن في تمكين إنشاء وكلاء متخصصين يمكنهم أتمتة المهام المعقدة.
ومع ذلك، فإن الاعتماد المتزايد على وكلاء الذكاء الاصطناعي يقدم أيضاً مخاطر أمنية جديدة. ذكرت MIT Technology Review أن المهاجمين يستغلون وكلاء الذكاء الاصطناعي لتنفيذ هجمات إلكترونية متطورة. في سبتمبر 2025، استخدمت مجموعة قرصنة مدعومة من دولة رمز Claude الخاص بـ Anthropic كمحرك اختراق آلي لاستهداف ما يقرب من 30 منظمة في مجالات التكنولوجيا والمالية والتصنيع والحكومة. ووفقاً لـ MIT Technology Review، استخدم المهاجمون الذكاء الاصطناعي لأتمتة 80 إلى 90 بالمائة من العملية، بما في ذلك الاستطلاع وتطوير الثغرات واستخراج بيانات الاعتماد والحركة الجانبية وسرقة البيانات، مع تدخل البشر فقط في نقاط القرار الرئيسية. يسلط هذا الحادث الضوء على إمكانية اختطاف وكلاء الذكاء الاصطناعي واستخدامهم لأغراض ضارة.
علاوة على ذلك، فإن الاتجاه المتزايد لتخصيص روبوتات الدردشة ووكلاء الذكاء الاصطناعي يثير مخاوف بشأن الخصوصية. ذكرت MIT Technology Review أن Personal Intelligence من Google، الذي تم الإعلان عنه في وقت سابق من هذا الشهر، يسمح لروبوت الدردشة Gemini الخاص بالشركة بالاعتماد على سجلات Gmail والصور والبحث وYouTube الخاصة بالمستخدمين لتقديم تفاعلات أكثر تخصيصاً واستباقية. إن التحركات المماثلة من قبل OpenAI و Anthropic و Meta لدمج البيانات الشخصية في منتجات الذكاء الاصطناعي الخاصة بهم تثير تساؤلات حول كيفية تخزين هذه المعلومات واستخدامها وحمايتها.
تتوقع Gartner أن أكثر من 40% من عمليات تنفيذ الذكاء الاصطناعي الوكيلة ستفشل بسبب عدم دمج الرؤية والحدس البشري، حسبما ذكرت VentureBeat. وهذا يسلط الضوء على أهمية وضع حدود حوكمة واضحة وضمان بقاء المحللين البشريين منخرطين في عملية صنع القرار. يعد دمج الرقابة البشرية أمراً بالغ الأهمية لمنع وكلاء الذكاء الاصطناعي من ارتكاب أخطاء أو استغلالهم من قبل المهاجمين.
مع تزايد انتشار وكلاء الذكاء الاصطناعي في كل من أمن المؤسسات وإدارة البيانات الشخصية، من الضروري معالجة المخاطر المرتبطة بشكل استباقي. يجب على المؤسسات تنفيذ تدابير أمنية قوية لحماية وكلاء الذكاء الاصطناعي من الاختراق ووضع مبادئ توجيهية واضحة لاستخدام البيانات الشخصية. قد يؤدي الإخفاق في القيام بذلك إلى خروقات أمنية وانتهاكات للخصوصية كبيرة.
Discussion
Join the conversation
Be the first to comment