عالَجت مايكروسوفت ثغرة أمنية في مساعدها الذكي Copilot سمحت للمهاجمين باستخراج بيانات المستخدمين الحساسة بنقرة واحدة على عنوان URL يبدو مشروعًا. اكتشف باحثو الأمن في شركة Varonis هذا الخلل، موضحين هجومًا متعدد المراحل يمكنه سرقة اسم المستخدم وموقعه وتفاصيل من سجل دردشة Copilot الخاص به.
استمر الهجوم حتى بعد أن أغلق المستخدم نافذة دردشة Copilot، ولم يتطلب أي تفاعل إضافي بخلاف النقر الأولي على الرابط المضمن في رسالة بريد إلكتروني. وفقًا لـ Varonis، تجاوز هذا الاستغلال عناصر التحكم الأمنية لنقاط النهاية المؤسسية وآليات الكشف التي تستخدمها تطبيقات حماية نقاط النهاية عادةً. "بمجرد أن نقدم هذا الرابط مع هذا الموجه الخبيث، يتعين على المستخدم فقط النقر فوق الرابط ويتم تنفيذ المهمة الضارة على الفور"، كما قال دوليف تالر، باحث أمني في Varonis، في بيان لـ Ars Technica. "حتى إذا نقر المستخدم فقط على الرابط وأغلق على الفور علامة تبويب دردشة Copilot، فإن الاستغلال لا يزال يعمل."
تسلط الثغرة الأمنية الضوء على المخاطر الكامنة المرتبطة بنماذج اللغة الكبيرة (LLMs) مثل Copilot، والتي يتم دمجها بشكل متزايد في مهام سير العمل اليومية. تتعلم نماذج اللغة الكبيرة من مجموعات بيانات واسعة، مما يمكنها من إنشاء نصوص شبيهة بالنصوص البشرية وأتمتة المهام. ومع ذلك، فإن تعقيدها يخلق أيضًا فرصًا للاستغلال. في هذه الحالة، استفاد الهجوم من موجه مصمم بعناية مضمن داخل رابط Copilot مشروع لبدء سلسلة من الإجراءات التي تؤدي إلى تسريب البيانات.
يؤكد هذا الحادث على أهمية التدابير الأمنية القوية للأدوات التي تعمل بالذكاء الاصطناعي. في حين أن الذكاء الاصطناعي يوفر فوائد كبيرة في الإنتاجية والأتمتة، إلا أنه يقدم أيضًا ناقلات هجوم جديدة قد لا تعالجها الأنظمة الأمنية التقليدية بشكل كافٍ. تثير قدرة هذا الاستغلال على تجاوز تطبيقات حماية نقاط النهاية مخاوف بشأن فعالية النماذج الأمنية الحالية في مواجهة الهجمات المتطورة التي تعتمد على الذكاء الاصطناعي.
يمثل اكتشاف هذه الثغرة الأمنية وتصحيحها اللاحق من قبل Microsoft جهدًا مستمرًا لتأمين أنظمة الذكاء الاصطناعي. مع تزايد انتشار الذكاء الاصطناعي، يعد التعاون بين باحثي الأمن ومقدمي التكنولوجيا أمرًا بالغ الأهمية لتحديد المخاطر المحتملة والتخفيف من حدتها. يعد الحادث بمثابة تذكير بأنه حتى التفاعلات التي تبدو غير ضارة مع أنظمة الذكاء الاصطناعي يمكن أن يكون لها عواقب غير مقصودة، مما يؤكد على الحاجة إلى وعي المستخدم والحذر عند التفاعل مع المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي. من المتوقع إصدار مزيد من التفاصيل حول الطبيعة المحددة للثغرة الأمنية والخطوات التي اتخذتها Microsoft لمعالجتها في الأسابيع المقبلة.
Discussion
Join the conversation
Be the first to comment