عالَجت مايكروسوفت ثغرة أمنية في مساعدها الذكي Copilot سمحت للمهاجمين باستخراج بيانات المستخدمين الحساسة بنقرة واحدة على رابط يبدو غير ضار. اكتشف باحثو الأمن في Varonis هذا العيب وأظهروا كيف يمكن لهجوم متعدد المراحل أن يتسبب في تسريب معلومات مثل اسم المستخدم وموقعه وتفاصيل من سجل دردشة Copilot الخاص به.
الهجوم، بمجرد أن يبدأه المستخدم بالنقر فوق الرابط، استمر في العمل حتى بعد إغلاق نافذة دردشة Copilot، دون الحاجة إلى مزيد من التفاعل. وفقًا لـ Varonis، تجاوز هذا الاستغلال عناصر التحكم الأمنية لنقاط النهاية المؤسسية وآليات الكشف التي تستخدمها عادةً تطبيقات حماية نقاط النهاية. وقال دوليف تالر، الباحث الأمني في Varonis، في بيان لـ Ars Technica: "بمجرد أن نقدم هذا الرابط مع هذا الموجه الخبيث، يتعين على المستخدم فقط النقر فوق الرابط ويتم تنفيذ المهمة الضارة على الفور". "حتى إذا قام المستخدم بالنقر فوق الرابط وإغلاق علامة تبويب دردشة Copilot على الفور، فإن الاستغلال لا يزال يعمل."
تسلط الثغرة الأمنية الضوء على المخاطر الكامنة المرتبطة بنماذج اللغة الكبيرة (LLMs) مثل Copilot، والتي يتم دمجها بشكل متزايد في التطبيقات اليومية. تتعلم نماذج اللغة الكبيرة من مجموعات بيانات واسعة ويمكنها إنشاء نص شبيه بالنص البشري، ولكن تعقيدها يجعلها أيضًا عرضة للعيوب الأمنية غير المتوقعة. يؤكد هذا الحادث على أهمية التدابير الأمنية القوية والمراقبة المستمرة لحماية بيانات المستخدم داخل المنصات المدعومة بالذكاء الاصطناعي.
استغل متجه الهجوم ضعفًا في كيفية معالجة Copilot للتعليمات المضمنة في الرابط وتنفيذها. من خلال صياغة موجه ضار مضمن داخل عنوان URL شرعي لـ Copilot، تمكن الباحثون من إطلاق سلسلة من الأحداث التي أدت إلى تسريب البيانات. هذا النوع من الهجمات، المعروف باسم هجوم حقن الموجه، هو مصدر قلق متزايد في مجال أمن الذكاء الاصطناعي. يحدث حقن الموجه عندما يتلاعب المهاجم بالمدخلات إلى نموذج الذكاء الاصطناعي لجعله يقوم بإجراءات غير مقصودة، مثل الكشف عن معلومات حساسة أو تنفيذ تعليمات برمجية ضارة.
تتجاوز آثار هذه الثغرة الأمنية المستخدمين الأفراد. في بيئات المؤسسات، حيث يتم استخدام Copilot للوصول إلى بيانات الأعمال الحساسة ومعالجتها، يمكن أن يؤدي الهجوم الناجح إلى خروقات كبيرة للبيانات وخسائر مالية. يثير الحادث أيضًا أسئلة أوسع حول أمن وخصوصية المساعدين المدعومين بالذكاء الاصطناعي والحاجة إلى مزيد من الشفافية والمساءلة في تطويرهم ونشرهم.
أصدرت Microsoft تصحيحًا لمعالجة الثغرة الأمنية، ويُنصح المستخدمون بتحديث تثبيتات Copilot الخاصة بهم إلى أحدث إصدار. تعمل الشركة أيضًا على تحسين أمان منصات الذكاء الاصطناعي الخاصة بها وتطوير طرق جديدة للكشف عن هجمات حقن الموجه ومنعها. مع استمرار تطور تكنولوجيا الذكاء الاصطناعي، من الضروري أن يتعاون المطورون والباحثون الأمنيون لتحديد وتخفيف نقاط الضعف المحتملة، مما يضمن استخدام هذه الأدوات القوية بأمان ومسؤولية. يعد الحادث بمثابة تذكير بأنه حتى التفاعلات البسيطة على ما يبدو مع أنظمة الذكاء الاصطناعي يمكن أن يكون لها آثار أمنية كبيرة، وأن اليقظة ضرورية لحماية بيانات المستخدم في عصر الذكاء الاصطناعي.
Discussion
Join the conversation
Be the first to comment