أقرت OpenAI بأن حقن المطالبات، وهو ثغرة أمنية في نماذج الذكاء الاصطناعي، من غير المرجح أن يتم القضاء عليها تمامًا، على غرار عمليات الاحتيال والهندسة الاجتماعية على الإنترنت. وأكدت الشركة، في منشور حديث يفصل الجهود المبذولة لتعزيز ChatGPT Atlas ضد هذه الهجمات، أن وضع الوكيل يزيد من مساحة الهجوم المحتملة وأنه حتى الدفاعات المتقدمة لا يمكن أن تضمن حماية كاملة.
هذا الاعتراف يصدق على مخاوف المؤسسات التي تستخدم الذكاء الاصطناعي بالفعل، مما يسلط الضوء على التفاوت المتزايد بين نشر الذكاء الاصطناعي والتدابير الأمنية. كشف استطلاع أجرته VentureBeat وشمل 100 من صناع القرار التقنيين أن 34.7٪ فقط من المؤسسات قد نفذت دفاعات محددة ضد حقن المطالبات. أما النسبة المتبقية البالغة 65.3٪ إما أنها لم تستثمر في هذه الأدوات أو أنها لم تتمكن من تأكيد وجودها.
يحدث حقن المطالبات عندما يتلاعب فاعلون ضارون بنماذج الذكاء الاصطناعي عن طريق إدخال تعليمات خادعة في المطالبات، مما يتسبب في قيام الذكاء الاصطناعي بتنفيذ إجراءات غير مقصودة أو الكشف عن معلومات حساسة. يمكن أن يتراوح هذا من تجاوز عوامل تصفية المحتوى إلى الحصول على وصول غير مصرح به إلى الأنظمة.
لطالما أدرك خبراء الأمن أن حقن المطالبات يمثل تهديدًا كبيرًا. إن اعتراف OpenAI العلني يؤكد الحاجة الملحة للشركات لإعطاء الأولوية لأمن الذكاء الاصطناعي. يعمل بيان الشركة بمثابة دعوة للعمل للمؤسسات لسد الفجوة بين تطبيق الذكاء الاصطناعي واستراتيجيات الدفاع القوية.
يثير نقص الاستعداد بين العديد من المؤسسات مخاوف بشأن احتمال انتشار استغلال أنظمة الذكاء الاصطناعي على نطاق واسع. مع تزايد دمج الذكاء الاصطناعي في البنية التحتية الحيوية وعمليات الأعمال، يمكن أن تكون عواقب هجمات حقن المطالبات الناجحة وخيمة.
يؤكد خبراء الصناعة على الحاجة إلى اتباع نهج متعدد الطبقات لأمن الذكاء الاصطناعي، بما في ذلك التحقق من صحة الإدخال ومراقبة الإخراج وإعادة تدريب النموذج المستمر. علاوة على ذلك، يعد التعاون بين مطوري الذكاء الاصطناعي وباحثي الأمن والمؤسسات أمرًا بالغ الأهمية لتطوير دفاعات فعالة ضد تقنيات حقن المطالبات المتطورة.
في حين أن اعتراف OpenAI قد يبدو محبطًا، إلا أنه يمثل أيضًا فرصة للصناعة لمعالجة التحدي بشكل استباقي. من خلال الاعتراف بالطبيعة المستمرة لحقن المطالبات، يمكن للمؤسسات التركيز على تطوير وتنفيذ أنظمة ذكاء اصطناعي أكثر مرونة. تتضمن الخطوة التالية زيادة الاستثمار في الأدوات الأمنية والتدريب الشامل لمطوري ومستخدمي الذكاء الاصطناعي والبحث المستمر في آليات الدفاع الجديدة.
Discussion
Join the conversation
Be the first to comment