تخلف أمن الذكاء الاصطناعي عن وتيرة تبنيه، مما يجعل سلاسل الإمداد عرضة للخطر
تواجه المؤسسات تهديدًا متزايدًا من الذكاء الاصطناعي حيث يتجاوز تبني وكلاء الذكاء الاصطناعي التدابير الأمنية، مما يخلق نقاط ضعف كبيرة في سلاسل إمداد الذكاء الاصطناعي. وفقًا لبحث من تقرير مؤشر 2025 لجامعة ستانفورد، في حين أن أربعة من كل عشرة تطبيقات مؤسسية ستتميز بوكلاء ذكاء اصطناعي متخصصين في المهام هذا العام، فإن 6٪ فقط من المؤسسات لديها استراتيجية أمنية متقدمة للذكاء الاصطناعي.
أدى التكامل السريع للذكاء الاصطناعي، وخاصة نماذج اللغة الكبيرة (LLMs)، إلى خلق "فجوة رؤية" فيما يتعلق بكيفية ومكان وزمان وعبر أي مسارات العمل والأدوات يتم استخدام هذه النماذج أو تعديلها، حسبما ذكرت VentureBeat. هذا النقص في الشفافية، إلى جانب غياب قائمة مكونات برامج النموذج (SBOMs)، يترك المؤسسات عرضة لتهديدات الذكاء الاصطناعي غير المتوقعة.
تتوقع Palo Alto Networks أن عام 2026 سيشهد أولى الدعاوى القضائية الكبرى التي تحمل المسؤولين التنفيذيين المسؤولية الشخصية عن تصرفات الذكاء الاصطناعي المارقة، مما يسلط الضوء على الحاجة الملحة لتحسين إدارة الذكاء الاصطناعي. إن الطبيعة المتسارعة وغير المتوقعة لتهديدات الذكاء الاصطناعي تعني أن مناهج الإدارة التقليدية، مثل زيادة الميزانيات أو عدد الموظفين، غير كافية.
وصف أحد مديري أمن المعلومات (CISO) قائمة مكونات برامج النموذج (SBOMs) بأنها "الغرب المتوحش للإدارة اليوم"، مما يؤكد النقص الحالي في التقييس والرقابة في هذا المجال الحرج. يؤكد الخبراء على حاجة المؤسسات إلى إعطاء الأولوية لرؤية سلسلة إمداد الذكاء الاصطناعي للتخفيف من المخاطر المحتملة وتجنب التداعيات القانونية.
Discussion
Join the conversation
Be the first to comment