أسفرت ضربة أمريكية انتقامية في شمال غرب سوريا يوم الجمعة عن مقتل بلال حسن الجاسم، وهو قيادي مرتبط بتنظيم القاعدة، يزعم مسؤولون في القيادة المركزية الأمريكية أن له صلات مباشرة بعنصر تنظيم الدولة الإسلامية المسؤول عن كمين 13 ديسمبر الذي أسفر عن مقتل جنديين أمريكيين ومترجم مدني أمريكي. ووفقًا للقيادة المركزية الأمريكية، كان الجاسم "قائدًا إرهابيًا متمرسًا خطط لهجمات وكان على اتصال مباشر" بالهجوم الذي أسفر عن مقتل الرقيب إدغار برايان توريس-توفار، والرقيب ويليام ناثانيال هوارد، والمترجم المدني إياد منصور ساك.
تمثل هذه الضربة الجولة الثالثة من الأعمال الانتقامية التي قام بها الجيش الأمريكي في سوريا في أعقاب الكمين الدامي. وتستخدم الولايات المتحدة بنشاط جمع وتحليل معلومات استخباراتية متطورة مدعومة بالذكاء الاصطناعي لتحديد واستهداف الأفراد المتورطين في الهجوم. تم تصميم أنظمة الذكاء الاصطناعي هذه لفحص كميات هائلة من البيانات، بما في ذلك صور الأقمار الصناعية واعتراضات الاتصالات ونشاط وسائل التواصل الاجتماعي، لتحديد التهديدات المحتملة بسرعة ودقة أكبر من الطرق التقليدية.
يثير استخدام الذكاء الاصطناعي في العمليات العسكرية العديد من الآثار الأخلاقية والمجتمعية. أحد المخاوف الرئيسية هو التحيز الخوارزمي، حيث تعكس بيانات تدريب نظام الذكاء الاصطناعي التحيزات القائمة، مما يؤدي إلى نتائج منحرفة أو تمييزية. على سبيل المثال، إذا تم تدريب الذكاء الاصطناعي بشكل أساسي على بيانات من منطقة أو فئة سكانية معينة، فقد يكون أقل فعالية في تحديد التهديدات في مناطق أخرى أو بين فئات سكانية مختلفة. وثمة قلق آخر يتمثل في احتمال حدوث أخطاء وعواقب غير مقصودة. حتى أنظمة الذكاء الاصطناعي الأكثر تقدمًا ليست معصومة من الخطأ، ويمكن أن يكون للأخطاء في تحديد الهدف نتائج مدمرة، بما في ذلك وقوع إصابات في صفوف المدنيين.
تستثمر وزارة الدفاع بكثافة في تطوير الذكاء الاصطناعي للتطبيقات العسكرية. يهدف مشروع Maven، على سبيل المثال، إلى دمج الذكاء الاصطناعي في تحليل الصور لتحسين سرعة ودقة تحديد الهدف. هذه التطورات ليست بدون جدل، حيث يحذر بعض الخبراء من احتمال وجود أنظمة أسلحة ذاتية التشغيل يمكنها اتخاذ قرارات بشأن الحياة أو الموت دون تدخل بشري.
يؤكد الجيش الأمريكي أنه يلتزم بقواعد الاشتباك الصارمة وأن الإشراف البشري يتم الحفاظ عليه دائمًا في قرارات الاستهداف. ومع ذلك، فإن الاعتماد المتزايد على الذكاء الاصطناعي يثير تساؤلات حول المساءلة والشفافية. قد يكون من الصعب تحديد المسؤول عندما يرتكب نظام الذكاء الاصطناعي خطأً، ويمكن أن تكون الخوارزميات المعقدة التي تدفع هذه الأنظمة مبهمة، حتى بالنسبة لمنشئيها.
لا يزال الوضع في سوريا متقلبًا، ومن المرجح أن يستمر الجيش الأمريكي في الاعتماد على القدرات الاستخباراتية والاستهدافية المدعومة بالذكاء الاصطناعي في جهوده لمكافحة الإرهاب. ومن المرجح أن يشتد الجدل الدائر حول الآثار الأخلاقية والمجتمعية للذكاء الاصطناعي في الحرب مع ازدياد تطور هذه التقنيات وانتشارها. من المرجح أن تركز التطورات المستقبلية على تحسين دقة وموثوقية أنظمة الذكاء الاصطناعي، بالإضافة إلى تطوير ضمانات لمنع العواقب غير المقصودة وضمان السيطرة البشرية.
Discussion
Join the conversation
Be the first to comment