تتطور حرب الطائرات المسيّرة في أوكرانيا مع إدخال الذكاء الاصطناعي، مما يمكّن الطائرات المسيّرة من تحديد الأهداف وتتبعها وضربها بشكل مستقل. تمثل هذه الطائرات المسيّرة التي تعمل بالذكاء الاصطناعي تحولًا كبيرًا عن الأنظمة التقليدية التي يتم التحكم فيها عن بعد، مما يثير تساؤلات معقدة حول مستقبل الحرب ودور التحكم البشري.
ومن الأمثلة الحديثة على هذه التكنولوجيا في العمل، طيار أوكراني للطائرات المسيّرة، تم تحديده فقط باسم "ليبا"، وملاحُه "بوبر"، اللذان كُلفا بالقضاء على فريق طائرات مسيّرة روسي يعمل بالقرب من بوريسيفكا، وهي قرية حدودية مع روسيا. باءت المحاولات السابقة لاستهداف الفريق باستخدام طائرات الكاميكازي القياسية بالفشل بسبب تكنولوجيا التشويش الروسية، التي تعطل الاتصال اللاسلكي بين الطيار والطائرة المسيّرة. تم تزويد فريق "ليبا" بطائرة مسيّرة من طراز "بامبلبي"، وهو نظام متخصص قدمته شركة بقيادة إريك شميدت، الرئيس التنفيذي السابق لشركة جوجل.
تكمن الميزة الرئيسية لطائرة "بامبلبي" في قدرات الذكاء الاصطناعي الخاصة بها. على عكس الطائرات المسيّرة التقليدية التي تعتمد على التوجيه البشري المستمر، يمكن لهذه الطائرات المسيّرة أن تقفل على هدف وتتعقبه وتتعامل معه بشكل مستقل، حتى في البيئات التي تعاني من تداخل الحرب الإلكترونية الشديد. يتم تحقيق هذا الاستقلالية من خلال خوارزميات متطورة تسمح للطائرة المسيّرة بتحليل البيانات المرئية وتحديد الأهداف المبرمجة مسبقًا والتنقل نحوها دون اتصال مستمر مع مشغل بشري.
وقال بيتر سينجر، الخبير الاستراتيجي في مؤسسة "نيو أمريكا"، وهي مركز أبحاث: "إن استخدام الذكاء الاصطناعي في الطائرات المسيّرة يغير ديناميكيات ساحة المعركة". "إنه يسمح بأوقات رد فعل أسرع والقدرة على العمل في المناطق التي يكون فيها الاتصال متدهورًا أو ممنوعًا."
يسلط تطوير ونشر الطائرات المسيّرة التي تعمل بالذكاء الاصطناعي في أوكرانيا الضوء على اتجاه متزايد في التكنولوجيا العسكرية. في حين يجادل المؤيدون بأن هذه الأنظمة يمكن أن تزيد الكفاءة وتقلل المخاطر على الجنود، يثير النقاد مخاوف بشأن احتمال حدوث عواقب غير مقصودة والآثار الأخلاقية لتفويض القرارات القاتلة إلى الآلات.
أحد المخاوف هو احتمال التحيز الخوارزمي. إذا تم تدريب الذكاء الاصطناعي على بيانات متحيزة، فقد يؤدي ذلك إلى تحديد خاطئ للأهداف أو إلحاق ضرر غير متناسب ببعض السكان. هناك قلق آخر يتمثل في عدم وجود مساءلة في حالة حدوث خطأ. تحديد المسؤولية عندما ترتكب طائرة مسيّرة مستقلة خطأً يمثل تحديًا قانونيًا وأخلاقيًا معقدًا.
يثير استخدام الذكاء الاصطناعي في الطائرات المسيّرة أيضًا شبح أنظمة الأسلحة المستقلة، والتي يشار إليها غالبًا باسم "الروبوتات القاتلة". ستكون هذه الأنظمة قادرة على تحديد الأهداف والاشتباك معها بشكل مستقل دون أي تدخل بشري. يدعو العديد من الخبراء والمنظمات إلى حظر هذه الأسلحة، بحجة أنها خطيرة بطبيعتها ويمكن أن تؤدي إلى سباق تسلح.
وقالت ماري ويرهام، مديرة قسم الأسلحة في منظمة هيومن رايتس ووتش: "نحن بحاجة إلى إجراء محادثة جادة حول حدود الذكاء الاصطناعي في الحرب". "إن فكرة تفويض قرارات الحياة والموت إلى الآلات أمر مقلق للغاية."
إن الوضع في أوكرانيا يسرع تطوير ونشر الطائرات المسيّرة التي تعمل بالذكاء الاصطناعي. مع سعي كلا الجانبين إلى تحقيق ميزة في ساحة المعركة، فمن المرجح أن يزداد استخدام هذه التقنيات، مما يزيد من طمس الخطوط الفاصلة بين التحكم البشري والآلي في الحرب. لا تزال الآثار الطويلة الأجل لهذا الاتجاه غير مؤكدة، ولكن من الواضح أن الذكاء الاصطناعي مهيأ للعب دور متزايد الأهمية في تشكيل مستقبل الصراع.
Discussion
Join the conversation
Be the first to comment