للمرة الأولى .. الذكاء الاصطناعي يقود الطائرات القتالية

علوم وتكنلوجيا 2023/03/01
...

 كاليفورنيا: وكالات


كشفت وزارة الدفاع الأميركية أنَّ الذكاء الاصطناعي قاد طائرة مشابهة لطائرة (إف – 16) لمدة 17 ساعة موزّعة بين 12 رحلة، وقد جرت هذه الرحلات في كانون الأول الماضي في قاعدة إدواردز الجوية بكاليفورنيا باستخدام طائرة تجريبية تدعى X-62A فيستا. وقد تحكّمت بالطائرة أربع خوارزميات للذكاء الاصطناعي نفذت القتال الجوي في مهمات تُحاكي المعارك الجوية الحقيقيَّة، ومن ذلك الإقلاع والهبوط الآليان.

ولا يُعدّ استخدام نظام الطيار الآلي شيئًا جديدًا، سواء في الطائرات المقاتلة أو في طائرات الركّاب، إذ يُستخدم هذا النظام للتنقل على مسارٍ محدد باستخدام تقنية تحديد الموقع الجغرافي GPS. إلّا أن القتال الجوي من دون أي تدخلٍ بشريٍ هو شيءٌ جديدٌ بالكامل. وتقول شركة (لوكهيد مارتن)، التي صممت الطائرة، إنَّ هذه أول مرة يجري فيها (التعامل مع طائرة تكتيكية بواسطة الذكاء الاصطناعي).

ويأتي ذلك ضمن مشروع بحثي مشترك بين وكالة مشاريع البحث المتقدم للدفاع (DARPA) والقوات الجويَّة الأميركيَّة لتعزيز تقنيات الطيران الذاتي.

ويهدف البرنامج إلى تطوير التحكم الذاتي المدعوم بالذكاء الاصطناعي في طائرات الاعتراض والهجوم، وقد بدأ البرنامج في العام 2019، وأقيم في آب/ أغسطس 2020 مسابقة تحدٍ وضعت هذه التقنية في معركة جوية افتراضية انتهت بفوز الذكاء الاصطناعي على طيار حربي محترف يقود طائرة F-16 

محاكاة.

وقال العقيد (رايان هيفرون)، مدير البرنامج: إنَّ "الفريق أجرى عدة رحلات لاختبار الخوارزميات في ظروفٍ مختلفة من حيث نوعية الأعداء وقدراتهم العتاديَّة، بهدف تدريب التقنية الجديدة على التكيف مع مختلف ظروف القتال بشكلٍ أفضل".

ويُثير استخدام الذكاء الاصطناعي في اتخاذ القرارات العسكريَّة جدلًا كبيرًا بين المؤيدين والمعارضين، وذلك منذ عدة أعوام عندما ظهرت التقارير التي تتحدث عن اختبار الدول الكبرى لهذه التقنية. إذ يرى المؤيدون أنَّ هذه التقنية تُسهم في تحسين القدرات العسكرية وتقليل الخطأ البشري، في حين يشعر المعارضون بالقلق من المخاطر المحتملة والعواقب غير المقصودة التي قد تجلبها هذه التقنية.

ويقلق المعارضون من احتمال غياب المساءلة والشفافيَّة في حال الاعتماد على الذكاء الاصطناعي في اتخاذ القرارات، إذ يصبح من الصعب تتبّع أسباب تلك القرارات ومن ثَم صعوبة حصر المسؤولية لو اتخذ الذكاء الاصطناعي قرارًا خطأً قد يؤدي إلى نتائج كارثية كاستهداف الصواريخ لأهداف خطأ أو إيقاع خسائر بين المدنيين.

والسؤال المطروح هنا هو: هل يتحمل المسؤولية مُشغّلو التقنية، أم الصانع، أم الجهاز نفسه؟

هناك أيضًا مخاوف بشأن احتمال تعطّل أنظمة الذكاء الاصطناعي أو اختراقها من قبل الخصوم، ما يمكن أنْ يؤدي إلى عواقب غير مقصودة. إذ يرى المعارضون للتقنية احتمال أنْ تؤدي إلى زيادة مخاطر التصعيد في الحروب وتقويض إمكانية التوصل إلى الحلول السلمية.