لا يمكن التراجع عن توظيف الذكاء الاصطناعي في المجال العسكري، لكن ذلك لا ينفي خطورة الوضع في حين دخل العالم سباقا جديدا للتسلح “الذكي” الذي يوظف تقنيات الذكاء الاصطناعي لشن حروب كبيرة قد لا تلتزم بمعايير إنسانية، فتحدث تداعيات كبيرة تفوق في خطورتها الحروب التقليدية.
واشنطن – كثُر الحديث عن الثورة التي سيحدثها الذكاء الاصطناعي في العالم الذي نعرفه، من الطريقة التي نتعلم بها ونعمل بها إلى كيفية إبحارنا في العالم وما وراءه. لكن القلق يتزايد بشأن استخدام الذكاء الاصطناعي في الحروب التي قد تؤدي إلى عواقب وخيمة على البشرية، بما يتجاوز تغير المناخ.
للذكاء الاصطناعي خبرة قتالية بالفعل. واستخدمت طائرة مسيّرة تركية الصنع في مارس 2020 تقنية التعرف على الوجوه لمواجهة العدو في ليبيا. وبعد مرور ثلاث سنوات، لا يزال النقص في تنظيم الأسلحة المتقدمة قائما، بينما تبدو المقاتلات وكأنها من صفحات رواية خيال علمي ديستوبية. ويؤكد المحلل الهندي دانيش كامات أنه صار من شبه المستحيل ضمان التزام الأسلحة الخارجة عن تحكم البشر بالقانون الإنساني الدولي مصدر التساؤلات والقلق.
ويتساءل كامات المحلل في مقال له بموقع “سنديكيشن بيورو” المتخصص في شؤون الشرق الأوسط والأدنى “هل يمكننا الوثوق بقدرة هذا الصنف من الأسلحة على التمييز بين المدنيين والمقاتلين؟ هل ستكون قادرة على تقليل الضرر اللاحق بالمدنيين؟ كيف ستتصرف في المواقف التي يكون فيها الحكم العاطفي أساس القرار دون تدخل بشري؟”.
ويجيب عن ذلك بالقول إنه سيصعب تحديد المساءلة عن جرائم الحرب عند غياب السيطرة البشرية. ومن الزاوية الأخلاقية، يمكن أن يكون السماح للآلات باتخاذ قرار القتل، عن طريق اختزال المستهدَفين في بيانات، شكلا من أشكال تجريد الإنسانية عن الرقمية.
أما من الناحية الإستراتيجية سيسهّل انتشار تكنولوجيا أسلحة الذكاء الاصطناعي على البلدان إدخال الأسلحة المتطورة. وسيؤدي النشر المتزايد للأسلحة القائمة على الذكاء الاصطناعي لتقليل الخسائر البشرية بالنسبة إلى الطرف المهاجم، ممّا يمكن أن يقوض التردد قبل شن الحرب.
وقد تكون التداعيات كارثية إن أمكن تخفيض الوصول والتكاليف بشكل كبير، بحيث يمكن للجهات الفاعلة غير الحكومية تضمين تكنولوجيا أسلحة الذكاء الاصطناعي في ترساناتها. ويمكن للجهات الفاعلة غير الحكومية اعتماد أسلحة الذكاء الاصطناعي التي يصعب إثبات مصدرها، مما يمكنها من إحداث الفوضى مع الحفاظ على القدرة على إنكار تورطها.
وقال الرئيس الروسي فلاديمير بوتين في 2017 إن من سيقود “الذكاء الاصطناعي سيحكم العالم”. ويبدو كلامه صحيحا الآن أكثر من أيّ وقت مضى. ويشهد العالم اليوم سباق تسلح صامت ومتزايد على مستوى الذكاء الاصطناعي. وطلب البنتاغون هذا العام 145 مليار دولار من الكونغرس لسنة مالية واحدة لزيادة الإنفاق على التكنولوجيا الحيوية وتعزيز التعاون مع القطاع الخاص.
وشمل الطلب دعوة إلى “بناء الجسور مع نظام الابتكار الإيكولوجي الديناميكي في الولايات المتحدة “، وإلى تمويل الذكاء الاصطناعي. وأنشأ البنتاغون في ديسمبر مكتب رأس المال الإستراتيجي لتحفيز استثمارات القطاع الخاص في تقنيات الاستخدام العسكري. ويدرس المكتب أفكارا من القطاع الخاص حول تقنيات الجيل التالي، ويصفها بأنها ذكاء اصطناعي موثوق به، دون تحديد ما يعنيه ذلك بالضبط.
لكن يأمل أن يعكس هذا التحول الدلالي الاعتبار الجاد الذي يُولى داخل المجمع الصناعي العسكري الأميركي للمسائل الأخلاقية والقانونية المحيطة بالذكاء الاصطناعي في الحرب. ويمكن ربطه بالمنافسة بين الولايات المتحدة والصين. ويوجد تشابه بين سياسة الصين القائمة على الاندماج العسكري المدني الذي ظهر في أواخر التسعينات لأول مرة، والإستراتيجية الأميركية القائمة منذ فترة أطول.
ويسعى النهج الصيني إلى محاكاة المجمع الصناعي العسكري الأميركي منذ وصول شي جينبينغ إلى السلطة. وتهدف سياسة الصين القائمة على الاندماج العسكري المدني إلى تحقيق الريادة في الذكاء الاصطناعي. ويمكن تطبيق إحدى أدوات السياسة المعمول بها هناك حتى في الولايات المتحدة، حيث تهدف إلى إنشاء صناديق رأس المال الاستثماري لتشجيع الابتكار المدني في مجال الذكاء الاصطناعي.
ويرى المحلل الهندي أنه بغض النظر عن المخاوف بشأن انتشار الذكاء الاصطناعي، لا يمكن لأيّ دولة على هذا الكوكب أن تقدم حجة تقنع بجعلها الحكم الوحيد لمعايير الذكاء الاصطناعي في الحرب. ولا يمكن فرض حظر عالمي على أسلحة الذكاء الاصطناعي. لذلك، يجب أن يتحدد تركيز دولي عاجل على الحاجة إلى معايير دنيا عالمية بشأن استخدام الذكاء الاصطناعي في الحرب. ويجب أن يشمل هذا أيضا مناقشة حول كيفية تغيير الذكاء الاصطناعي للحرب نفسها.
وتحدث مسؤول حكومي أميركي في مارس الماضي عن استخدام ما يُعرف باسم “نماذج اللغات الكبيرة” في حرب المعلومات. وتعرض موقع تشات جي بي تي لانتقادات (وحتى دعوى قضائية) لتوليده معلومات غير سليمة. ويمكن أن تنشر الدول المزيد من نماذج اللغات الكبيرة المتطورة لتوجيه المشاعر ضد الأعداء. كما يمكن استخدام النماذج من الدرجة العسكرية لدفع الأخبار المزيفة، وإنشاء التزييف العميق، وزيادة هجمات التصيّد الاحتيالي، وحتى تخريب نظم المعلومات في دولة ما.
◙ من الناحية الإستراتيجية سيسهل انتشار تكنولوجيا أسلحة الذكاء الاصطناعي على البلدان إدخال الأسلحة المتطورة
وفي مايو، طلبت شركات أميركية رائدة في مجال الذكاء الاصطناعي، بما في ذلك المديرة لتشات جي بي تي، من الكونغرس تنظيم الذكاء الاصطناعي. وحتى لو أمكن وضع المعايير، فسيكون تحديدها في المواقف التي يصعب فيها تمييز الحدود بين الدولة والقطاع الخاص صعبا، سواء بسبب اختيارات الدولة (الصين)، أو المؤسسات الضعيفة (روسيا)، أو بيئة التعايش (الولايات المتحدة).
وبعث مسؤولون عسكريون متقاعدون في إسرائيل شركات التكنولوجيا الناجحة المتخصصة في التكنولوجيا العسكرية المدنية ذات الاستخدام المزدوج. وأقر الجيش الإسرائيلي باستخدام أداة ذكاء اصطناعي لتحديد أهداف للضربات الجوية. وتخضع أدوات الذكاء الاصطناعي العسكرية للإشراف البشري، لكنها لا تخضع للتنظيم من أيّ مؤسسة، تماما مثلما يحدث في جل البلدان.
ويصبح من الضروري بعد ذلك النظر في نظام حكم كل بلد يعتمد الذكاء الاصطناعي. هل يريد أن يعتمد مؤسسات وقوانين تنظم الذكاء الاصطناعي بشكل فعال؟ فعلى عكس تنظيم انتشار الأسلحة النووية، لم يحرز العالم سوى تقدم ضئيل في سباق التسلح بالذكاء الاصطناعي. ومن المحتمل أن يكون هذا بسبب الوتيرة السريعة التي يسجّلها الابتكار في مجال الذكاء الاصطناعي. وتتقلص بهذا نافذة الفرصة لتنظيم الذكاء الاصطناعي بسرعة. فهل سيواكب المجتمع العالمي السباق؟
العرب