الدفاع عن الخبرة البشرية في عصر الروبوتات القاتلة

الدفاع عن الخبرة البشرية في عصر الروبوتات القاتلة

على الرغم من المخاوف الأخلاقية التي تثيرها، ينتشر استخدام الروبوتات المستقلة القادرة على استخدام القوة المميتة بشكل متزايد في الحروب الحديثة. فهل هناك ما يمكن القيام به لوقف تقدمها؟ هذا ما يحاول فرانك باسكوال الإجابة عنه في كتابه “قوانين الروبوتات الجديدة: الدفاع عن الخبرة البشرية في عصر الذكاء الاصطناعي” الصادر مؤخرا عن جامعة هارفارد.

لندن – رجلان يقفان بجوار شاحنة بيضاء في حقل، ممسكين بجهاز تحكم عن بعد؛ يفتحون الأبواب الخلفية للشاحنة، ليصدر صوت أزيز طائرات دون طيار “كوادكوبتر” تندفع مثل خفافيش انطلقت من كهف.

الروبوتات القاتلة تتدفق من خلال النوافذ وفتحات التهوية لبناء مدرسة، بينما يصرخ الطلاب مرعوبين. هذا مشهد من فيلم “الروبوتات القاتلة” (Slaughterbots) يحذر من مدى السهولة التي يمكن فيها للإرهابيين استخدام هذه التكنولوجيا، بينما الدفاعات القائمة ضدها ضعيفة أو معدومة.

ويقول خبراء عسكريون أن الفيلم الذي أنتجه “معهد الحياة المستقبلية”، أثار مشكلة خطيرة. ولكن، عندما يتعلق الأمر بمستقبل الحرب، غالبًا ما يكون الخط الفاصل بين الخيال العلمي والحقيقة ضبابيًا.

ثورة حقيقية
كان سلاح الجو الأميركي قد تحدث عن مستقبل “ترسل فيه فرق حشرات ميكانيكية مزودة بكاميرات فيديو لتتسلل داخل المباني التي تحتجز فيها الرهائن”. وفي تجربة ميدانية أطلق “روبوت آلي صغير للغاية مزود بكاميرا وجهاز إرسال لاسلكي، يمكنه تغطية ما يصل إلى 100 متر على الأرض”.

إنه واحد فقط من بين العديد من أسلحة “المحاكاة الحيوية”، التي تلوح في الأفق. ولا يعلم أحد كم من الكائنات الضارة الأخرى أصبحت الآن جاهزة للاستخدام. في رواية حديثة، اشترك في تأليفها كلا من بيتر سنغر وأوغست كول، وتدور أحداثها في المستقبل القريب، تخوض الولايات المتحدة حربًا مع الصين وروسيا، تقدم خلالها رؤية مغايرة للطائرات بدون طيار وأسلحة الليزر والأقمار الصناعية المختطفة.

لا يمكن تجاهل الرواية التي تتحدث عن “ثورة حقيقية للروبوتات” باعتبارها مجرد خيال تقني عسكري؛ فهي تتضمن مئات الهوامش التي توثق تطور كل قطعة من الأجهزة والبرامج التي يصفها الكاتبان. كما وأن التطور السريع في تصميم آلات القتل الروبوتية يؤجج من تلك المخاوف.

في الستينات تحدثت قصة خيال علمي روسي بعنوان “سرطان البحر يجتاح الجزيرة”، عن نوع من ألعاب الجوع يقوم بها الذكاء الاصطناعي، حيث تتنافس الروبوتات مع بعضها للحصول على الموارد، ليتم التخلص من الخاسرين بينما يسود الفائزون، ويتطور البعض منهم ليصبح أفضل آلات القتل.

عندما ذكر أحد علماء الكمبيوتر البارزين سيناريو مشابهًا لوكالة مشروعات الأبحاث الدفاعية الأميركية المتقدمة (داربا)، واصفًا إياه بـ”روبوت جوراسيك بارك”، علق أحد القادة العسكريين الأميركيين على ذلك بقوله إنه أمر “ممكن”.

لا يتطلب الأمر الكثير من التفكير لإدراك أن مثل هذه التجارب قد تخرج عن نطاق السيطرة يوما، حتى النفقات التي كانت تعتبر عائقا رئيسا أمام قوى عظمى لتجربة مثل هذه الآلات المدمرة المحتملة، قد تقدم البرمجيات الحديثة حلا لهذا العائق، وتسمح بمحاكاة افتراضية لجذب الاستثمارات العسكرية.

بحلول منتصف القرن العشرين، اجتمعت الدول وتدارست حظر الأسلحة الجديدة المرعبة، وتم التوقيع على اتفاقيات دولية تمنع استخدام الأسلحة البيولوجية والكيميائية. كما تم الحظر على استخدام تقنية الليزر المسببة للعمى أيضًا. ونجحت شبكة قوية من المنظمات غير الحكومية في حث الأمم المتحدة على دعوة الدول الأعضاء للموافقة على حظر مماثل على الروبوتات القاتلة والأسلحة الأخرى التي يمكنها التصرف بمفردها، دون سيطرة بشرية مباشرة، لتدمير الأهداف (يُعرف أيضًا باسم قوانين تنظيم الأسلحة الفتاكة المستقلة).

يمكننا تخيل بعض أنواع الأسلحة المرعبة التي يجب على جميع الدول الموافقة على عدم صنعها أو نشرها. إن قيام طائرة بدون طيار بإحراق جنود العدو تدريجيًا حتى الموت من شأنه أن ينتهك الاتفاقيات الدولية لمناهضة التعذيب؛ والأسلحة الصوتية المصممة لتدمير سمع العدو أو توازنه هي الأخرى تستحق معاملة مماثلة.

ومع ذلك، يبدو أن بعض أكبر الجيوش في العالم تتسلل نحو تطوير مثل هذه الأسلحة، تحت ذريعة الردع؛ فهم يخشون، كما يدعون، التعرض لهجوم من قبل خصومهم بأسلحة تستخدم الذكاء الاصطناعي، إن لم يتمكنوا من التهديد بتكنولوجيا مماثلة.

ولكن، هل الروبوتات القاتلة بخطورة الأسلحة البيولوجية؟

ليس بالضرورة، كما يجادل بعض المنظرين العسكريين وعلماء الكمبيوتر. وفقًا لمايكل شميت من الكلية الحربية البحرية الأميركية، يمكن للروبوتات العسكرية أن تراقب الأجواء لضمان عدم تكرار المذابح التي ارتكبت في الماضي ضد بعض الاثنيات. ويعتقد رونالد أركين من معهد جورجيا للتكنولوجيا أن أنظمة الأسلحة المستقلة قد “تقلل من وحشية الإنسان تجاه الإنسان من خلال التكنولوجيا”، لأن الروبوت لن يخضع لنوبات غضب أو سادية أو قسوة كما البشر.

واقترح أركين إبعاد العنصر البشري عن دائرة القرارات المتعلقة بالاستهداف، مع ترميز القيود الأخلاقية في الروبوتات. وطور أيضًا تصنيفًا لحماية المواقع مثل المستشفيات والمدارس.

من الناحية النظرية، قد يبدو تفضيل استخدام العنف الآلي الخاضع للتحكم، بدلاً من العنف البشري غير المتوقع أمرًا معقولاً. فغالبًا ما تكون المذابح التي ترتكب خلال الحروب متجذرة في المشاعر اللاعقلانية.

وتثير أي محاولة لترميز القانون والأخلاق في الروبوتات القاتلة صعوبات عملية هائلة. ويتحدث أستاذ علوم الكمبيوتر نويل شاركي عن استحالة برمجة روبوت مقاتل مزود بردود فعل على مجموعة لا حصر لها من المواقف، التي يمكن أن تنشأ في خضم الصراع.

قرار ذاتي
مثل سيارة ذاتية القيادة، قد تصبح عاجزة فجأة بسبب تداخل الثلوج مع مستشعراتها، سيواجه نظام الأسلحة المستقلة في ضباب الحرب مواقف قد تزيد من خطورة الموقف.

ويدلي معظم الجنود بشهادات تؤكد أن التجربة اليومية للحرب هي فترات طويلة من الملل تتخللها نوبات فوضى مفاجئة ومخيفة. وقد يكون من المستحيل توحيد روايات مثل هذه الحوادث، من أجل توجيه الأسلحة الآلية.

يعمل التعلم الآلي بشكل أفضل عندما تكون هناك مجموعة بيانات ضخمة تحتوي على أمثلة مفهومة بوضوح عن الخير والشر والصواب والخطأ، وحيث يتم تصنيف السلبيات والإيجابيات بدقة تقارب مئة بالمئة.

هل من الممكن “تحجيم” تجارب الجنود، وتقرير ما إذا كان سيتم إطلاق النار على أعداء غامضين؟ بالنظر إلى هذه العوائق، من الصعب تجنب الاستنتاج بأن فكرة آلات القتل الروبوتية الأخلاقية غير واقعية.

يفرض القانون الدولي، الذي يحكم النزاعات المسلحة، المزيد من التحديات على مطوري الأسلحة المستقلة. فأحد المبادئ الأخلاقية الرئيسية للحرب هو التمييز بين المقاتلين والمدنيين. لكن حرب العصابات أو الحروب يخوضها متمردون تزايدت في العقود الأخيرة، ونادرًا ما يرتدي المقاتلون في مثل هذه المواقف الزي الرسمي، مما يجعل من الصعب تمييزهم عن المدنيين.

ونظرًا للصعوبات التي يواجهها الجنود في هذا الصدد، من السهل رؤية الخطر الأكبر الذي تشكله أنظمة الأسلحة الروبوتية. ويصر أنصار مثل هذه الأسلحة على أن قوى التمييز للآلات آخذة في التحسن.

هناك أيضًا قاعدة مفادها أن العمليات العسكرية يجب أن تكون “متناسبة”، أي يجب تحقيق توازن بين الضرر المحتمل الذي يلحق بالمدنيين، والميزة العسكرية التي قد تنجم عن العمل. وتصف القوات الجوية الأميركية مسألة التناسب بأنها “قرار ذاتي بطبيعته سيتم حله على أساس كل حالة على حدة”.

بغض النظر عن مدى جودة مراقبة التكنولوجيا للتهديدات وقدرتها على اكتشافها وتحييدها، لا يوجد دليل على أنها قادرة على المشاركة في التفكير الدقيق والمرن الضروري لتطبيق قوانين أو قواعد غامضة بعض الشيء.

حتى لو افترضنا أن التقدم التكنولوجي يمكن أن يقلل من استخدام القوة المميتة في الحرب، فهل سيكون هذا دائمًا أمرًا جيدًا؟ من خلال مسح التأثير المتزايد لمبادئ حقوق الإنسان على الصراع، يلاحظ المؤرخ صمويل موين مفارقة: “أصبحت الحرب في آن واحد أكثر إنسانية ويصعب إنهاءها”.

بالنسبة للغزاة، تتيح الروبوتات للسياسيين تجنب القلق من وقوع إصابات تثير المعارضة في الداخل؛ أنها قبضة من حديد في قفاز التكنولوجيا المخملي، حيث يمكن للطائرات المسيرة ذاتيا أن تراقب ما يكفي فقط للتهدئة، وتجنب إراقة الدماء. في هذه الرؤية الآلية ستبدو الحرب أكثر فأكثر كعمل بوليسي خارج الحدود الإقليمية.

ويؤكد موين أنه مهما كانت هذه التكنولوجيا منقذة للحياة، فإن الفارق الهائل في القوة في قلب المهن التكنولوجية ليس أساسًا مناسبًا لنظام دولي شرعي.

الفيلسوف والمؤرخ غرغوار شمايو، متشكك أيضا، ويصف في كتابه “نظرية الطائرات دون طيار” هذه الأسلحة بأنها “سلاح عنف فاقد للذاكرة”.

مستشهدا بمقال لديفيد كيلكولن، المستشار العسكري الأميركي المؤثر في مكافحة التمرد، والذي دعا عام 2009 إلى وقف ضربات الطائرات بدون طيار في باكستان، واعتبرها تؤدي إلى نتائج عكسية خطيرة، مما دفع السكان إلى أحضان المتطرفين.

رونالد أركين: الأسلحة المستقلة تقلل من وحشية الإنسان

يقول المدافعون عن الطائرات بدون طيار، إن السلاح المستقل هو مفتاح حرب أكثر تمييزًا وإنسانية. لكن بالنسبة لشمايو “تدمر الطائرة بدون طيار إمكانية أي تفرقة واضحة بين المقاتلين وغير المقاتلين”.

كيف ينبغي لقادة العالم أن يستجيبوا لاحتمال وجود تقنيات أسلحة جديدة وخطيرة؟ أحد الخيارات هو محاولة التكاتف لحظر أساليب قتل معينة بشكل صريح. لفهم ما إذا كانت مثل هذه الاتفاقيات الدولية للحد من الأسلحة يمكن أن تنجح أم لا، يجدر النظر إلى الماضي.

كان اللغم الأرضي المضاد للأفراد، المصمم لقتل أو تشويه أي شخص يدوس عليه أو بالقرب منه، سلاحًا آليًا مبكرًا. أرعب المقاتلين في الحرب العالمية الأولى؛ بحلول عام 1994، كان الجنود قد زرعوا 100 مليون لغم أرضي في 62 دولة.

كان هناك إجماع دولي متزايد على ضرورة حظر الألغام الأرضية. الحملة الدولية لحظر الألغام الأرضية ضغطت على الحكومات في جميع أنحاء العالم لإدانتها. إن اللغم الأرضي ليس مميتًا مثل العديد من الأسلحة الأخرى، ولكن على عكس تطبيقات القوة الأخرى، يمكن أن يشوه ويقتل غير المقاتلين لفترة طويلة بعد انتهاء المعركة.

بحلول عام 1997، عندما فازت حملة حظر الألغام الأرضية بجائزة نوبل للسلام، ووقعت عشرات الدول على معاهدة دولية، تعهدت بعدم تصنيع أو تخزين أو نشر مثل هذه الألغام. (اعترضت الولايات المتحدة، وحتى يومنا هذا لم توقع على اتفاقية الأسلحة المضادة للألغام الأرضية).

في وقت المفاوضات، أصر المفاوضون الأميركيون والبريطانيون على أن الحل الحقيقي لمشكلة الألغام الأرضية هو ضمان إغلاق جميع الألغام المستقبلية تلقائيًا بعد فترة زمنية محددة، أو امتلاك بعض قدرات التحكم عن بعد. هذا يعني أنه يمكن إيقاف تشغيل الجهاز عن بعد بمجرد توقف الأعمال العدائية.

لم تجد الحلول التكنولوجية للولايات المتحدة سوى القليل من المؤيدين. بحلول عام 1998، وقعت عشرات الدول على معاهدة حظر الألغام. انضم المزيد من الدول كل عام من 1998 إلى 2010، بما في ذلك القوى الكبرى مثل الصين. وبينما اتخذت إدارة أوباما بعض الخطوات المهمة نحو الحد من الألغام، عكس وزير دفاع دونالد ترامب هذه الخطوات. بدلاً من حظر الروبوتات القاتلة، تفضل المؤسسة العسكرية الأميركية التنظيم.

مساءلة قانونية
أدت المخاوف بشأن الأعطال والعواقب غير المقصودة للأسلحة الآلية إلى ظهور خطاب محسوب للإصلاح حول الروبوتات العسكرية. يتحدث سينغر عن السماح بالاستخدام المستقل فقط للأسلحة غير الفتاكة، مثال أن تقوم طائرة دون طيار بدوريات في الصحراء. ولنقل على سبيل المثال، صعق مقاتل أو لفه بشبكة، لكن “قرار القتل” سيترك للبشر وحدهم.

باستخدام الذكاء الاصطناعي فإن البشرية ستصبح في خطر إذا ما استخدمته أياد ارهابية.

ستساعد مثل هذه القواعد في نقل وظيفة الحروب إلى حفظ السلام، وأخيراً إلى شكل من أشكال الشرطة.

يؤكد سينغر أيضًا على أهمية المساءلة، بحجة أنه “إذا قام مبرمج بتفجير قرية بأكملها عن طريق الخطأ، فيجب محاكمته جنائيا. ويبني على خبرتنا التي امتدت لقرون مع تنظيم الأشخاص.

لضمان المساءلة عن نشر الروبوتات القاتلة ستحتاج الجيوش إلى التأكد من أن الروبوتات ووكلاء الخوارزميات يمكن تتبعهم والتعرف عليهم. ويضغط بعض المنظرين العسكريين لترميز الروبوتات بأخلاقيات الخوارزميات.

ومع ذلك، ما مدى احتمالية معاقبة مبرمجي الروبوتات القاتلة حقًا؟

لقد كان البشر مسؤولين بشكل مباشر عن هجمات الطائرات بدون طيار على المستشفيات والمدارس وحفلات الزفاف وغيرها من الأهداف غير المناسبة، دون عواقب متناسبة. “ضباب الحرب” يبرر كل أنواع الإهمال. لا يبدو أن الأنظمة القانونية المحلية أو الدولية ستفرض مزيدًا من المسؤولية على المبرمجين الذين يتسببون في مذابح مماثلة.

لطالما كان التسلح من الأعمال التجارية الكبيرة، وسباق التسلح بالذكاء الاصطناعي يعد بتحقيق أرباح للمهتمين بالتكنولوجيا. لذلك قد تبدو الجهود المبذولة ضد سباقات التسلح غير واقعية على الإطلاق. بعد كل شيء، تضخ الدول موارد هائلة في التطبيقات العسكرية للذكاء الاصطناعي.

لا يتم استخدام الذكاء الاصطناعي في الجيش والمراقبة فقط، أو حتى بشكل أساسي، على الأعداء الأجانب. لقد تم إعادة توظيفه لتحديد الأعداء ومقاتلتهم في الداخل. في حين لم يظهر شيء مثل هجمات 11 سبتمبر على مدار ما يقرب من عقدين من الزمن في الولايات المتحدة، إلا أن قوات الأمن الداخلي حولت بهدوء أدوات مكافحة الإرهاب ضد المجرمين وعمليات الاحتيال في التأمين وحتى المحتجين.

إن تقدم استخدام الذكاء الاصطناعي في الجيش والشرطة والسجون والخدمات الأمنية ليس تنافسًا بين القوى العظمى بقدر ما هو مشروع عالمي مربح من قبل نخب الشركات والحكومة للحفاظ على السيطرة على السكان المضطربين في الداخل والخارج.

ملاحظًا نمو دولة الأمن القومي الأميركي وما يسميه “الإمبراطورية المفترسة”، يسأل المؤلف إيان شو: “ألا نرى صعودًا في سيطرة الأمن على الدعم، ورأس المال على الرعاية، والحرب على الرفاهية”؟ولكي تسود هذه العقلية، يجب على مناصريها كسب معركة الأفكار في بلدانهم حول الدور المناسب للحكومة والمفارقات الأمنية، وتحويل الأهداف السياسية بعيدًا عن الهيمنة في الخارج، وتلبية الاحتياجات الإنسانية في الداخل.إن الوجود المستمر للحارس الآلي القادر على تنبيه الجنود إلى أي سلوك مهدد هو شكل من أشكال الاضطهاد. وتصف روزا بروكس، المسؤولة السابقة في البنتاغون، في كتابها “كيف أصبح كل شيء حربًا والجيش أصبح كل شيء” الإدراك المتزايد بين خبراء الدفاع الأميركيين بأن التنمية والحوكمة والمساعدات الإنسانية لا تقل أهمية عن إبراز القوة، إن لم يكن أكثر من ذلك.

يجب أن يكون وقف هذا الصعود هو الهدف الأساس لسياسة الذكاء الاصطناعي والروبوتات المعاصرة.

العرب