هذه فضائل التكنولوجيا الرقمية.. فماذا عن المشاكل الأخلاقية؟

هذه فضائل التكنولوجيا الرقمية.. فماذا عن المشاكل الأخلاقية؟

رغم عمرها القصير استطاعت التكنولوجيا الرقمية أن تلامس حياتنا وتتسلل إلى حجرات نومنا وتتغلغل فى أحلامنا، ولم يعد هناك أدنى شك في أن هذه التكنولوجيا قد وفرت فرصا كبيرة، ولكن يخشى البعض أن نكون نسينا كأفراد وحكومات ومؤسسات الجانب الآخر المظلم لها وما قد تثيره من مشاكل أخلاقية.

لندن- الثورة الرقمية، رغم عمرها القصير نسبيا، إلا أنها استطاعت أن تغير حياتنا وتقلبها رأسا على عقب. وبالطبيعي ما كان لها أن تتطور بتلك السرعة المذهلة، لولا الفوائد التي تم جنيها من تطبيقاتها.

لقد مست حياتنا بأدق تفاصيلها، ودخلت حجرات نومنا وتغلغلت في أحلامنا. في البداية تعامل الناس مع الهاتف الجوال، وهو من أهم إنجازات الثورة الرقمية، على أنه جهاز تقتصر حيازته على الأثرياء. ليثبت فيما بعد أن أهميته للفقراء والمناطق النائية التي بقيت معزولة عن الحضارة لقرون عديدة، أكبر.

“إنه حولنا في كل مكان”، كما قال يورغن سشميدهوبير المدير العلمي لمختبر الذكاء الاصطناعي السويسري الذي طَوَّر باحثوه برامج لشركات مُتعددة مثل أبل وغوغل ومايكروسوفت وأمازون.

اليوم بات الاتصال متاحا أمام الجميع، بفضل الهاتف المحمول والآلاف من الأقمار الصناعية التي تجوب الفضاء.

ومع الهاتف الجوال يقول يورغن يوجد الذكاء الاصطناعي “في جيوبنا جميعاً نستخدمه في كل مرة نستخدم خاصية التعرف على الكلام في هواتفنا الذكية”.

لم يعد هناك أدنى شك في أن التقنيات الرقمية وفّرت فرصا كبيرة لقطاعات الاقتصاد المختلفة وللمجتمع أيضا. وفي غمرة الفرحة نسينا كأفراد وحكومات ومؤسسات الجانب الآخر لهذه التقنية وما قد تثيره من مشاكل أخلاقية.

حتى لا نقف في صف المتشائمين الذين لا يرون إلا الجانب السلبي، نسارع للقول إن أيّ ابتكار عرفته البشرية حمل معه مشاكله الأخلاقية، جنبا إلى جنب مع الفوائد التي وفرها للبشرية، بدءا بالعجلة وانتهاء بالتكنولوجيا النووية.

وتعلمت البشرية كيف تتكيف مع الجوانب السلبية بوضع قوانين وقواعد لضبط استخدامه، ونجحت في التغلب على معظم السلبيات، وإن كانت قد فشلت أيضا في التغلب على البعض منها. وأحيانا كانت كلفة الفشل كبيرة تحمّلنا جميعا ثمنها.

قد يكون تلوث البيئة واحدا من أبرز الأمثلة الذي فشلت فيها الحكومات في السيطرة على التكنولوجيا.

أبرز إنجازات الثورة الرقمية هو الذكاء الاصطناعي والخوارزميات. لقد ثبت في العامين الأخيرين، خاصة بسبب من جائحة كورونا التي تجتاح العالم، أن الفوائد التي جنتها البشرية على مستوى الأفراد والمؤسسات والحكومات أكثر من أن تعد أو تحصى.

لذلك لم يكن مستغربا أن يشكل نفس هذا الإنجاز فرصة ليس فقط بالنسبة إلى الناشطين في عالم الجريمة لتطوير أدواتهم، بل أيضا فرصة للحكومات، خاصة في مجال الحروب ومراقبة الشعوب ومحاولة السيطرة عليها.

أكبر المخاوف التي أثارها الذكاء الاصطناعي وتطبيقاته في الروبوتات والأتمتة (التشغيل الآلي) هو فقدان الوظائف. ومهما قيل في هذا الجانب يتفق الجميع على أنها مسألة وقت فقط قبل أن يفقد العاملون وظائفهم، ولن يكون أحد في مأمن من هذا التهديد.

وتوقع الباحثون أن يتفوق الذكاء الاصطناعي على البشر في العديد من الأنشطة في المنظور القريب، مثل ترجمة اللغات بحلول عام 2024، وكتابة البحوث أو المقالات بحلول عام 2026، وقيادة الشاحنات بحلول عام 2027، والعمل في تجارة التجزئة بحلول عام 2031. وبحلول عام 2049 ستكون أنظمة الذكاء الاصطناعي قادرة على تأليف الكتب الأكثر مبيعا، كما يتوقع لها القيام بعمل الجراحين بحلول عام 2053.

عموما، يرجّح الخبراء أن يتفوق الذكاء الاصطناعي على البشر في جميع المهام خلال 45 عاما، وتولي الآلات كافة الوظائف البشرية في غضون 120عاما.

ضريبة الذكاء

أنطونيو غوتيريش: الذكاء الاصطناعي يفرض قضايا وتحديات أخلاقية خطرة

إذا كان الموت والضرائب هما الحقيقتان الوحيدتان المؤكدتان في هذه الحياة كما يُقال، لماذا إذن لا تُفرَض الأخيرة على الروبوتات أيضاً عندما تستولي على الوظائف التي يُنجزها البشر تقليدياً؟

هذا هو السؤال الذي أثاره أستاذ جامعي سويسري، ودفع منظمات المجتمع المدني والمنظمات الحكومية على السواء إلى المطالبة بفرض ضرائب على الروبوتات.

ويجادل غزافيي أوبرسون الأستاذ بجامعة جنيف والمُتخصص في قانون الضرائب وأحد أكثر الأشخاص حماساً لمنح الروبوت صفة اعتبارية، يمكن إدارة مثل هذا الأمر من خلال إنشاء “كيان قانوني” يمثل الروبوتات، تماماً كما هو الحال اليوم بالنسبة إلى الشركات.

قد يبدو اقتراح أوبرسون غريباً، ولكن الفكرة القائلة بأن استخدام الروبوتات – ولاسيما تلك المزودة بالذكاء الاصطناعي – قد يتطلب إعادة تقييم ومراجعة مُحتملة للسياسات الاجتماعية وسياسات العمل الحالية تكتسب المزيد من التأييد.

ففي شهر فبراير عام 2016 اقترح المرشّح الاشتراكي لمنصب رئيس الجمهورية الفرنسية بونوا هامون فرض ضريبة على الروبوتات كوسيلة لتمويل دخل أساسي للجميع. وأيد مؤسس شركة مايكروسوفت العملاقة بيل غيتس في مقابلة معه عن دعمه لفكرة احتساب ضريبة على الروبوت، كوسيلة لإبطاء الآثار السريعة للأتمتة على القوى العاملة.

ففقدان الوظائف بسبب التقنيات الحديثة يحمل معه مخاطر أخلاقية كثيرة يجب التصدي لها، ولكنه ليس التهديد الأخلاقي الوحيد الذي تسببت فيه هذه التقنيات.

من بين هذه المخاطر وليس كلها نشير خصوصا إلى حماية البيانات، وتقنية التَعرف على الوجوه، ومقاطع الفيديو المزيفة باستخدام تقنية “ديبفيك”، والأمن السيبراني.

لا شك بأن الرَقمنة أتَت بعددٍ غير مَسبوق تاريخياً من التحديات الأخلاقية الجديدة. لذلك تخشى الحكومات وقوع الذكاء الاصطناعي في الأيدي الخطأ. بينما يخشى الأفراد ومنظمات المجتمع المدني من توظيف الحكومات لهذه التقنيات في مراقبة الشعوب وقمعها.

وإن كان خطر فقدان الوظائف يتصدر المخاطر، إلا أن المخاوف التي تثيرها “الروبوتات القاتلة” لا تقل عنها. وهنا أيضا نرى انقساما في الرأي.

ورغم عَدَم وجود أسلحة فتّاكة مُستقلّة بالكامل حتى الآن، إلّا أنَّ خبراء يتوقّعون استخدام هذا الجيل من الأسلحة في معارك ميدانية في غضون السنوات القليلة القادمة، نظراً للتقدّم التقني السريع في هذا المجال، والانتشار الواسع للذكاء الاصطناعي وأنواع أخرى من التقنيات فائقة التطور.

ويرى البعض في تطوير أسلحة جديدة على شكل روبوتات مستقلة قاتلة، أمر إيجابي، حيث ستعمل على “الحد من عدد القتلى في المعارك” و”إنجاز مهام قتالية أكثر بعدد أقل من الجنود” والقدرة “على توسيع ساحة القتال واختراق حدود العدوّ بسهولة، مما يوفّر الموارد المالية والبشرية”.

في المقابل، يرى المعارضون لتطوير الروبوتات المستقلة القاتلة بأن هذه الآلات، إذا ما قورنت بالبشر، تفتقر للقُـدرة على التقييم والحس السليم والنظر إلى الأمور من زاوية أوسع، وهي مزايا يجب الاحتكام إليها عندما يتعلّق الأمر بقرارات لها علاقة بالحياة أو الموت.

ويرى هؤلاء أيضا أن تخفيض الكلفة المالية والبشرية في حرب تقوم بها دولة تستخدم الروبوتات، سيُضعف من قدرة السياسيين على التأثير في القرارات بخصوص مجرى الحرب ومن ضغط الرأي العام.

ومن التساؤلات التي تطرح من منتقدي استخدام روبوتات قاتلة مستقلة، مدى إمكانية احترامها لمبادئ القانون الإنساني الدولي والتفريق بين المدني والمقاتل، والتمييز في استخدام القوة، أو لجوء بعض الدول إلى استخدامها في قمع الاحتجاجات الداخلية، خاصة في ظل عدم وجود نظام محاسبة قانوني، ومن سيتحمل مسؤولية ذهاب هذه الأسلحة إلى أبعد مما هو مسموح به في القانون الإنساني الدولي: هل الشركة المنتجة أم المبرمج أم الدولة والجهة المُستخدمة لهذا السلاح؟

الخبراء يرجحون أن يتفوق الذكاء الاصطناعي على البشر في جميع المهام خلال 45 عاما، وتولي الآلات كافة الوظائف البشرية في غضون 120عاما

وترغب منظمات المجتمع المدني المُنضوية تحت راية “الحملة الدولية ضد الروبوتات القاتلة”، في التوصل إلى فرض حظر شامل على تطوير هذا النوع من الأسلحة وصناعته وتسويقه واستخدامه.

وفي عام 2018 قدمت مجموعة خبراء أنشأتها المفوضية الأوروبية مسودة لمبادئ توجيهية أخلاقية بإمكانها أن تميّز الذكاء الاصطناعي الجدير بالثقة. ولكن لا توجد استراتيجية عالمية مَتفق عليها لتحديد المبادئ المشتركة حتى الآن.

أنطونيو غوتيريش الأمين العام للأمم المتحدة ورغم إطرائه التقنيات الحديثة ودورها في السلام والازدهار لجميع الناس قال إن “الوقت قد حان بالنسبة إلينا جميعاً- سواء كحكومات أو مجتمع مدني أو قطاعات صناعية – لتقييم الكيفية التي سيؤثر بها الذكاء الاصطناعي على مُستقبلنا. لكن هناك أيضاً تحديات خطرة وقضايا أخلاقية على المَحَك. هناك مخاوف حقيقية بشأن الأمن في الفضاء الإلكتروني وحقوق الإنسان والخصوصية، ناهيك عن التأثير الواضح والكبير على سوق العمل”.

العرب