المسكوت عنه في إعلان بلتشلي لسلامة الذكاء الاصطناعي

المسكوت عنه في إعلان بلتشلي لسلامة الذكاء الاصطناعي

عندما نتحدث عن قمة عالمية لسلامة الذكاء الاصطناعي، ما هي أول صورة تقفز إلى أذهاننا؟

بالنسبة لمواطن عادي، الصورة الأقرب هي مشهد من أفلام الخيال العلمي؛ قد يكون “تيرمنيتر” بالتحديد، أو مشهدا لجيوش من الروبوتات الذكية المدججة بالسلاح والتي يستحيل الانتصار عليها.

بالطبع هناك الطائرات الذكية المسيّرة التي يجب ألّا ننساها، خاصة وأن العالم يشهد حربين تستخدم فيهما هذه المسيّرات. ولكن، هل ما اجتمع عليه قادة العالم ومدراء شركات التكنولوجيا والأكاديميون والمنظمات غير الربحية وانتهى بتوقيع 28 دولة بما في ذلك الصين والاتحاد الأوروبي، على ما يسمى إعلان بلتشلي بارك مجرد مخاوف من أن تتحول أفلام الخيال العلمي إلى حقائق؟

◙ شركات التكنولوجيا العملاقة كانت ممثلة في مؤتمر بلتشلي، وكانت أول المحتفلين بإعلان سلامة الذكاء الاصطناعي الذي ركز اهتمامه على الجانب الأخلاقي، دون ذكر للجانب الاقتصادي

هذه المخاوف وإن كان بالإمكان تبريرها، ليست هي ما يخيف قادة الدول والمنظمات غير الربحية. ما هو مخيف ليس تمرد الروبوتات والذكاء الاصطناعي على البشر والتسبب باندثارهم.. ما يجب أن يقلقنا هو من يسيطر على الذكاء الاصطناعي ومن يتحكم بالروبوتات، لأن الذكاء الاصطناعي، بما فيه الحدودي، لن يتحرر يوما من سلطات البشر.

نعم، ستكون هناك قريبا جدا روبوتات مقاتلة مدججة بالسلاح في ميادين الحرب وفي شوارع المدن، إلا أنها لن تتحرر كليا من سلطان البشر. هناك نخبة ستفرض سيطرتها على الذكاء الاصطناعي. والخوف يجب أن يكون من هذه النخبة وليس من الروبوتات.

إعلان بلتشلي عندما حذر من أنظمة ذكاء اصطناعي ذات أغراض عامة تتمتع بقدرات عالية ويمكنها أداء مجموعة كبيرة من المهام، لم يكن يوحي بأن هذا الذكاء سيخرج عن سيطرتنا يوما.

ذكر الإعلان أن القضايا المتعلقة بالذكاء الاصطناعي، مثل قابلية تفسير منطقه وإنصافه وتخفيف تحيزه وحماية خصوصية بياناته، تحتاج إلى التدقيق. وأشار إلى مخاطر المحتوى الذي يمكن التلاعب به وانتهاكات الأمن السيبراني والتكنولوجيا الحيوية.

وأكد الإعلان ضرورة تشكيل جبهة موحدة في مواجهة التحديات والاستفادة من الفرص التي يوفرها الذكاء الاصطناعي على المستوى العالمي.

واتفقت الدول الثماني والعشرون على وضع معايير سلامة عالية والالتزام بها في تصميم أنظمة الذكاء الاصطناعي وفي تطويرها ونشرها. ويتضمن ذلك التزاما مشتركا بالحد من المخاطر المرتبطة بالذكاء الاصطناعي وضمان تطوير هذه التقنيات مع اتباع نهج السلامة أولا. والتركيز على أهمية الاعتبارات الأخلاقية في الذكاء الاصطناعي. ويشمل ذلك ضمان احترام تقنيات الذكاء الاصطناعي لحقوق الإنسان والخصوصية والقيم الديمقراطية، وتعزيز النهج الذي يركز على الإنسان في التعامل مع الذكاء الاصطناعي.

يسلط الإعلان أيضا الضوء على الأهمية الحاسمة للشفافية والمساءلة في أنظمة الذكاء الاصطناعي.

◙ ما يجب أن يقلقنا هو من يسيطر على الذكاء الاصطناعي ومن يتحكم بالروبوتات، لأن الذكاء الاصطناعي، بما فيه الحدودي، لن يتحرر يوما من سلطات البشر

ولم ينس المجتمعون أن يضمنوا فقرة تشجع على تبادل المعرفة والبحث التعاوني بين الدول. ويهدف ذلك إلى تسريع الفهم العالمي وتخفيف المخاطر المرتبطة بالذكاء الاصطناعي، وتعزيز ثقافة التعلم المشترك والتحسين المستمر في ممارسات السلامة في مجال الذكاء الاصطناعي.

ويدعي المجتمعون أن الإعلان الصادر عن مؤتمر بلتشلي هو شهادة على تصميم المجتمع العالمي على ضمان أن مسار تطور الذكاء الاصطناعي يتماشى مع المصالح الأوسع للبشرية. وهو بذلك يشكل سابقة للجهود التعاونية الرامية إلى إنشاء إطار عالمي لسلامة الذكاء الاصطناعي، وضمان تحقيق فوائد الذكاء الاصطناعي مع تخفيف المخاطر المرتبطة به.

كل هذا كلام جميل لا جدال فيه، ولكن هناك من يقول إن الكلام سهل أما التطبيق فهو صعب، ولنا في التاريخ أمثلة كثيرة عن اتفاقيات لم ينجم عنها أي أثر إيجابي وبقيت حبرا على ورق، يتم التذكير بها من وقت إلى آخر. وقد يكون مثال 27 مؤتمرا عقدت للتصدي لمشكلة المناخ، وهي مشكلة ثبتت أضرارها وقد تؤدي إلى فناء البشرية، ورغم ذلك لم يتمخض عنها الكثير، خير مثال على ذلك.

لنكن متفائلين، ونقبل أن إعلان بلتشلي سيضع حدا لمخاوف تتعلق بالتحيز والعنصرية والتزييف والتضليل والأمن السيبراني.

ماذا عن جوانب أخرى لا نعلم سبب تجاهلها، رغم أنها في صميم ضمان سلامة الذكاء الاصطناعي الحدودي، وهي تسلل الذكاء الاصطناعي ليحل محل البشر في الوظائف، وتأثير ذلك على سوق العمل ومن ثم انعكاساته على العلاقات الاجتماعية.

يبدو أن الحديث بدأ يقترب من منطقة حمراء يتهم كل من اقترب منها بالترويج لنظرية المؤامرة.

لماذا تم السكوت عن الخطر الذي يشكله الذكاء الاصطناعي والروبوتات على سوق العمل، هناك سباق محموم اليوم لإحلال الروبوت مكان العامل. ولا تخفي الشركات الكبرى، بدءا بمصنعي السيارات وانتهاء بشركات التوزيع مثل أمازون وعلي بابا، خططها للاستغناء عن الموظفين البشر.

هذا الخطر لن يطال العاملين اليدويين فقط، بل سيطال مهنا لم تكن لتخطر على بال إنسان منذ عامين أو ثلاثة أعوام، بما فيها المبرمجون لأنظمة الذكاء الاصطناعي أنفسهم.

◙ إعلان بلتشلي عندما حذر من أنظمة ذكاء اصطناعي ذات أغراض عامة تتمتع بقدرات عالية ويمكنها أداء مجموعة كبيرة من المهام، لم يكن يوحي بأن هذا الذكاء سيخرج عن سيطرتنا يوما

ألا يعتبر السكوت عن هذا الأمر في مؤتمر مخصص لسلامة الذكاء الاصطناعي مؤامرة، حتى وإن كانت غير مقصودة.

ألم تتآمر الشركات الكبرى على صحة الإنسان خلال عشرات السنين واشترت صمت العلماء عن مخاطر كانت معلومة بالنسبة لهم، عندما تعلق الأمر بأضرار السجائر والدهون المصنعة والسكر.. والتلوث أيضا. وما زالت حتى يومنا هذا مترددة في اتخاذ قرارات حاسمة.

شركات التكنولوجيا العملاقة التي تجني أرباحا خرافية لم يسبق أن جنتها صناعات أخرى، كانت ممثلة في مؤتمر بلتشلي، وكانت أول المحتفلين بإعلان سلامة الذكاء الاصطناعي الذي ركز اهتمامه على الجانب الأخلاقي، دون ذكر للجانب الاقتصادي.

الإعلان كما يقول المؤتمرون، وضع بوصلة أخلاقية قوية للذكاء الاصطناعي شملت ضمان احترام الذكاء الاصطناعي لحقوق الإنسان والخصوصية والقيم الديمقراطية، وهذا صحيح مئة في المئة. ولكن، أليس العمل حقا من حقوق الإنسان؟

يبدو أن المسكوت عنه في إعلان بلتشلي، أخطر من المحكي عنه. وإلى أن يتم تدارك ذلك سيبقى هناك متسع لأصحاب نظرية المؤامرة.

العرب