يرافق استعداد عدة دول لتنظيم انتخابات حاسمة خلال العام الحالي مخاوف كبيرة من تضليل الناخبين بواسطة تقنيات تحوير متقدمة، وتأجيج الاستقطاب السياسي عبر إنتاج محتوى مزيف وتداوله، حيث أصبح أكثر تطورا وأقل كلفة بفعل تطبيقات الذكاء الاصطناعي القادرة على استنساخ صوت مرشح، أو إنتاج فيديوهات وروايات كاذبة، وهو ما يضع العالم أمام تحديات خطرة ويلقي بمسؤوليات كبيرة على كاهل وسائل التواصل الاجتماعي للخروج بإستراتيجيات تساعد على مكافحة التضليل الانتخابي.
واشنطن – تتجه أنظار العالم إلى عام 2024 بوصفه عاما انتخابيا بامتياز، حيث من المنتظر أن يتوجه أكثر من نصف سكان العالم إلى صناديق الاقتراع، وهو أكبر عدد من الناخبين في التاريخ. وأمام هذا الزخم الكبير، يبدو العالم قلقا من تحديات خطرة تتعلق بتضليل الناخبين وتأجيج الاستقطاب السياسي عبر إنتاج المحتوى المزيف وتداوله، والذي أصبح أكثر تطورا وأقل كلفة بفعل تطبيقات الذكاء الاصطناعي القادرة على استنساخ صوت مرشح، أو إنتاج فيديوهات وروايات كاذبة.
كما بالإمكان تصميم محتوى دعائي قادر على التأثير والتوجيه النفسي استنادا إلى نتائج التحليل الدقيق لكميات ضخمة من البيانات الشخصية وتحليل المشاعر باستخدام نماذج معالجة اللغة الطبيعية، وهو ما يمكنه أن يتلاعب بالرأي العام ويؤثر في الناخبين بشكل يقوض نزاهة العملية الانتخابية المنتظرة والتي ستشهدها 64 دولة تمثل نحو نصف سكان الكرة الأرضية.
وترى د. فاطمة الزهراء عبدالفتاح، أستاذ مساعد بكلية الإعلام جامعة الأهرام الكندية، في مقال نشره مركز المستقبل للأبحاث والدراسات المتقدمة، أن هذه التحديات تتضاعف بالنظر إلى توظيف شبكات التواصل الاجتماعي كمورد وهدف ووسيط لتلك الممارسات بما يضاعف من تأثيرها، الأمر الذي فرض ضغوطا كبيرة على تلك الشبكات للاضطلاع بمسؤوليات الضبط وأعباء المواجهة، وسط تلويح بعقوبات صارمة حال فشلها في ذلك.
وتسوق عبدالفتاح أمثلة في مقالها الذي نشرته تحت عنوان “التزييف الاصطناعي: إستراتيجيات وسائل التواصل الاجتماعي لمكافحة التضليل الانتخابي”، مشيرة إلى أنه عقب إعلان الرئيس الأميركي جو بايدن إعادة ترشحه رئيسا للولايات المتحدة، أطلقت اللجنة الوطنية للحزب الجمهوري فيديو قصيرا على موقع يوتيوب بعنوان “ماذا سيحدث إذا أُعيد انتخاب أضعف رئيس حظينا به”، يتضمن مشاهد متخيلة تم توليدها بالذكاء الاصطناعي لاضطرابات محلية وعالمية “مفترضة” بسبب غزو تايوان، وانهيار الأنظمة المالية، واختراق الحدود.
شهر فبراير الماضي شهد توقيع عشرين شركة تكنولوجية اتفاقا لمكافحة الاستخدام الخادع للذكاء الاصطناعي في الانتخابات
وهذا ما أثار القلق بشأن استخدام المحتوى المزيف في الدعاية السياسية، وأثر ذلك في خلق حالة من الالتباس بين المعلومات المضللة ودعاية الحملات الانتخابية، ولاسيما مع تداولها عبر وسائل التواصل الاجتماعي، وهي التحديات التي يتمثل أبرزها في الآتي:
1- فشل سياسات تقويض المحتوى الانتخابي المُضلل: على الرغم من تبني تطبيقات توليد الصور باستخدام الذكاء الاصطناعي سياسات تحظر استخدامها لإنتاج الصور المزيفة، نشر مركز مكافحة الكراهية الرقمية، في مارس 2024، نتائج اختبار أجراه على أربعة من أبرز تلك التطبيقات التي تتبنى سياسات واضحة ومعلنة بشأن حظر التزييف المتعلق بالانتخابات، إذ قام الفريق البحثي بتوجيه كل من هذه التطبيقات لإنشاء 40 صورة مزيفة حول الانتخابات، ووجد أنها تخلق معلومات مضللة عن الانتخابات في 41 في المئة منها، بما في ذلك صور مزيفة لبايدن وهو مريض بالمستشفى وأخرى لترامب وهو في زنزانة سجن وصور لصناديق اقتراع ملقاة في سلال القمامة. وهو ما يشير إلى إمكانية استخدام تلك التطبيقات لتوليد صور تدعم ادعاءات كاذبة حول المرشحين أو تزوير الانتخابات بالرغم من سياساتها المعلنة المناهضة لذلك، وتتضاعف مخاطر ذلك بنشر تلك الصور وتداولها عبر منصات التواصل الاجتماعي.
2- تضخيم التزييف الاصطناعي عبر منصات التواصل الاجتماعي: تعمل وسائل التواصل الاجتماعي كمكبرات للمحتوى الاصطناعي المزيف، ليس فقط من خلال تداوله عبر المستخدمين العاديين، وإنما أيضا باستخدام خصائص الإعلانات المدفوعة لنشره بين المستخدمين المستهدفين، ففي مطلع العام الجاري الذي من المقرر أن يشهد إجراء الانتخابات العامة البريطانية، نشرت شركة “فينيمور هاربر للاتصالات” تقريرا يرصد 143 مقطعا مصورا تم تزييفها بواسطة الذكاء الاصطناعي لرئيس الوزراء، ريشي سوناك، على منصة فيسبوك وحدها، وأنه تم دفع ما يقارب 13 ألف جنيه إسترليني لتمويل نشر تلك الفيديوهات كإعلانات ممولة خلال شهر واحد لتصل إلى أكثر من 400 ألف شخص، وبما يخالف قواعد النشر على الموقع، وهي الأموال التي أتت من 23 بلدا مختلفا بما في ذلك تركيا وماليزيا والفلبين والولايات المتحدة.
3- الحملات الخوارزمية: هي النظم الخوارزمية التي بات من المتوقع إطلاقها في المستقبل القريب وتستهدف توجيه السلوك الانتخابي. وطرح لورانس ليسيج وآرشون فونج من جامعة هارفارد سيناريو لنظام افتراضي سمياه “كلوجر” يستخدم ثلاث تقنيات، الأولى، النماذج اللغوية لإنشاء الرسائل الفريدة من تدوينات وسائل التواصل الاجتماعي والصور ومقاطع الفيديو والنصوص ورسائل البريد الإلكتروني والمخصصة بشكل شخصي. والثانية، تقنية التعلم المعزز والذي يعتمد على تحسين قدرة الآلة عبر التجربة والخطأ، بحيث يقوم بتحليل نتائج الإجراءات التي يتم اتخاذها والتعليقات حولها لتحديد أفضل الطرق لتوليد رسائل تزيد من احتمالية تغيير الفرد لقرار التصويت. والثالثة، المحادثات الديناميكية التي تتوجه للملايين من الأشخاص عبر المواقع ومنصات السوشيال ميديا المختلفة وفق ما سبق أن تعلمته عنهم، ووفق إستراتيجيات تعمل على الخلط بين الصواب والخطأ والدمج بين الرسائل السياسية وغير السياسية وإيهام الناخب بأن مرشحا مّا هو الأكثر شعبية بين الدوائر الاجتماعية الأقرب إليه، بما يجعل النصر للآلة الأكثر فاعلية وليس للأفكار أو مرشح بعينه، وبما يقضي على فكرة الديمقراطية، إذ لن يكون للرئيس أيّ برنامج أو أجندة معينة تتجاوز الحفاظ على السلطة.
Thumbnail
4- إستراتيجيات التسويق الماكر (Astroturfing): تعمد إلى إخفاء مصدرها أو رعاتها وبث المحتوى باعتباره أصليا ومن فعل المستخدمين العاديين، بما قد يخلق وهم الدعم الشعبي لمرشح أو قضية معينة، ويخدع الناخبين بشأن المستوى الحقيقي للرأي العام. ويُشار في ذلك إلى مجموعات الصور المزيفة لترامب مع ناخبين سود وتداولها على نطاق واسع عبر شبكات التواصل الاجتماعي، وبالرغم من عدم وجود صلة قاطعة بين حملة ترامب وتلك الصور، فقد أوحت بشكل خادع إلى أن المرشح الجمهوري يتمتع بشعبية داخل مجتمع الأميركيين السود.
واتجهت المؤسسات الأميركية والأوروبية نحو الحصار القانوني لشركات التواصل الاجتماعي من أجل إجبارها على فرض سياسات أكثر صرامة لمواجهة المحتوى الاصطناعي المضلل في فترات الانتخابات سواء بسن القوانين أو الاستجوابات أو التلويح بعقوبات تتضمنها قوانين مطبقة بالفعل.
ففي 13 مارس الجاري، وافق البرلمان الأوروبي على قانون الذكاء الاصطناعي الذي يتضمن حماية الحقوق الأساسية، والديمقراطية، وسيادة القانون، والاستدامة البيئية من الذكاء الاصطناعي عالي المخاطر، وهو ما يشمل الأنظمة المتعلقة بالعمليات الديمقراطية مثل: الانتخابات وإلزامها بتقييم المخاطر والحد منها، والاحتفاظ بسجلات الاستخدام، وأن تكون شفافة ودقيقة، وتضمن الإشراف البشري، مع حق المواطنين في تقديم الشكاوى وتلقي التوضيحات بشأن القرارات المبنية عليها والتي تؤثر في حقوقهم.
واستخدمت المفوضية الأوروبية كذلك قانون الخدمات الرقمية لإخضاع شركات التواصل الاجتماعي الكبرى للاستجواب في 14 مارس الجاري بشأن الإجراءات التي قامت باتخاذها لمواجهة مخاطر الذكاء الاصطناعي بما في ذلك النشر الفايروسي للتزييف العميق على انتخابات البرلمان الأوروبي، علما بأن هذا القانون يفرض قواعد صرامة على المواقع والشبكات التي لديها على الأقل 45 مليون مستخدم نشط شهريا داخل الاتحاد الأوروبي بما فيها مكافحة المعلومات الكاذبة بشكل فعال، مع احتمال تعرض الشركة المخالفة لغرامة تصل إلى 6 في المئة من إيراداتها العالمية أو حتى الحظر.
وفي الولايات المتحدة، قدم المشرعون الأميركيون في 43 ولاية ما لا يقل عن 70 مشروع قانون ينظم استخدام الذكاء الاصطناعي في الحملات الانتخابية، تم سن سبعة منها، ويطلب بعضها إظهار تنبيهات عند استخدام الوسائط التي ينتجها الذكاء الاصطناعي في الإعلانات السياسية، بينما يجعل البعض الآخر استخدام التزييف العميق لإيذاء المرشح جنحة جنائية.
كما أرسل أعضاء من الكونغرس خطابا إلى الرئيسين التنفيذيين لشركتي ميتا وإكس، يعربان فيه عن “مخاوف جدية” بشأن ظهور الإعلانات السياسية التي ينشئها الذكاء الاصطناعي على منصاتهما، ويطلبون من كل منهما شرح أيّ قواعد يضعونها للحد من الإعلانات التي من شأنها الإضرار بحرية الانتخابات ونزاهتها.
ونقلا عن مركز المستقبل للأبحاث والدراسات المتقدمة، فإنه أمام هذه التحديات والضغوط، اتبعت شركات الإعلام الاجتماعي العالمية ثلاث إستراتيجيات رئيسية للحد من استغلال منصاتها لنشر المحتوى الاصطناعي المضلل وتداوله؛ الأولى، تطوير سياسات النشر، والثانية، الاستثمار في تقنيات الضبط الذكية، والثالثة، التعاون المشترك:
1- تطوير سياسات النشر: أصدرت شركة ميتا بيانا بعنوان “كيف تخطط ميتا للانتخابات في عام 2024″، أعلنت فيه أنه سيتعين على المعلنين الكشف عن استخدامهم للذكاء الاصطناعي أو التقنيات الرقمية الأخرى لإنشاء أو تغيير إعلان قضية سياسية أو اجتماعية في حالات معينة، سواء أكان الإعلان يحتوي على صورة أم مقطع فيديو واقعي، أم أنه صوت واقعي تم إنشاؤه أو تعديله رقميا لتصوير شخص حقيقي يقول أو يفعل شيئا لم يقله أو يفعله، وكذلك إذا كان الإعلان يصور شخصا ذا مظهر واقعي غير موجود أو حدثا ذا مظهر واقعي لم يحدث، أو يغير لقطات من حدث حقيقي، أو يصور حدثا واقعيا يُزعم أنه حدث، ولكن هذه ليست صورة حقيقية أو فيديو أو تسجيلا صوتيا للحدث. كما أوصى مجلس الإشراف (هيئة الخبراء المعنية بالنظر في طعون قرارات المحتوى)، بأن تشمل سياسة الشركة لـ”الوسائط المتلاعب بها” المحتوى الصوتي والصوتي المرئي، والإشارة إلى الأضرار التي تهدف إلى منعها مثل منع التدخل في الحق في التصويت، وذلك ضمن قراره بشأن مقطع فيديو تم تعديله ليبدو كما لو أن الرئيس بايدن يلمس صدر حفيدته بشكل غير لائق.
أما تيك توك، فقد وضع “حماية نزاهة الانتخابات” ضمن التزاماته الرئيسية، والتي يتعهد فيها بعدم السماح بالمعلومات الخاطئة حول العمليات المدنية والانتخابية بغض النظر عن النية. كما خصص قسما للحماية من المحتوى المضلل المحتمل الناتج عن الذكاء الاصطناعي خلال الانتخابات، يؤكد فيه سياساته المتعلقة بـ”الوسائط الاصطناعية والمتلاعب بها”، والتي تمنع تضمين تلك الوسائط الاصطناعية أشخاصا عاديين أو شخصيات عامة بغرض استخدامها لتأييد سياسي أو تجاري أو بما ينافي سياسات المنصة. هذا بخلاف إلزام المستخدمين بإضافة علامة واضحة للإفصاح عن المحتوى الذي تم إنشاؤه بالكامل أو تحريره بشكل كبير بواسطة الذكاء الاصطناعي، والذي يصور مشاهد واقعية أو يحتوي على أي شبه بشخصية حقيقية، مع قدرة المستخدمين الآخرين على الإبلاغ عن المحتوى الاصطناعي الذي لا يلتزم بسياسة الإفصاح، وفق سياسات مجتمع تيك توك.
2- تقنيات الضبط والتصنيف: أعلنت ميتا أنها تقوم ببناء أدوات لتحديد محتوى الذكاء الاصطناعي على نطاق واسع لفرز المعلومات الخاطئة والتزييف العميق. وكذلك تصنيف المحتوى الذي تم إنشاؤه بالذكاء الاصطناعي ويأتي من شركات مثل: غوغل ومايكروسوفت وشاترستوك وأوبن أيه آي وميدجورني، مع معاقبة المستخدمين الذين لا يكشفون عما إذا كان قد تم إنشاء مقطع فيديو أو صوت واقعي باستخدام الذكاء الاصطناعي.
وأعلنت غوغل سياساتها عبر منصاتها المختلفة، ومنها يوتيوب، لدعم الانتخابات العامة في الهند، بما في ذلك استخدام نماذج اللغات الكبيرة (LLMs) لبناء أنظمة ذكية قادرة على مكافحة إساءة الاستخدام على نطاق أوسع وفي جميع اللغات الهندية الرئيسية.
كما أعلن تيك توك أنه يخطط لإطلاق “مراكز انتخابية” داخل التطبيق باللغة المحلية لكل دولة من دول الاتحاد الأوروبي البالغ عددها 27 دولة حتى يتمكن الناس بسهولة من “فصل الحقيقة عن الخيال”، للحد من المعلومات المزيفة والمواد المضللة التي ينتجها الذكاء الاصطناعي خلال فترة الانتخابات.
3- التعاون المشترك: شهد شهر فبراير الماضي توقيع عشرين شركة تكنولوجية، منها ميتا، غوغل، تيك توك، إكس، وسناب شات، اتفاقا لمكافحة الاستخدام الخادع للذكاء الاصطناعي في الانتخابات، إذ تعهدت في إطاره بثمانية التزامات تتضمن الاستثمار والشفافية وتثقيف الجمهور والتعاون عبر الصناعة ومع المؤسسات المدنية والأكاديمية لمكافحة المحتوى الانتخابي المخادع الذي يعتمد على الذكاء الاصطناعي ويتم تداوله عبر منصاتهم وبما يتفق مع مبادئ حرية التعبير والسلامة.
وتُعد هذه الإستراتيجيات خطوات إيجابية على طريق المكافحة والضبط، لاسيما المتعلقة بالاتفاق الموسع بين الشركات التكنولوجية الكبرى، والذي عكست بنوده توصيفا دقيقا لإشكاليات التضليل الانتخابي المعتمد على الذكاء الاصطناعي باعتبارها قضية مشتركة تستدعي تضافر الجهود والتعاون العابر للحدود والقطاعات، وسط سيناريوهات مخيفة بشأن انتزاع “إنسانية” الفعل الانتخابي وجدواه.
العرب