-->

الجمعة، 11 يونيو 2021

هل يُمكن للذكاء الاصطناعي مواجهة #الأخبار_الكاذبة ؟

 


بدأ التوسع في كشف الأخبار الكاذبة مع العام 2016، وتمثلت بظهور أربع اتجاهات رئيسية وهي التحقق من صحة الادعاءات الفردية، كشف المقالات الزائفة، تعقب مثيري التعصب والكراهية، وقياس موثوقية المصادر الإخبارية.

وعبر استغلال العديد من المنصات ومختلف وسائل النشر الرقمية والتقليدية؛ تم التلاعب عاطفياً بالجمهور نتيجة نشر القصص المختلفة، فبرزت المجموعات المناهضة للأخبار الزائفة تقوم باستخدام وسائل الدفاع تتمثل في مراجعة موثوقية المصادر الإخبارية، فهي تقيس عدد حالات التطابق والتضارب في المعلومات التي ثبت صحتها من خلال مقارنة تاريخ النشر وتعتمد على البشر في كثير من أعلمها، وقياس كل من نوع بُنية العنوان، الجُمل داخل الخبر، تنوع الكلمات، مستوى نشاط، الموقع عدد الزيارات، وتأثير المصدر الإخباري.

هذا التحليل يُمكن القيام به اتجاه خبر أو مجموعة أخبار محددة ذات موضوع محدد وحول قضية محددة بذتها، ولكن؛ ماذا عن ملايين الأخبار التي تُنشر كل يوم؟ هل يمكن مراقبتها والتدقيق فيها والتحقق من المنشأ والمصداقية من خلال الذكاء الاصطناعي؟

الصورة الأمثل لهذه الحالة نجدها في المنصات الاجتماعية وصورتها الأبرز نشر تغريدات كثيرة بفواصل زمنية قصيرة، وغالباً لا تتجاوز بيع منتجات، نشر الفيروسات الرقمية، نشر عبارات ذات مدلول سياسي أو كراهية وتعصب، نشر مقاطع إباحية، والرد على مقالات وتصريحات لمسؤولين.

من الناحية النظرية يُعد التدقيق في الحقائق من صميم هذا العمل؛ ولكن هل سيتم التدقيق في الملايين من النشرات الإخبارية والأخبار العاجلة التي تصل يومياً إلى وكالات الأنباء والصحف ومن ثم تحليل القصص والأخبار التي تحوي حقائق تظهر للمرة الأولى.

تجارب لمواجهة التظليل

التجارب العالمية متعدد والتجربة الأولي التي أكدتها مختبرات الذكاء الاصطناعي تشير إلى نجاح الخوارزميات في صُنع ونشر وترويج أخبار كاذبة، وقد عمدت تجربة استخدمت بيانات الجمعية العامة للأمم المتحدة إلى توليد نص آلي عندما قام باحثان من "جلوبال بالس" أحد مبادرات الأمم المتحدة باستخدام بيانات مفتوحة المصدر لبناء مولدات خطابات مزيفة ورسم خرائط المخاطر في النصوص التي تم إنشاؤها بواسطة الذكاء الاصطناعي ، فالقدرة على تجميع النصوص تنطوي على العديد من المخاطر المحتملة، بعد أن أصبح الوصول إلى التكنولوجيا المطلوبة لبناء النماذج التوليفية سهلاً مع تزايد تعّلم الآلة، وهذا مؤشر يوضح الخطر من الاستخدام الضار لبرامج إنشاء النصوص وتأثيرها المحتمل.

لا يمكن اتهام أو تبرئة الآلة من التلاعب؛ فالجانب المظلم لهذا التلاعب أنها مارست دوراً محدوداً في دعم الحملات المُحوسبة للسياسيين للتأثير على الناخبين، من خلال استخدام   أسراب ضخمة من الروبوتات السياسية في الانتخابات العامة لعام 2017 في المملكة المتحدة لنشر معلومات مضللة وأخبار كاذبة على وسائل التواصل الاجتماعي، وذات الأمر في الانتخابات الرئاسية الفرنسية 2017، مستغلة رسائل البريد الإلكتروني المسربة من فريق حملة المرشح إيمانويل ماكرون في الفيسبوك وتويتر، وكان الهدف بناء سرد مفاده أن ماكرون محتالًا وكاذباً، وذات الأمر حدث خلال الانتخابات الرئاسية الأمريكية 2016، فقد اخترقت الروبوتات المؤيدة لترامب صفحات الفيسبوك التي يستخدمها أنصار هيلاري كلينتون لنشر المحتوى الآلي، وهو أسلوب شائع متكرر تستخدمه الروبوتات لدفع الموضوعات الشائعة والسيطرة على الخلاصات الاجتماعية.

هذه الروبوتات عبارة عن حسابات مستقلة تمت برمجتها لنشر رسائل سياسية ذات تجاه واحد لتصنع وهم الدعم العام بتكتيك واسع الانتشار لتشكيل الخطاب العام وتشويه التوجهات السياسية ضد أحد المرشحين. ورغم حداثة نشأة هذه الحملات فلها تأثير كبير جداً، والشكل الأساسي للاستخدام تمثل في دعم شخصيات محددة، دعم نظريات المؤامرة، تعزيز الاعجابات والمتابعات لصالح أشخاص من ذات التوجهات، نشر الكراهية والتلاعب بالتوجهات، نشر البلاغات تحت بند محتوى مزعج مما قيد الكثير من التوجهات المعارضة لها، وضمن المقالة  التي نشرت في نوفمبر 2017 نكتشف ماذا ينتظرنا في المستقبل وخاصة مع التعلم المتسارع للآلة.

وفي الجانب المشرق من الاستخدام يُمكن استخدام الذكاء الاصطناعي لتشغيل حملات أفضل بطريقة أخلاقية، فيمكننا برمجة روبوتات سياسية للتدخل عندما يشارك أشخاص مقالات تحتوي على معلومات خاطئة معروفة، فيمكن للخوارزميات إصدار تحذير بأن المعلومات مشبوهة، مما يساعد على فضح الأكاذيب المعروفة. 

ويمكننا استخدام الذكاء الاصطناعي للاستماع بشكل أفضل إلى ما يقوله الجمهور، وبناءً على هذه الأفكار يمكننا نشر حملات استهداف صغيرة تساعد على تثقيف الناخبين حول مجموعة متنوعة من القضايا السياسية لمساعدتهم على اتخاذ قرارهم بأنفسهم.

التجربة الثانية تحت مسمى SNAP_R، فقد أرسلت إلى منظمة العفو الدولية تغريدات محاكاة التصيد إلى أكثر من 800 مستخدم بمعدل 6.75 تغريدة في الدقيقة، والنتيجة أنها جذبت 275 ضحية، وعلى النقيض من ذلك، فإن كاتب فريق فوربس توماس فوكس بروستر، الذي شارك في التجربة، كان قادرًا فقط على ضخ 1.75 تغريدة في الدقيقة، حيث قام بـ 129 محاولة فقط وجذب 49 مستخدمًا ، وقد خلصت الدراسة أن الآلة تفوقت على البشر بصياغة وتوزيع عدد كبير من التغريدات المخادعة.

هل يوجد طريقة لمواجهة التلاعب؟

صحيح أن الشركات الكُبرى تُبدع وتركز جُل جهودها في محاربة محتوى العنف والكراهية والجنس والتحريض وما يخالف سياسية الخصوصية لديها؛ ولكنها أقل قدرة في التعامل مع المحتوى الزائف أو المروج لنظريات المؤامرة، وتعلم الآلة أحد الحلول وهو المستقبل للشركات الضخمة بسبب انتشار تقنيات التلاعب الإعلامي التي فتحت سوقاً لمنع التلاعب والتضليل، فالتعلم الآلي يساعد المنصات الاجتماعية على تحديد القصص المكررة التي تم الكشف عن خادعها من قبل، وكل فعاليات التدقيق في المحتوى تتم من قبل شركاء خارجيين للمنصات الإخبارية "شركات صغيرة ومتوسطة" موجهة بشكل أساسي للحفاظ على الشركات الكبرى حتى لا تقع في فخ الأخبار الزائفة، فأطلقت الفيسبوك أداة ديب تيسكت لحذف المنشورات التي تعزز من الكراهية، وجوجل أطلقت لبيرسبيكتيف، وتويتر حظرت المنشورات الخطيرة والعنيفة.

صحيح أننا شاهدنا حوارات ما بين بشر وآلة وتقديم أعمال طبية وخدمية وغيرها من قبل روبوتات، ويشير مؤشر الذكاء الاصطناعي عالمياً إلى أن الذكاء الاصطناعي حقق خطوات مذهلة، ولكن الحقيقة لا يوجد جيوش كما درج زملائنا للقول على التلاعب بالرأي العام ومهما كانت الجيوش موجودة فهي لن تكون مؤثرة إلا بوجود إشراف بشري حتى يمكن شحن الآلة فيها وتعليمها كيفه التلاعب بالآخرين وهو ما أشار له باحثون من جامعة ستانفورد  "أن أسيادنا الآليين لم يصلوا بعد إلى مستوى ذكاء طفل في الخامسة" فكيف يمكن لهذه الأدوات أن تقود حملات منظمة للتلاعب بالرأي العام لأن العنصر الأساسي لهذه الآلة الإنسان الذي يعلم الآلة، وهذا ببساطة لأن وجود الآت في نظام تدقيق الأخبار الكاذبة يتطلب أن نعلم هذه الآلات قيم الصدق والحقيقة وهي تخضع لقرارات البشر فهل يمكن أن أثق بالذكاء الاصطناعي كثقتي في شخص مدرب على التحقق من الأخبار الكاذبة، فذكاء البشر متفوق على الآلة في هذا الموضوع ولكن الذي يجب أن يُنظر له من الذي سيعلم الآلة الأخلاق.

الإجراءات الوقائية

لا يمكن إنكار قدرة التكنولوجيا على تزييف جميع أنواع المحتوى باستخدام تقنيات التوليد والتوليف لإنتاج محتوى صادق ظاهرياً؛ ويمكن للذكاء الاصطناعي تحديد الأخبار الزائفة وحجبها قبل انتشارها جماهيراً، ولكن الحديث يتلخص في الدور الذي يلعبه الذكاء الاصطناعي في ظاهرة الأخبار الزائفة مبالغاً فيه، وبإمكان الذكاء الاصطناعي أن يكون عاملاً مساهماً في انتشار الأخبار الزائفة وجزءً من الحل، فمن حضر العفريت يستطيع أن يصرفه كما يقول المثل العامي المصري.. وذلك يتم من خلال الهجوم المنظم على بيانات التدريب لتغير نتائج الخوارزمية قبل أن تصبح علنية، وفهم اللغة الطبيعية قبل نقلها إلى الآلة فيتم تفكيك المكونات ودلالات الألفاظ، والتحقق من دقة القصة بمقارنتها بالمصادر ذات السمعة الجيدة، والقيام بعمليات التدقيق التحريري واللغوي، ما يجعل من السهل على خوارزميات التحقق من المحتوى، بالإضافة إلى قدره الخوارزميات على تحديد الصور المُفبركة ضمن القصص الزائفة.

ويُمكن استخدام نماذج الذكاء الاصطناعي التنبؤية لفهم كيفية عمل الجهات الفاعلة عبر الإنترنت لاستهداف نقاط الضعف بمثابة خطوة أولى في التعامل مع المعلومات المضللة، ويمكن أن يكون تطوير هذه الأساليب لكشف التلاعب ومكافحة التضليل على نطاق واسع، وحظر القصص الإخبارية المشكوك فيها حتى يتم التحقق من صحتها ومراجعتها إنسانياً.

ختاماً الأمر ليس حشوداً بشرية لمراقبة المحتوى والتأكد من صحة كل قصة منشورة وإن كان جزءً من الحل؛ ولكن الحل الأمثل في التدريب والتعليم على التربية الإعلامية الرقيمة وتعزيز النقد، فمن السهل إلقاء اللوم على تكنولوجيا الذكاء الاصطناعي في أخطاء العالم، ولكن تبقى التكنولوجيا الأساسية للذكاء الاصطناعي ليست ضارة بطبيعتها؛ فاحتمال إساءة استخدام الخوارزميات يزداد كلما ازدادت دقة مخرجاتها وترابطها.

نشر بالتزامن مع منصة تأكد :

https://www.verify-sy.com/details/9235/%D9%87%D9%84-%D9%8A%D9%8F%D9%85%D9%83%D9%86-%D9%84%D9%84%D8%B0%D9%83%D8%A7%D8%A1-%D8%A7%D9%84%D8%A7%D8%B5%D8%B7%D9%86%D8%A7%D8%B9%D9%8A-%D9%85%D9%88%D8%A7%D8%AC%D9%87%D8%A9-%D8%A7%D9%84%D8%A3%D8%AE%D8%A8%D8%A7%D8%B1-%D8%A7%D9%84%D9%83%D8%A7%D8%B0%D8%A8%D8%A9%D8%9F


ليست هناك تعليقات

كافة الحقوق محفوظةلـ مدونة باسل النيرب 2016 | تصميم : رضا العبادي