-->

الأربعاء، 1 ديسمبر 2021

هل الذكاء الاصطناعي كافٍ لمحاربة الأخبار الكاذبة؟

 في تاريخ العالم تكذب وسائل الإعلام والتي نتج عنها نشر وترويج أخبارًا كاذبة وأحداث لم تحدث أصلاً وشيوع نظريات المؤامرة وانتشار واسع للمعلومات المضللة، ارتبط جميعها بجهات لنشر التضليل عبر العالم ومرتبطة بشبكات إعلامية واسعة الانتشار. وارتبطت الأخبار الكاذبة بالمعلومات المضللة التي لها تعريف واضح وتتشكل بالأصل من شيء خاطئ وذو نية خبيثة لإلحاق الضرر، ومع انتشار وسائل ومواقع وشبكات التحقق فإن الغالبية العظمى من الأبحاث والجهود ومبادرات التحقق تركز على إذا كان الشيء صحيحًا أم لا.

 تتضمن المعلومات المضللة أكثر من مجرد أكاذيب، وتشتمل على طرق ووسائل لتضليل وانتقاء البيانات، وإساءة فهم العلاقة بين الارتباط والسببية، وتقديم الحقائق بطريقة معينة، والتكتيكات التي يمكن أن تقود الناس إلى استنتاج خاطئ دون الإخفاق تقنيًا في التحقق من الحقائق.

على مستوى العالم لا يوجد انتصار حقيقي على الأخبار الكاذبة والمعلومات المضللة حتى مع انتشار منصات التحقق، والحالة الوحيدة التي أعلن فيها النصر؛ حالة فنلندا في مايو 2019، فلم يكن الأمر مواجهة المعلومات المغلوطة؛ بل تمثل في التوعية الإعلامية التي ركزت في الأساس على المدارس، والجامعات وكافة مستويات المجتمع، فتعليم الفكر النقدي وتقنيات البحث العكسي عن الصور وكافة المهارات اللازمة للتحقق من المصدر هي الأساس في مواجهة الأخبار الكاذبة.

واليوم تم استخدام المعلومات المضللة في كثير من الخطط والأحداث، وبمرور الوقت لا يمكن إنكار دور تقنيات الذكاء الاصطناعي ووسائل التواصل الاجتماعي التي تعمل على الكشف التلقائي عن الأخبار المزيفة من خلال معالجة اللغة الطبيعية والتعلم الآلي وتحليل الشبكة من خلال قدرة الخوارزمية على تحديد المعلومات على أنها "أخبار مزيفة"، وتصنفها في مرتبة أدنى لتقليل احتمالية ظهورها للمستخدمين.

من الناحية النظرية إذا كانت كمية بيانات التدريب كافية، فسيكون نموذج التصنيف المدعوم من الذكاء الاصطناعي قادرًا على تفسير إذا كانت المقالة تحتوي على أخبار مزيفة أم لا. ومع ذلك، فإن الحقيقة هي أن إجراء مثل هذه الفروق يتطلب معرفة سياسية وثقافية واجتماعية مسبقة، ولا تزال خوارزميات معالجة اللغة الطبيعية تفتقر إليها، فيمكن أن تكون الأخبار المزيفة شديدة الدقة عندما يتم تغييرها عمدًا لتظهر كأخبار حقيقية ولكنها تحتوي على معلومات خاطئة أو متلاعب بها. 

ومن الأمثلة والحلول في توظيف الأشخاص للعمل جنبًا إلى جنب مع الذكاء الاصطناعي للتحقق من صحة المعلومات، طورت وزارة الدفاع الليتوانية 2018، برنامجًا للذكاء الاصطناعي يقوم بالإبلاغ عن المعلومات المضللة في غضون دقيقتين من نشرها ويرسل التقارير إلى المتخصصين البشريين للتحليل. ومن من منظور نفسي، فإن التعرض المتكرر لنفس المعلومات يجعل من المرجح أن يصدقها المتلقي، ولكن عندما يكتشف الذكاء الاصطناعي المعلومات المضللة ويقلل من تكرار تداولها، يمكن أن يؤدي ذلك إلى كسر دورة أنماط استهلاك المعلومات المعززة.

ومع ذلك، لا يزال اكتشاف الذكاء الاصطناعي غير موثوق به حتى مع انتشار الأدوات التقنية للكشف عن الأخبار الكاذبة، فلا يمكن التحقق من صحة كل ادعاء، وحتى ضمن أفضل مخرجات معامل الذكاء اصطناعي فهذا الأمر ما زال بعيداً وخاصة في اللغة العربية، والحل الأمثل محو الأمية الإعلامية على المدى الطويل، فهي تُظهر للمستخدمين كيف يتم التلاعب بهم، وكيف يمكن التفاعل مع التقنيات الحديثة.




ليست هناك تعليقات

كافة الحقوق محفوظةلـ مدونة باسل النيرب 2016 | تصميم : رضا العبادي