دراسة حديثة: تصحيح "الأخبار الكاذبة" أفضل من حذفها

بغداد- العراق اليوم:

أصبحت وسائل التواصل الاجتماعي أداة قوية للتواصل وتبادل المعلومات، ولكنها باتت أيضاً أرضاً خصبة للمعلومات الكاذبة. وتشير المعلومات الكاذبة والمعروفة أيضاً باسم "الأخبار المزيفة" إلى أي معلومات غير دقيقة أو غير موثوقة، يمكن أن تتخذ أشكالاً عديدة، مثل القصص الملفقة، أو الصور التي تم التلاعب بها، أو البيانات المضللة.

وتُعد أحد الأسباب الرئيسية لانتشار المعلومات الكاذبة بسرعة على وسائل التواصل الاجتماعي هي بنيتها الخوارزمية. وتستخدم منصات الوسائط الاجتماعية مثل "فايسبوك" و"إكس" خوارزميات لإظهار محتوى المستخدمين الذي من المحتمل أن يتفاعلوا معه، مثل منشورات الأصدقاء والعائلة أو المحتوى الرائج. يُعتبر نشر المعلومات الكاذبة والمعلومات المضللة من أهم المشكلات الأخلاقية المرتبطة بإنتاج واستهلاك مواد ومحتوى وسائل التواصل الاجتماعي، إذ تؤثر على أحكام الأشخاص ووجهات نظرهم وسلوكهم من خلال التسبّب في مفاهيم خاطئة وارتباك وانتشار معتقدات غير صحيحة، وفي بعض الظروف قد يكون لها عواقب حياة أو موت مثل نشر معلومات صحية على سبيل المثال.

وفي سياق الجهود الرامية للمعركة ضد المعلومات المُضلّلة، كشفت دراسة حديثة أن إثبات كذب الخبر أكثر فعالية من إزالته. وكانت لدى إيلون ماسك فكرة جيدة، وفقاً لدراسة نشرت في مجلة أبحاث أنظمة المعلومات في 28 شباط (فبراير) الماضي، حيث تم تصميم "ملاحظات المجتمع" على منصة "إكس" (تويتر سابقاً) لمكافحة المعلومات المضللة، وأثبتت أنها أكثر فعالية من الرقابة في منع انتشار المعلومات المضللة والأخبار الكاذبة، بحسب نتائج الدراسة.

ما هي ملاحظات المجتمع؟

هي آلية تُتيح للمستخدمين توفير سياق إضافي، أو الإشارة إلى الأخطاء، أو تسليط الضوء على المعلومات التي تم التحقّق منها والتي تتعارض مع محتوى المنشور أو تشرحه، كما يمكن للآخرين على المنصة تقييم هذه الملاحظات من حيث فائدتها ودقتها، ويتم ذلك للتأكد من أن الملاحظات المضافة ذات جودة عالية وموثوقة ويصوت المستخدمون على ما إذا كانت الملاحظة مفيدة أم لا، وتحدد هذه الأصوات مدى رؤية التصحيح الذي يظهر أسفل التغريدة مباشرة. ووفقاً للشركة تسعى هذه الآلية إلى تعزيز بيئة من الشفافية والتعاون حيث يلعب المجتمع دوراً نشطاً في الإشراف على المحتوى.

وبالعودة إلى نتائج الدراسة، يستند التحليل إلى 1468 مقالة إخبارية تنشر معلومات كاذبة حول موضوعات متعلقة بالصحة، الاستنتاج الرئيسي هو أن تطبيق سياسة "إكس" التي أُطلقت لأول مرة في عام 2021 تحت اسم Birdwatch، نجح في الحد من انتشار مثل هذه الأخبار المزيفة، وتقل احتمالية إعادة تغريد المنشورات التي تتضمن روابط لمقالات تحتوي على معلومات مضللة أو الاستشهاد بها أو التعليق عليها، ويتجلى هذا التأثير تجلياً ملحوظاً في وجود حالات أقل لأشخاص حقيقيين يشاركون روابط لمعلومات مشكوك فيها. ومع ذلك فإنه لا يؤثر على الحسابات التي تديرها الروبوتات.

على سبيل المثال، إذا حددت إحدى منصات التواصل الاجتماعي قصة إخبارية تم دحضها أو لا أساس لها من الصحة، فبدلاً من إزالتها أو فرض رقابة عليها، يمكنها "إعادة توجيهها" من خلال عرض رسالة أو رابط لمقالات تم التحقق منها أو مصادر موثوقة تتعارض أو توضح هذه القصة من خلال المعلومات المُقدّمة

عدم الثقة في الذكاء الاصطناعي

في كانون الأول (يناير) 2024 حدد تقرير المخاطر العالمية للعام نفسه الصادر عن المنتدى الاقتصادي العالمي، "المعلومات الخاطئة" باعتبارها أحد المخاطر الرئيسية في السياق العالمي الحالي والمستقبلي، وأعرب معدو التقرير عن قلقهم خاصة بشأن الأخبار المزيفة التي يولدها الذكاء الاصطناعي، والتي لديها القدرة على تكثيف الاستقطاب الاجتماعي وتدهور الخطاب العام.

وفي السنوات الأخيرة، أثارت هذه الظاهرة إنذاراً خاصاً بشأن الانتخابات في عدد من البلدان، ويؤكد تقرير المنتدى الاقتصادي أهمية تنفيذ حملات محو الأمية الرقمية التي تزود الناس بالأدوات اللازمة لتمييز المعلومات الخاطئة والمعلومات غير الصحيحة ونبذها، كما يسلط الضوء على الحاجة إلى عمل جماعي ومنسق على الصعيدين المحلي والدولي لمواجهة المعلومات المضللة.

ووفقاً للوثيقة، فإن التعاون بين مختلف القطاعات، بما في ذلك المجالان العام والخاص، أمر ضروري لتطوير استراتيجيات فعالة للتخفيف من تأثير المعلومات الخاطئة على المجتمع.

ومن جانب آخر، وفي السياق نفسه، يؤكّد العديد من الخبراء فكرة تعليم الناس وكيفية التعرف على تحيزاتهم، وأن يكونوا أكثر انفتاحاً على الآراء الجديدة، وأن يكونوا مُتشكّكين في المعلومات عبر الإنترنت، حيث أثبت أنها الاستراتيجية الأكثر فعالية للحد من المعلومات المضللة، ويشير هؤلاء إلى أنّ الاستراتيجيات مثل إزالة الأشخاص الذين يشاركون محتوى مزيفاً، وعلى الرغم من أنها تبدو حلولاً سريعة، إلا أنها لا تعمل جيداً على المدى الطويل.

علق هنا