!Discover over 1,000 fresh articles every day

Get all the latest

نحن لا نرسل البريد العشوائي! اقرأ سياسة الخصوصية الخاصة بنا لمزيد من المعلومات.

معظم المستخدمين على X لا يرون ملاحظات المجتمع التصحيحية للمعلومات الخاطئة

عندما تولى إيلون ماسك السيطرة على X، المعروفة سابقًا باسم تويتر، كانت أحد أولى خطواته إعادة هيكلة سياسات المحتوى للشركة. عندما يتعلق الأمر بالمعلومات الخاطئة، يعتمد ماسك على مستخدمي X للتعامل مع المشكلة من خلال برنامج ملاحظات المجتمع، وهو برنامج يسمح للمستخدمين المعتمدين بإضافة سياق للمنشورات التي تحتوي على عدم الدقة أو الأكاذيب.

X تحول مهمة تنظيم المحتوى إلى ملاحظات المجتمع

كانت مشكلة المعلومات الخاطئة على X خلال الأشهر القليلة الماضية بارزة لدرجة أن الاتحاد الأوروبي هدد باتخاذ إجراءات ضد الشركة، وبدأ تحقيقًا قد يؤدي إلى مواجهة X لغرامات ضخمة.

في الشهر الماضي، أعلنت X عن عدة تحولات في ملاحظات المجتمع في محاولة لإرضاء المسؤولين في الاتحاد الأوروبي. نشرت الرئيس التنفيذي لـ X، ليندا ياكارينو، عشرات المنشورات غير القابلة للرد وغير القابلة لإعادة التغريد في أكتوبر. كان تسعة من تلك المنشورات عن تحديثات لبرنامج ملاحظات المجتمع. في نفس الشهر، تواصل المدير التنفيذي لـ X، جو بيناروش، مع Mashable لتقديم بيان صحفي حول تحديثات ملاحظات المجتمع، وهذه هي المرة الأولى التي يسمع فيها Mashable من X منذ انضمام إيلون ماسك للشركة في العام الماضي.

أصبح من الواضح من كل ما سبق أن X يعتمد على ملاحظات المجتمع لمكافحة المعلومات الخاطئة. ولكن ملاحظات المجتمع تفشل.

المعلومات الخاطئة تحصل على مزيد من المشاهدات من المصادقة

في ليلة 17 أكتوبر، قام المستخدم @MichalSabra على X بنشر فيديو يدعي أنه يصور هتافًا من طلاب مؤيدين لفلسطين يحتجون في UPenn يتكون من عبارة “نريد إبادة يهودية”.

ومع ذلك، يمكن للمستخدمين الذين شاهدوا الفيديو أن يسمعوا أن هذا غير صحيح. كان المحتجون يهتفون “نتهمكم بالإبادة الجماعية”، وهو شعار اتهامي. أكدت ADL ذلك أيضًا في نفيها الخاص بالادعاء.

عندما بدأت Mashable في تتبع المنشور لأول مرة، كان قد حصل بالفعل على أكثر من نصف مليون مشاهدة في غضون 12 ساعة. وبعد ما يقرب من 20 ساعة، تم تقديم أول ملاحظتين من المجتمع التي سيتم الموافقة عليها لتصنيفها، مما يعني أنها كانت مرئية فقط لأعضاء برنامج ملاحظات المجتمع – وليس لقاعدة مستخدمي المنصة الأوسع.

في 19 أكتوبر، بعد يومين من نشر @MichalSabra للادعاء الكاذب، تلقت Mashable إشعارًا من X يفيد بأن الملاحظة المجتمعية قد تمت الموافقة عليها في المنشور وتمت مشاهدتها 100,000 مرة.

حتى تاريخ 28 نوفمبر، لم يتم حذف منشور @MichalSabra. حقق المنشور 3.9 مليون مشاهدة. الملاحظتين المجتمعيتين التي تمت الموافقة عليهما للظهور على المنشور لديهما إجمالي 185,000 مشاهدة فقط. تمت مشاهدة الملاحظة المجتمعية فقط من قبل 4.7 في المئة من المستخدمين الذين شاهدوا الادعاء الأصلي.

بالإضافة إلى ذلك، وفقًا لـ X، تظهر هاتين الملاحظتين المجتمعيتين أيضًا على 22 منشورًا آخر يحتوي على فيديو @MichalSabra وتشمل ملاحظات المجتمع المشاهدات من تلك المنشورات في مقاييسها التراكمية أيضًا.

اختفاء ملاحظات المجتمع

نشر المستخدم @elikowaz على X في 18 نوفمبر صورة تصور “أنا أحب حماس” والتي زعم أنها تمت طباعتها ونشرها من قبل مركز العدالة الاجتماعية في جامعة بريتيش كولومبيا على حرم الكلية.

في غضون ساعات من النشر، نفى مركز العدالة الاجتماعية في جامعة بريتيش كولومبيا الاتهامات. في وقت لاحق، شاركت Hillel BC أن جهة ثالثة مرتبطة بمنظمة الكلية اليهودية كانت في الواقع مسؤولة عن الملصقات.

عندما بدأت Mashable في مراقبة هذا المنشور في 20 نوفمبر، كان قد حصل على أكثر من 600,000 مشاهدة. الملاحظة المجتمعية المعتمدة التي تحتوي على التحقق من الحقائق حصلت فقط على أكثر من 25,000 مشاهدة.

حتى تاريخ 28 نوفمبر، لا يزال منشور @elikowaz قائمًا، والآن لديه مليون مشاهدة. ومع ذلك، لاحظت Mashable أنه حتى بعد الموافقة على الملاحظة المجتمعية، استمر المنشور الأصلي الذي يحتوي على المعلومات الخاطئة في جمع مزيد من المشاهدات من التحقق من الحقائق.

خلال أسبوع واحد، حصل منشور @elikowaz مع الملاحظة المجتمعية المرفقة على حوالي 400,000 مشاهدة إضافية. هذا يعني أنه إذا عملت ملاحظات المجتمع كما هو مقصود، فإن التحقق من الحقائق سيحصل على حوالي 425,000 مشاهدة – أو أقل من نصف المشاهدات على المنشور الذي يتم إرفاقه به.

بدلاً من ذلك، تحصل الملاحظة المجتمعية فقط على 143,000 مشاهدة. الملاحظة المجتمعية حصلت على عدد أقل بكثير من المشاهدات مقارنة بالمنشور الأصلي.

مقاييس ملاحظات المجتمع الخاصة بـ X تثير تساؤلات

تفتخر X بعدد المشاهدات التي حصلت عليها ملاحظات المجتمع على المنصة عدة مرات. في 14 أكتوبر، أعلنت X أن ملاحظات المجتمع تولد “أكثر من 85 مليون انطباع في الأسبوع الماضي” بعد هجوم حماس في 7 أكتوبر. بعد عشرة أيام، في بيان صحفي أرسل إلى Mashable، قالت X إن ملاحظات المجتمع “شوهدت أكثر من 100 مليون مرة” خلال الأسبوعين الماضيين. ثم في 14 نوفمبر، نشرت X مقالًا في الويب يدعي أن “الملاحظات تمت مشاهدتها أكثر من مئة مليون مرة” في “الشهر الأول من الصراع”.

وفقًا لمقاييس X الخاصة، ما لم ينخفض حركة المرور إلى المنصة وعدد المنشورات التي يتم إجراؤها، يبدو أن المشاهدات على ملاحظات المجتمع في انخفاض.

علاوة على ذلك، استنادًا إلى انتشار العديد من المنشورات التي تنشر المعلومات الخاطئة التي نظرت إليها Mashable، فإن 100 مليون مشاهدة على مجموع ملاحظات المجتمع هو عدد صغير جدًا.

على سبيل المثال، في 9 نوفمبر، قام المستخدم @Partisangirl على X بنشر فيديو يدعي أنه يظهر طائرات هليكوبتر إسرائيلية تفتح النار على مواطنيها في مهرجان Supernova الموسيقي في 7 أكتوبر. تم تفنيد الادعاء حيث أظهر الفيديو طائرات هليكوبتر إسرائيلية تهاجم حماس في موقع منفصل.

ومع ذلك، حقق منشور @Partisangirl مع الادعاء الكاذب 30 مليون مشاهدة حتى 29 نوفمبر. هذا هو منشور X واحد فقط بعمر 20 يومًا تقريبًا مع حوالي 30 في المئة من المشاهدات التي حصلت عليها مجموعة ملاحظات المجتمع في شهر واحد. حصلت الملاحظة المجتمعية على حوالي 244,200 مشاهدة فقط أو حوالي 0.8 في المئة من المشاهدات التي حصل عليها المنشور الأصلي. تمت مشاهدة المعلومات الخاطئة 123 مرة أكثر من التحقق من الحقائق. الملاحظة المجتمعية على المنشور الضخم لـ @Partisangirl حصلت فقط على أكثر من 244,000 مشاهدة.

معظم المستخدمين لا يرون ملاحظات المجتمع التصحيحية

على الرغم من أن منشور @Partisangirl هو أحد أمثلة الغرابة، إلا أن Mashable وجدت أنه في معظم الحالات التي رأيناها، كان هناك فارق كبير بين عدد المشاهدات على منشور وعدد المشاهدات على الملاحظة المجتمعية المرفقة بنفس المنشور.

في 19 أكتوبر، نشر المستخدم المنتشر للمعلومات الخاطئة @DrLoupis منشورًا يعزو فيه عبارة كاذبة إلى الرئيس التركي أردوغان يقول فيها إن البلاد ستتدخل في غزة. تمت مشاهدة المنشور @DrLoupis الذي يحتوي على الاقتباس الكاذب تسعة ملايين مرة حتى 29 نوفمبر. تم تقديم ملاحظتين منفصلتين من المجتمع بعد ساعات قليلة من نشر @DrLoupis للمنشور وتمت الموافقة عليهما لاحقًا. تبلغ مجموع هاتين الملاحظتين حوالي 740,000 مشاهدة فقط. فقط 111,000 مشاهدة لهذه الملاحظة المجتمعية على منشور بـ 6.3 مليون مشاهدة.

في منشور آخر لـ @DrLoupis نشر في 26 نوفمبر، يصور المستخدم طفلاً في غزة على أنه صبي إسرائيلي. في ثلاثة أيام، حقق هذا المنشور الكاذب 6.3 مليون مشاهدة. لم يتم تقديم الملاحظة المجتمعية المعتمدة حتى بعد مرور ما يقرب من 27 ساعة. بالمقارنة مع 6.3 مليون مشاهدة للمنشور، تحصل الملاحظة المجتمعية المرفقة فقط على أكثر من 111,000 مشاهدة. المعلومات الخاطئة لديها 57 مرة أكثر من المشاهدات مقارنة بالتحقق من الحقائق.

آخر منتشر رئيسي للمعلومات الخاطئة على X، @dom_lucre، نشر منشورًا في 23 أكتوبر يدعي أن القوات الأمريكية تعرضت لهجوم في سوريا مع صورة تصور انفجارًا. كان المرفق في الواقع صورة محرفة تصور ضربة جوية إسرائيلية في غزة عام 2018. حصلت المعلومات الخاطئة للمستخدم @dom_lucre على ما يقرب من 800,000 مشاهدة أو حوالي 10 مرات أكثر من الملاحظة المجتمعية التي حصلت فقط على 82,400 مشاهدة.

المستخدمون الموثقون هم منتشرون المعلومات الخاطئة الكبار

كل الحسابات المذكورة في هذا التقرير حتى الآن – @MichalSabra، @elikowaz، @Partisangirl، @DrLoupis، و @dom_lucre – هم مشتركون في خدمة التحقق المدفوعة X Premium، المعروفة سابقًا باسم Twitter Blue.

لم تستهدف Mashable هؤلاء المستخدمين. كانت المنشورات التي تتبعناها من بين أكثر المنشورات انتشارًا على المنصة. تم اكتشاف بعضها من خلال ميزة البحث في X. واكتشفت البعض الآخر من خلال حساب X الرسمي @HelpfulNotes، الذي يشارك المنشورات التي تحصل على ملاحظة من المجتمع. ومع ذلك، يمنح X المشتركين في X Premium وتعزيزًا خوارزميًا، مما يساعد منشوراتهم على انتشارها في جميع أنحاء المنصة.

على سبيل المثال، أصبح المستخدم @jacksonhinklle واحدًا من أكثر الشخصيات تأثيرًا على المنصة منذ 7 أكتوبر، حيث اكتسب ملايين المتابعين في بضعة أسابيع فقط. وهو أيضًا مشترك في X Premium ومنتشر منتظم للمعلومات الخاطئة. حققت المعلومات الخاطئة لـ @jacksonhinklle أكثر من 10 مرات من المشاهدات التي حصل عليها التحقق من الحقائق.

في 8 نوفمبر، نشر @jacksonhinklle أن القناص الإسرائيلي باريب يارييل قتل على يد حماس. حقق المنشور 6.4 مليون مشاهدة. ومع ذلك، باريب يارييل لا يوجد. تمت الموافقة على أربعة ملاحظات من المجتمع على المنشور، وتم تقديم الأولى بعد 10 ساعات من نشر @jacksonhinklle. حصلت جميع الملاحظات المجتمعية المعتمدة مجتمعيًا على حوالي 639,300 مشاهدة أو أقل من 10 في المئة من المشاهدات التي حصل عليها المنشور @jacksonhinklle.

العديد من مشتركي X Premium، بما في ذلك عدد من الأفراد المذكورين في هذا التقرير، يتم تحقيق ربح منهم على المنصة. وهذا يعني أن شركة ماسك تدفع هؤلاء الأفراد استنادًا إلى عدد المشتركين الآخرين الذين يشاهدون الإعلانات الموضوعة على منشوراتهم. ومع ذلك، في 30 أكتوبر، أعلن ماسك أن السياسة ستتغير وأن المنشورات التي تحصل على ملاحظة من المجتمع لن تكون مؤهلة لبرنامج تقاسم إيرادات الإعلانات. ومع ذلك، كما اكتشفت Newsguard في تحليل أجري بعد أسابيع من إعلان ماسك، ظهرت إعلانات لعلامات تجارية كبرى مثل Microsoft وPizza Hut وAirbnb على منشورات تحتوي على معلومات خاطئة حول إسرائيل وفلسطين.

بينما ركز هذا التحقيق بشكل رئيسي على المعلومات الخاطئة المتعلقة بإسرائيل وغزة، قام Mashable بمراقبة منشورات أخرى ووجد نفس المشاكل في المنشورات حول قضايا ومواضيع مختلفة. على سبيل المثال، قام المستخدم الموثق @LaurenWitzkeDE بنشر فيديو لـ “فخذ دجاج مزروع في المختبر” يتحرك ويتقلص على طاولة. ادعت @LaurenWitzkeDE أن هذا هو مثال على “لحم غامض مزروع في مختبر بيل غيتس”. ومع ذلك، لم يكن الفيديو يصور قطعة دجاج حقيقية وكان في الواقع قطعة فنية أنشأها فنان على TikTok. حصل المنشور الأصلي لـ @LaurenWitzkeDE على 1.6 مليون مشاهدة. حصلت الملاحظة المجتمعية مع التحقق من الحقائق فقط على أكثر من 203,000 مشاهدة.

راقب Mashable 50 منشورًا على مدار الشهرين الماضيين، واستبعدنا بعضها من تحقيقنا بعد أن تمت إزالة الملاحظة المجتمعية أو اختفت من المنشور. فقط ثلاثة منشورات قمنا بتتبعها كانت تحتوي على ملاحظات مجتمعية بعدد مشاهدات تقريبي يعادل نصف عدد المشاهدات على المنشور الذي يحتوي على الادعاء الكاذب – اثنان منهما يحتويان على نفس الوسائط المعدلة.

في كثير من الأحيان، تنتشر المعلومات الخاطئة على X دون أي ملاحظة من المجتمع. أو في سيناريو شائع آخر، يتم الموافقة على ملاحظة من المجتمع، ولكن في وقت لاحق يتم إزالتها من المنشور. من بين المنشورات التي تتلقى ملاحظة من المجتمع، والتي تظل الملاحظة مرفقة بالمنشور، يتم مشاهدة الادعاء الكاذب في المنشور غالبًا ما يتم مشاهدته حوالي 5 إلى 10 مرات أكثر من التحقق من الحقائق. وفي بعض الأحيان، كما هو مذكور في الأمثلة المذكورة، يكون هذا الاختلاف أكبر حجمًا.

Source: https://me.mashable.com/tech/35458/most-users-on-x-never-see-community-notes-correcting-misinformation


Comments

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *