مجلس الإشراف (فيسبوك)

هذه هي النسخة الحالية من هذه الصفحة، وقام بتعديلها عبد العزيز (نقاش | مساهمات) في 02:14، 30 أكتوبر 2023 (الرجوع عن 3 تعديلات معلقة من TemporaryProfile00 و MenoBot إلى نسخة 64306047 من InternetArchiveBot.). العنوان الحالي (URL) هو وصلة دائمة لهذه النسخة.

(فرق) → نسخة أقدم | نسخة حالية (فرق) | نسخة أحدث ← (فرق)

مجلس الإشراف هو هيئة تتخذ قرارات تقييد المحتوى سابق الإعداد على منصات وسائل التواصل الاجتماعي فيسبوك وإنستغرام. وافق مارك زوكربيرغ، الرئيس التنفيذي لشركة فيسبوك، على إنشاء مجلس الإدارة في نوفمبر عام 2018، بعد وقت قصير من اجتماعه مع الأستاذ بكلية الحقوق في جامعة هارفارد نوح فيلدمان، الذي اقترح إنشاء مجلس شبه قضائي على فيسبوك. وقد وصفه زوكربيرغ بأنه نوع من «المحكمة العليا»، نظرًا إلى دوره في التسوية والتفاوض والوساطة، بما في ذلك سلطة تجاوز قرارات الشركة.[1][2]

أعلن زوكربيرغ عن الفكرة لأول مرة في نوفمبر عام 2018، وبعد فترة من التشاور العام، أعلن عن الأعضاء المؤسسين العشرين لمجلس الإدارة في مايو عام 2020. وبدأ المجلس عمله رسميًا في 22 أكتوبر عام 2020، وأصدر قراراته الخمسة الأولى في 28 يناير عام 2021، مع استئناف أربعة من أصل خمسة تغييرات لإجراءات فيسبوك فيما يتعلق بالمسائل. وقد كان موضوعًا لتكهنات وتغطية إعلامية كبيرة منذ إعلانه، وظل كذلك بعد إحالة قرار فيسبوك بتعليق نشاط دونالد ترامب بعد اقتحام كابيتول الولايات المتحدة عام 2021.[3][4][5]

التاريخ

التأسيس

في نوفمبر عام 2018، بعد الاجتماع مع الأستاذ نوح فيلدمان بكلية الحقوق في جامعة هارفارد، الذي اقترح إنشاء مجلس شبه قضائي على فيسبوك للإشراف على تقييد المحتوى، وافق الرئيس التنفيذي مارك زوكربيرغ على إنشاء مجلس الإدارة. ومن بين أهداف المجلس تحسين عدالة عملية الاستئناف، وإعطاء الإشراف والمساءلة لمصدر خارجي، وزيادة الشفافية. تشكل المجلس على غرار النظام القضائي الفيدرالي للولايات المتحدة، إذ يعطي مجلس الإشراف قرارات تتوافق مع القرارات السابقة.[6][7][8]

بين أواخر عام 2017 وأوائل عام 2018، عين فيسبوك برينت سي. هاريس، الذي عمل سابقًا في اللجنة الوطنية لبريتيش بتروليوم للتسرب النفطي في ديب واتر هورايزن والحفر البحري، وكمستشار للمنظمات غير الربحية، ليصبح مدير الشركة للشؤون العالمية. قاد هاريس الجهود لإنشاء مجلس الإدارة، ورفع تقاريره إلى نك كلغ، الذي أرسل تقاريره مباشرة إلى زوكربيرغ. مثلما أرجع هاريس الفضل لمشاركة كلغ، قائلاً إن الجهود المبذولة لتأسيس مجلس الإدارة «لم تكن لتتحرك في غياب رعاية نك»، وإنها «توقفت داخل الشركة حتى تولى نك الأمور فعليًا».[9][10][11]

في يناير عام 2019، تلقى فيسبوك مسودة ميثاق لمجلس الإدارة، وبدأت فترة من المشاورات العامة وورش العمل مع الخبراء والمؤسسات والأشخاص حول العالم. وفي يونيو عام 2019، أصدر فيسبوك تقريرًا من 250 صفحة يلخص النتائج التي توصل إليها وأعلن أنهم بصدد البحث عن أشخاص للعمل في مجلس مكون من 40 شخصًا (انتهى الأمر بالمجلس إلى 20 عضوًا).[12][13][14][15]

في يناير عام 2020، عُين خبير حقوق الإنسان البريطاني والمدير التنفيذي السابق للمادة 19 توماس هيوز مديرًا لإدارة مجلس الإشراف. وقيل إن بقية أعضاء مجلس الإدارة سيعينون «في الأشهر المقبلة».[16][17]

النشاط

في 6 مايو عام 2020، أعلن فيسبوك عن الأعضاء العشرين الذين سيشكلون مجلس الإشراف. ووصف نائب الرئيس للشؤون العالمية والاتصالات في فيسبوك، نك كلغ، المجموعة بأنها تمتلك «مجموعة واسعة من الآراء والخبرات» والذين عاشوا في «أكثر من 27 دولة»، ويتحدثون «29 لغة على الأقل»، ولكن ربع المجموعة واثنين من الرؤساء المشاركين الأربعة من الولايات المتحدة، والتي أعرب بعض خبراء حرية التعبير وحوكمة الإنترنت عن مخاوفهم بشأنها. ثم في يوليو عام 2020، أُعلن أن مجلس الإدارة لن يبدأ العمل إلا «في وقت لاحق من العام». بدأ المجلس بقبول القضايا في 22 أكتوبر عام 2020. وقد لاحظ أعضاء المجلس أن الأمر سيستغرق عدة سنوات حتى يجري فهم التأثير الكامل لمجلس الإدارة وقراراته.[18][19][20]

أولى القرارات والإجراءات

في 28 يناير عام 2021، حكم المجلس في خمسة قرارات تقييد اتخذها فيسبوك، وألغى أربعة منها وأيد قرارًا واحدًا. جميع القرارات كانت بالإجماع ما عدا واحدًا. حدد كل حكم بأغلبية أصوات لجنة مؤلفة من خمسة أعضاء من مجلس الإدارة، بما في ذلك عضو واحد على الأقل من المنطقة التي نشأت فيها المشاركة الخاضعة للإشراف.[21][22]

قرار صور طفل سوري في ميانمار

في أكتوبر عام 2020، نشر أحد مستخدمي فيسبوك في ميانمار صورًا التقطها المصور الصحفي التركي نيلوفر دمير لجثة الطفل السوري الكردي آلان كردي، مصحوبة بنص باللغة البورمية مفاده أن هناك «خطأ» في علم النفس أو العقلية. من المسلمين أو الرجال المسلمين. وقد قارن النص الهجمات الإرهابية في فرنسا ردًا على وصف محمد مع صمت نسبي مؤكد من قبل المسلمين ردًا على الإبادة الجماعية للأويغور في الصين، وأكد أن هذا السلوك أدى إلى فقدان التعاطف مع هؤلاء. مثل الطفل في الصورة.[23]

عند مراجعة قرار فيسبوك بإزالة المنشور، سعى المجلس إلى إعادة ترجمة المنشور، وأشار إلى أنه يمكن قراءة المنشور على أنه إهانة موجهة للمسلمين، ولكن يمكن أيضًا قراءته كتعليق على تناقض ملحوظ في تناول ردود فعل المسلمين على الأحداث في فرنسا والصين.[23]

قرار تصوير الكنائس الأذربيجانية

جرى التعليق على منشور يُظهر الكنائس في باكو، أذربيجان بجملة باللغة الروسية «مؤكدٌ أن للأرمن علاقات تاريخية مع باكو لا يملكها الأذربيجانيون»، في إشارة إلى الأذربيجانيين ذوي الإثنية الطاجيكية. ووجد المجلس أن المنشور يضر بسلامة وكرامة الأذربيجانيين، وبالتالي أيد إزالته.[4]

قرار صور سرطان الثدي

في أكتوبر عام 2020، نشرت امرأة برازيلية سلسلة من الصور على موقع إنستغرام التابع لفيسبوك، متضمنة ثديين مكشوفين مع حلمة ثدي مرئية، كجزء من حملة دولية للتوعية بسرطان الثدي. جرى التأكيد على أن الصور تظهر أعراض سرطان الثدي، وأشارت إلى ذلك بنص باللغة البرتغالية، والتي فشل نظام المراجعة الآلي للموقع في فهمها.[24]

أزيلت الصور ثم استعيدت لاحقًا. طلب فيسبوك إسقاط المراجعة باعتبارها موضع جدل، لكن المجلس اختار مراجعة الإجراء مع ذلك، ووجد أن أهمية المشكلة تجعلها أكثر فائدة لمجلس الإدارة لإصدار حكم بشأن القضية الأساسية. مثلما رأى المجلس أن إزالة المنشور كانت غير لائقة، لأنه أثر على حقوق الإنسان للمرأة، وأوصى بإدخال تحسينات على عملية صنع القرار لإلغاء هذه الوظائف. على وجه الخصوص، أوصى المجلس بإبلاغ المستخدمين باستخدام آليات مراجعة المحتوى الآلية، ومراجعة معايير مجتمع إنستغرام للسماح صراحةً بالصور التي تحتوي حلمات الثدي في منشورات التوعية بسرطان الثدي، وأن يوضح فيسبوك أن معايير المجتمع الخاصة به لها الأسبقية على الموجودة لدى إنستغرام.[24]

قرار إسناد غوبلز الخاطئ

في أكتوبر عام 2020، نشر أحد مستخدمي فيسبوك اقتباسًا منسوبًا بشكل غير صحيح إلى النازي يوزيف غوبلز، جاء فيه أن نداء العاطفة والغريزة أهم من نداء الحقيقة. لم يكن في المنشور أي صور أو رموز. حذف فيسبوك المنشور بموجب سياسته التي تحظر الترويج للأفراد والمنظمات الخطرة، بما في ذلك غوبلز. استأنف مستخدم الحساب، مؤكدًا أن المنشور كان يهدف إلى التعليق على دونالد ترامب. وجد المجلس أن الأدلة أيدت هذا التأكيد ورأت أن هذا المنشور لا يشير إلى دعم غوبلز، وأمر باستعادته، مع التوصية بأن فيسبوك يجب أن يشير للمستخدمين الذين ينشرون عن هؤلاء الأشخاص «يجب على المستخدم أن يوضح أنه لا يمدحهم ولا يدعمهم».[4]

المراجع

  1. ^ Klonick, Kate. "Inside the Making of Facebook's Supreme Court". The New Yorker (بen-us). Archived from the original on 2022-01-01. Retrieved 2021-02-12.{{استشهاد ويب}}: صيانة الاستشهاد: لغة غير مدعومة (link)
  2. ^ Douek، Evelyn (2019). "Facebook's 'Oversight Board': Move Fast with Stable Infrastructure and Humility". North Carolina Journal of Law & Technology. ج. 21 ع. 1. SSRN:3365358. مؤرشف من الأصل في 2021-12-27.
  3. ^ Fung، Brian (22 أكتوبر 2020). "Facebook's Oversight Board is finally hearing cases, two years after it was first announced". CNN. مؤرشف من الأصل في 2021-10-28.
  4. ^ أ ب ت DeBré، Elena (28 يناير 2021). "The Independent Facebook Oversight Board Has Made Its First Rulings". سلايت. مؤرشف من الأصل في 2021-05-08.
  5. ^ Douek، Evelyn (28 يناير 2021). "The Facebook Oversight Board's First Decisions: Ambitious, and Perhaps Impractical". Lawfare. مؤرشف من الأصل في 2021-11-27. اطلع عليه بتاريخ 2021-04-21.
  6. ^ Klonick, Kate (12 Feb 2021). "Inside the Making of Facebook's Supreme Court". The New Yorker (بen-us). Archived from the original on 2022-01-01. Retrieved 2021-02-12.{{استشهاد بخبر}}: صيانة الاستشهاد: لغة غير مدعومة (link)
  7. ^ "A Blueprint for Content Governance and Enforcement". www.facebook.com. Facebook. مؤرشف من الأصل في 2021-03-18. اطلع عليه بتاريخ 2019-09-09.
  8. ^ Van Loo، Rory (2020). "Federal Rules of Platform Procedure". SSRN:3576562. مؤرشف من الأصل في 2021-10-13. {{استشهاد بدورية محكمة}}: الاستشهاد بدورية محكمة يطلب |دورية محكمة= (مساعدة)
  9. ^ Levy، Steven (28 يناير 2020). "Why Mark Zuckerberg's Oversight Board May Kill His Political Ad Policy". وايرد. مؤرشف من الأصل في 2021-07-11.
  10. ^ Bursztynsky، Jessica؛ Shead، Sam (6 مايو 2020). "These are the people Facebook put in charge of deciding whether to delete controversial posts". سي إن بي سي. مؤرشف من الأصل في 2021-11-08.
  11. ^ Scola، Nancy (15 مايو 2020). "How Nick Clegg is trying to fix Facebook's global image". بوليتيكو. مؤرشف من الأصل في 2021-11-30.
  12. ^ "Charting a Course for an Oversight Board for Content Decisions" (بEnglish). Facebook Newsroom. Archived from the original on 2019-11-12. Retrieved 2019-09-09.
  13. ^ "Getting Input on an Oversight Board" (بEnglish). Facebook Newsroom. Archived from the original on 2019-11-12. Retrieved 2019-09-09.
  14. ^ "Facebook asks for public input about its plans for a content oversight board". TechCrunch (بen-US). Archived from the original on 2020-05-27. Retrieved 2019-09-09.{{استشهاد ويب}}: صيانة الاستشهاد: لغة غير مدعومة (link)
  15. ^ "Global Feedback and Input on the Facebook Oversight Board for Content Decisions | Facebook Newsroom" (بEnglish). Archived from the original on 2019-11-12. Retrieved 2019-09-09.
  16. ^ Shead، Sam (28 يناير 2020). "Human rights expert to keep Zuckerberg in check". BBC. مؤرشف من الأصل في 2021-04-10. اطلع عليه بتاريخ 2021-04-21.
  17. ^ Brandom، Russell (28 يناير 2020). "Facebook expects to launch Oversight Board this summer". The Verge. مؤرشف من الأصل في 2021-05-05. اطلع عليه بتاريخ 2021-04-21.
  18. ^ Culliford، Elizabeth (6 مايو 2020). "Facebook names first members of oversight board that can overrule Zuckerberg". Reuters. مؤرشف من الأصل في 2021-10-27. اطلع عليه بتاريخ 2021-04-21.
  19. ^ Clegg، Nick (6 مايو 2020). "Welcoming the Oversight Board". Facebook Newsroom. مؤرشف من الأصل في 2021-12-04. اطلع عليه بتاريخ 2021-04-21.
  20. ^ Kelion، Leo (24 سبتمبر 2020). "Facebook 'Supreme Court' to begin work before US Presidential vote". بي بي سي نيوز. مؤرشف من الأصل في 2021-10-28.
  21. ^ "Facebook review board in first action overturns four content-removal rulings". AFP. 28 يناير 2021. {{استشهاد بخبر}}: الوسيط غير المعروف |بواسطة= تم تجاهله يقترح استخدام |via= (مساعدة)
  22. ^ "Facebook's new 'supreme court' overturns firm in first rulings". واشنطن بوست. 28 يناير 2021. مؤرشف من الأصل في 2021-09-04.
  23. ^ أ ب Li، Stephanie Pearl (29 يناير 2021). "Facebook's oversight board reverses Muslim-related hate speech takedown in Myanmar". KrASIA. مؤرشف من الأصل في 2021-03-03.
  24. ^ أ ب Gardner، Eriq (28 يناير 2021). "Facebook Oversight Board Says Nipple Moderation Can Hurt Women's Free Speech". هوليوود ريبورتر. مؤرشف من الأصل في 2021-03-03.