أُجري هذا البحث في إطار مشروع “مسارُنا”، وهو برنامج يمتدّ على 5 سنوات ويهدف إلى حشد طاقات الشباب في الشرق الأوسط وشمال أفريقيا حتّى يتمكّنوا من الدفاع عن صحّتهم/نّ وحقوقهم/نّ الجنسية والإنجابية. عملت “سمكس”، وهي منظّمة غير حكومية مقرُّها لبنان وتُعنى بتعزيز الحقوق الرقمية في منطقة غرب آسيا وشمال أفريقيا من خلال الأبحاث والحملات والمناصرة، على استكشاف الصحّة والحقوق الجنسية والإنجابية ضمن نطاق الحقوق الرقمية كما حلّلت السياسات والممارسات التي تُتَّبَع للإشراف على المحتوى على منصّات التواصل الاجتماعي مثل “فيسبوك”، و”انستغرام”، و”تيكتوك”، و”اكس” (“تويتر” سابقاً)، و”يوتيوب”، وتحديداً المحتوى المتعلّق بالصحّة والحقوق الجنسية والإنجابية في منطقة غرب آسيا وشمال أفريقيا.
الملخّص التنفيذي
تحلّل هذه الدراسة سياسات الإشراف على المحتوى وممارسات ““فيسبوك”” (Facebook) و”إنستغرام” (Instagram) و”تيك توك” (Tiktok) ومنصة “إكس” (X) المعروفة سابقاً بـ”تويتر” (Twitter) و”يوتيوب” (YouTube) في ما يخصّ المحتوى المتعلّق بالصحّة والحقوق الجنسية والإنجابية (SRHR) في منطقة غرب آسيا وشمال إفريقيا (WANA). تهدف هذه الدراسة، عبر تحليل السياسات ومقابلات مع منظمات تعمل على تعزيز الصحّة والحقوق الجنسيّة والإنجابيّة، إلى معرفة كيفية تعامل هذه المنصات مع هكذا محتوى نظرياً وعملياً، وما تأثير سياساتها هذه.
تمّ الحصول على بيانات هذه الدراسة النوعية والكمية من الأبحاث المكتبيّة وتحليل السياسات والمقابلات التي أجريت مع عشر منظمات وناشطين/ات من غرب آسيا وشمال إفريقيا، يملكون خبرةً في مواجهة الإشراف على محتوى الصحّة والحقوق الجنسيّة والإنجابيّة من منشوراتٍ وإعلانات والتعامل معه. وعبر مواءمة منهجية تصنيف الحقوق الرقمية، جرى تحليل سياسات الإشراف على المحتوى العائدة إلى خمس منصات على وسائل التواصل الاجتماعي ومقارنتها بدقّة. كما تظهر المقابلات التي أجريت في إطار هذه الدراسة، التطبيق العملي وتداعيات هذه السياسات.
أسفرت عملية البحث عن رسم صورةٍ قاتمة؛ فالمنصات لا تملك سياسات خاصّة بالصحّة والحقوق الجنسيّة والإنجابيّة، فتضيع الأحكام المتعلّقة بها بين مختلف السياسات، لا سيّما إرشادات المجتمع وسياسات الإعلانات. وغالباً ما تندرج هذه القوانين تحت مًسمى محتوى “للبالغين/ات” أو “جنسي”، ما يفتح الطريق أمام القوانين الرديئة والمسّرعة. كما تُقيّد المنشورات والإعلانات والحسابات وتُزال على أسس غير واضحة في معظم الأحيان، ترافقها تبريرات غير منطقية أو لا صلة لها أحياناً، علماً أن المحتوى لا يكون ضاراً وفاضحاً بأي شكلٍ من الأشكال. الجدير بالذكر أيضاً هو أنّ رفض الإعلانات على وجه الخصوص شكّل تحدياً بالنسبة إلى مناصري/ات الحقوق المتعلّقة بالصحة الجنسيّة والإنجابيّة، حيث تستغرق عمليات الاستئناف وقتاً طويلاً إلى حدّ تحوّل الرقابة الذاتية أمراً شائعاً. وأخيراً، يتمّ استهداف المحتوى العربي بقيود أقسى من تلك المفروضة على المحتوى الإنكليزي المشابه.
وتجدر الإشارة أننا لم نوثّق أي حالة اتخذت فيها منصةٌ ما إجراءات إثر مطالب فريق ثالث، لا سيما مطالب الحكومة بتقييد المحتوى والحسابات التي تنتهك القوانين المحلية. من هنا، يركّز هذا التقرير على القيود والإجراءات التي تتخذها المنصات لفرض سياساتها وقوانينها الخاصة.
يوفر القسم الأول من التقرير لمحة عن ممارسات الإشراف والرقابة على محتوى الصحّة والحقوق الجنسية والإنجابية في منطقة غرب آسيا وشمال إفريقيا، بما فيها أنواع القيود التي تواجهها المنظمات والناشطون/ات. بينما يبحث القسم الثاني في القيود الصارمة المفروضة على محتوى الصحة والحقوق الجنسية والإنجابية الإعلاني. ويتطرق القسم الثالث إلى كيفية معارضة المنصات لسياستها الخاصة من خلال تقييد المحتوى الإعلامي والفني. ونقيّم في القسم الرابع آليات الاستئناف التي توفرها المنصات وكيفية عدم إرضائها للمستخدمين/ات في المنطقة. وأخيراً، يوثق القسم الخامس الرقابة على أصوات أحرار الهويّة الجنسانيّة ومنظمات مجتمع الميم والآخرين من قِبل المنصات.
الاستنتاجات الرئيسية
- وثقنا القيود المفروضة على المنصات محور الدراسة مثل “فيسبوك” و”إنستغرام”و”تيك توك” ومنصة “إكس” المعروفة سابقاً بـ”تويتر” و”يوتيوب” و”فيسبوك” إضافةً إلى “لينكد إن” الذي تملكه شركة “مايكروسوفت”. وكانت منصتيّ “إنستغرام” و”“فيسبوك”” التابعتَيْن لشركة “ميتا” مسؤولتَين عن أكبر عددٍ من القيود، إذ حلّ “إنستغرام” في الطليعة، يليه ““فيسبوك””. وقد صرّح خمسة من أصل عشرة من الأشخاص الذين أجرينا معهم مقابلة أنّهم تعرّضوا لما بين 15 و20 حالات تقييد في العام 2022 وعلى المنصتَين.
- تضمّنت القيود المفروضة على المنظمات وصانعي/ات المحتوى الذين نشروا عن الصحّة والحقوق الجنسية والإنجابية إزالة المحتوى والحسابات ورفض الإعلانات وحصر الانتشار العضوي. كما تمّ تقييد المحتوى الخاص بهم لانتهاكه سياسات المنصات في ما يتعلق بالمحتوى “الجنسي” أو “البالغ”. إلا أن الأعذار التي قدّمتها المنصات لم تكن منطقيّة دائماً بالنسبة إلى الأشخاص الذين أجرينا معهم مقابلة والذين نشروا محتوى غير ضار مثل المعلومات الطبية المفيدة والتي تمّت إزالتها من قبِل المنصات لاعتبارها محتوى “جنسي” أو “بالغ”.
- تنصّ المنصات في سياستها على حالات استثنائية لنشر المحتوى “الجنسي” و”البالغ” والعاري مثال الأسباب التعليمية والطبية والفنية أيضاً. إلا أنّنا وثّقنا حالات عدّة حيث عارضت المنصّات سياستها الخاصة من خلال إزالة المحتوى التعليمي والفني وغيره المتعلّق بالصحة والحقوق الجنسية والإنجابية.
- برز رفض الإعلانات بالأخصّ كتحدًٍّ بالنسبة إلى المناصرين/ات للصحّة والحقوق الجنسية والإنجابية، إذ منعهم من نشر محتواهم ومعلوماتهم الضرورية على نطاق أوسع. بالفعل، صرّح أربع من أصل عشرة منظمات وناشطين/ات أجرينا معهم مقابلة أنّهم فقدوا إمكانية الوصول إلى حساباتهم الإعلانية. وتُجرى الموافقة على معظم الإعلانات المرفوضة بعد المراجعة، إلا أن الأشخاص الذين أجرينا معهم مقابلة انتقدوا عملية الاستئناف واصفين إياها بالطويلة وغير الفعالة ولا يمكن توقّع نتيجتها.
- وفقاً لتحليل سياسة منصات خمس وهي “فيسبوك” و”إنستغرام” و”تيك توك” و”منصة إكس” و”يوتيوب”، أعلنت جميع المنصات عن آليات لمستخدميها تسمح لهم بتقديم استئنافٍ متعلّق بالإشراف على المحتوى. إلا أن هذه الآليات لم تغطِ كافّة أشكال إجراءات الإشراف على المحتوى. ففي حالة “تيك توك” و”منصة إكس”، يتوفّر عدد قليلٌ جداً من المعلومات حول كيفية تعاملهما مع الاستئنافات. بينما كانت “ميتا” الأكثر شفافية حيال عملية مراجعة الاستئنافات. ولم تُعلن أيٌ من المنصات عن دور الأتمتة في مراجعة الاستئنافات.
- وصف الأشخاص الذين أجرينا مقابلاتٍ معهم ممارسات المنصات في الإشراف على المحتوى بـ”الانحيازي” ضدّ منطقة غرب آسيا وشمال إفريقيا واللغة العربية، مضيفين أن المنصات تفشل غالباً في مراعاة سياق المحتوى المنشور.
التوصيات الموجهة إلى المنصات
- التدقيق في آثار حقوق الإنسان: يجب على المنصات أن تُجري تقييماً لآثار حقوق الإنسان بشأن كيفية تأثير قوانينها وفرض سياستها على الصحّة والحقوق الجنسيّة والإنجابيّة، إضافةً إلى حرية التعبير وتداول المعلومات بصفتها عاملاً ممكّناً للحقوق المذكورة. كما يجب على التقييمات أن تحقق في تقارير حول الانحياز لمنطقة ولغاتها ولهجاتها، إضافةً إلى ازدواجية المعايير في الإشراف على المحتوى المتعلّق بالجهاز التناسلي الأنثوي والمتعة الجنسية؛ ويجب أن تأخذ في عين الاعتبار دور الذكاء الاصطناعي وعيوبه في الإشراف على المحتوى باللغات المعتمدة في المنطقة.
- إيضاح أسباب تقييد المحتوى “البالغ” و”الجنسي”: ينبغي على المنصات أن تحدّد بوضوح المحتوى الذي يعتبر “جنسياً” و “بالغاً” أو “غير لائقاً” بما في ذلك الإعلانات؛ كما يجب أن تمتنع عن استخدام التفسيرات المبهمة والعامة للمحتوى والإعلانات التي تندرج ضمن هذه الفئات. وثّقنا بعض حالات استشهدت المنصات فيها بانتهاك هذه السياسة لتقييد المحتوى غير الضار على حدٍ سواء.
- تحسين تدريب المسؤولين/ات عن الإشراف على المحتوى في التعرّف على محتوى الصحّة والحقوق الجنسيّة والإنجابيّة: يجدر بالمنصات تصميم أنظمة الإشراف على المحتوى بطريقة تسّهل التعرّف على المحتوى المتعلق بهذه الحقوق، والذي يتم الإبلاغ عنه على أنه محتوى “بالغ” أو “جنسي”. كما تبرز الحاجة إلى نسبةٍ أعلى من الأفراد العاملين/ات في أنظمة الإشراف على المحتوى نظراً إلى الفوارق البسيطة في تصنيف الحالات.
- تعزيز الاستثناءات على المحتوى التعليمي والطبي والعلمي والفني وتحسينها: يجب على المنصات أن تعزز سياستها باستمرار منح استثناءات للمحتوى “العاري” و”شبه العاري” و”البالغ” و”الجنسي” عندما يُنشر لأسباب تعليمية وفنية وعلمية. كما يجب أن تحسّن من السياسات القائمة من خلال التخلي عن اللغة المبهمة (مثال: “قد نستثني”…) ومنح المزيد من لاستثناءات (مثلاً، لا تسمح “تيك توك” بالاستثناءات الفنية).
- مراجعة السياسات الإعلانية المفروضة على الصحة الجنسية والإنجابية والرفاهية: تُعدّ قوانين الإعلانات الخاصة بالمنصات بشأن هذه المواضيع صارمةٌ جداً، فهي تحجب مثلاً الإعلانات التي تركّز على “المتعة الجنسيّة” (“ميتا”، “تيك توك”) والتي “تعرض الجسد المكشوف كثيراً”. في حين أن الحاجة إلى تقييد بعض المحتوى عن القاصرين/ات أمرٌ مفروغٌ منه، إلا أنّ الحجب الشامل يمنع النشر الأوسع للمعلومات الضرورية المتعلقة بالصحّة والحقوق الجنسية والإنجابية. كما ينبغي على المنصات أن توضح كيفية فرضها لقوانينها الإعلانية، خصيصاً دور الأتمتة في اتخاذ قرار رفض الإعلان أو إزالته.
- إيضاح الأساس القانوني لتقييد الإعلانات المحلية: تقيّد المنصات الإعلانات التي ترّوج للصحة الجنسية والإنجابية والرفاه في أسواق محددة، مثل أساليب منع الحمل من دون وصفةٍ طبية على “منصة إكس” و”منتجات منع الحمل والخصوبة” على “يوتيوب”، وذلك في معظم الأسواق في منطقة غرب آسيا وشمال إفريقيا. لذا يجدر بالمنصات تحديد الأساس القانوني الذي يخولها حجب هذه الإعلانات في كل دولة. ويجب أن تمتنع أيضاً عن فرض الحظر العام المبني على التكهّنات حول الأنشطة أو المحتوى المسموح به في المنطقة.
- التمتّع بالشفافية في ما يتعلّق بالقيود المفروضة على ظهور المحتوى. يجب أن تتحلّى المنصّات بالشفافيّة في ممارساتها المتمثّلة في الحدّ من ظهور المحتوى والإعلانات والحسابات والصفحات وغيرها. كما يجب عليها إخطار المستخدمين/ات عند اتّخاذ مثل هذه الإجراءات، وذكر الأسباب، وتوفير سبل الطعن في هذه القيود.
- تخصيص الموارد للإشراف على المحتوى العادل والمُتمَحور حول حقوق الإنسان في المنطقة. يجب على المنصّات تحسين الإشراف على محتواها باللّغة واللهجة العربية واللّغات الأخرى المستخدمة في منطقة غرب آسيا وشمال إفريقيا (WANA). كما يجب عليها التأكّد من أنّ فِرق الإشراف على المحتوى الخاصّة بها قد تلقّت تدريباً كافياً بشأن المسائل المتعلّقة بحقوق الإنسان، وأنّها تحظى بتنوّعٍ لغوي وبالمعرفة السياقية اللّازمة لاتّخاذ قرارات الإشراف على المحتوى التي تتمحور حول حقوق الإنسان. ومن خلال نشر مجموعات بيانات التدريب المتنوّعة، يجب على المنصّات أيضاً التأكّد من تدريب برنامج الذكاء الاصطناعي الخاص بها للإشراف على المحتوى بشكلٍ مناسب على لغات المنطقة ولهجاتها وسياقاتها.
- تحسين عمليّة الاستئناف المتعلّقة بالإشراف على المحتوى. يجب على المنصّات تحسين آليّات الاستئناف المتعلّقة بالإشراف على المحتوى لتغطية جميع أنواع القيود، بما في ذلك حذف المحتوى ورفض الإعلانات وتعليق الحسابات والصفحات والحسابات الإعلانية والقرارات المتعمّدة لتقليل ظهور المحتوى والحسابات. عندما تقوم المنصّة بإزالة المحتوى باستخدام الأتمتة، يجب أن يكون المستخدمون/ات والمُعلنون/ات قادرين/ات على مناشدة مُشرف/ة بشري/ة أو فريق يُعنى بالإشراف. يجب على المنصّات أيضًا تحديد الأطر الزمنية الخاصة بها لإخطار المستخدمين/ات بقرارات الاستئناف المتعلّقة بالإشراف على المحتوى.
- اتّخاذ إجراءات ضد المستخدمين/ات الذين يسيئون استخدام آليات البلاغ (flagging) عن المنشورات. يجب أن تتصدّى المنصّات لهذه الممارسة التي بموجبها تقوم مجموعة أو مجموعات من المستخدمين/ات بالإبلاغ بشكلٍ مكثّفٍ عن المحتوى أو الحسابات التي يريدون إسكاتها. يجب منع المُسيئين/ات المتكرّرين/ات من الإبلاغ عن المحتوى (report) أو تقديم “بلاغ” (flagging) عنه في المستقبل.
اقرأوا التقرير أدناه كاملاً أو حمّلوه من هنا.