Wp Header Logo 1051.png

وعده‌های نقض‌شده «متا» در سانسور محتوای فلسطین

 

به گزارش خبرگزاری صداوسیما، سازمان دیده‌بان حقوق‌بشر در گزارشی در سالروز هفتم اکتبر و عملیات «طوفان الاقصی» نوشت: موجی از سانسور شدید رسانه‌های اجتماعی در جریان درگیری‌ها بین رژیم صهیونیستی و گروه‌های مقاومت فلسطینی که از ۷ اکتبر ۲۰۲۳ آغاز شده، در حال وقوع است.

 

در فاصله بین اکتبر و نوامبر ۲۰۲۳، سازمان دیده‌بان حقوق‌بشر بیش از هزار و ۵۰ مورد حذف و سایر سرکوب‌های محتوا در اینستاگرام و فیس‌بوک را مستند کرد که فلسطینی‌ها و حامیان آنها منتشر کرده بودند.

 

سازمان دیده‌بان حقوق‌بشر درخواست کرد تا مواردی از هر نوع سانسور برخط و هر نوع دیدگاه مرتبط با رژیم صهیونیستی و فلسطین ارائه شود. از میان هزار و ۵۰ مورد بررسی‌شده برای این گزارش، هزار و ۴۹ مورد شامل محتوای صلح‌آمیز در حمایت از فلسطین بود که سانسور یا به طرز غیرمنصفانه‌ای سرکوب شده است، در حالی که یک مورد شامل حذف محتوایی در حمایت از رژیم صهیونیستی بود. این موارد شامل محتوایی است که از بیش از ۶۰ کشور در سراسر جهان، عمدتاً به زبان انگلیسی، به حمایت صلح‌آمیز از فلسطین می‌پردازد و به شیوه‌های متنوعی ابراز شده است.

 

پس از اینکه سازمان دیده‌بان حقوق‌بشر تحلیل خود را برای این گزارش به پایان رساند، صد‌ها نفر به گزارش سانسور ادامه دادند و در واقع تعداد کل مواردی که سازمان دیده‌بان حقوق‌بشر دریافت کرد بسیار بیش از هزار و ۵۰ مورد بود.

 

سازمان دیده‌بان حقوق‌بشر (Human Rights Watch) دریافت که سانسور محتوای مرتبط با فلسطین در اینستاگرام و فیس‌بوک نظام‌مند و جهانی است.

 

اجرای نامنظم سیاست‌های «متا» منجر به حذف نادرست محتوای مربوط به فلسطین شد.

 

«متا» شرکت مادر فیسبوک و اینستاگرام، سابقه‌ای مستند از سرکوب‌های بیش از حد محتوا‌های مرتبط با فلسطین دارد، اما به نظر می‌رسد این بزرگ‌ترین موج سرکوب محتوا درباره فلسطین تا به امروز است. 

 

«متا» در گذشته بابت چنین فراتر رفتن‌هایی عذرخواهی کرده و وعده داده که به آن رسیدگی کند.

 

سازمان دیده‌بان حقوق‌بشر به این نتیجه رسید که «متا» نتوانسته است به مسئولیت‌های خود در زمینه رعایت حقوق‌بشر عمل کند و اقداماتش با حقوق و اصول جهانی آزادی بیان و دسترسی به اطلاعات مغایرت دارد.

 

این گزارش بر اساس سال‌ها تحقیق، مستندسازی و فعالیت‌های حقوق بشری و بررسی رعایت حقوق دیجیتال توسط سازمان‌های فلسطینی، منطقه‌ای و بین‌المللی تدوین شده است.

 

در بررسی شواهد و زمینه‌های مرتبط با هر مورد، سازمان دیده‌بان حقوق‌بشر ۶ الگوی کلیدی از سانسور غیرموجه را شناسایی کرد که هر یک حداقل ۱۰۰ بار تکرار شده است. 

 

این الگو‌ها شامل موارد زیر هستند: ۱) حذف پست‌ها، داستان‌ها و نظرات ۲) تعلیق یا غیرفعال‌سازی دائمی حساب‌ها ۳) محدودیت در توانایی تعامل با محتوا مانند لایک کردن، نظر دادن، به اشتراک‌گذاری و بازنشر داستان‌ها برای یک دوره خاص که از ۲۴ ساعت تا سه ماه متغیر است ۴) محدودیت در توانایی دنبال‌کردن یا برچسب زدن حساب‌های دیگر ۵) محدودیت در استفاده از برخی ویژگی‌ها، مانند پخش زنده اینستاگرام و فیس‌بوک، کسب درآمد و توصیه حساب‌ها به غیر دنبال‌کنندگان و ۶) «ممنوعیت سایه‌ای» که به کاهش قابل توجهی در اعلام دیدگاه درباره پست‌ها، داستان‌ها یا حساب یک فرد بدون اطلاع‌رسانی منجر می‌شود. 

 

علاوه بر این، ده‌ها کاربر گزارش دادند که قادر به بازنشر، لایک یا نظردادن در پست سازمان دیده‌بان حقوق‌بشر که خواستار ارائه شواهدی از سانسور برخط بود، نیستند و این پست به عنوان «هرزنامه» علامت‌گذاری شده است. 

 

حساب‌های کاربری اینستاگرام در نظرهای خود درباره درخواست برای مستندات سانسور، ایمیلی برای ارسال شواهد به سازمان دیده‌بان حقوق‌بشر منتشر کردند. اینستاگرام نظرها را حذف کرد و به نقض دستورالعمل‌های خود اشاره کرد.

 

تحلیل سازمان دیده‌بان حقوق‌بشر از این موارد نشان می‌دهد که چهار عامل بنیادی و سیستمی وجود دارد که به سانسور کمک کرده است:

 

۱/ گزارش اشاره به نقائص سیاست‌های «متا» دارد که سازمان‌ها یا افرادی را که مأموریت خشونت‌آمیز را اعلام می‌کنند یا در خشونت درگیر هستند از سکو‌های خود منع می‌کند. این سیاست به‌طور منطقی تحریک به خشونت را ممنوع می‌کند. با این حال، همچنین شامل ممنوعیت‌های گسترده‌ای بر روی دسته‌های مبهمی از سخنرانی، مانند ستایش و حمایت از سازمان‌های خطرناک است که به شدت به فهرست‌های تعیین‌شده دولت آمریکا از سازمان‌های تروریستی تکیه دارد. فهرست آمریکا شامل جنبش‌های سیاسی است که بازو‌های مسلح دارند مانند حماس و جبهه خلق برای آزادی فلسطین. روش‌هایی که «متا» با آنها این سیاست را اجرا می‌کند، به‌طور مؤثری بسیاری از پست‌هایی را که از جنبش‌های مقاومت فلسطینی حمایت می‌کنند، ممنوع و بحث درباره رژیم صهیونیستی و فلسطین را سرکوب می‌کند.

 

۲/ عملکرد نامنظم و غیرشفاف سیاست‌های «متا» به‌ویژه در مورد استثنائات برای محتوای خبری. به این معنا که «متا» اجازه می‌دهد محتوایی که به نفع عموم است، حتی اگر در غیر این صورت با سیاست‌های آن مغایرت داشته باشد، همچنان قابل مشاهده باقی بماند.

 

۳/ احترام ظاهری به درخواست‌های دولت‌ها برای حذف محتوا.

 

۴/ وابستگی شدید به ابزار‌های خودکار برای حذف محتوا به منظور مدیریت یا ترجمه محتوای مرتبط با فلسطین.

 

علاوه بر این، در بیش از ۳۰۰ مورد مستندشده توسط سازمان دیده‌بان حقوق‌بشر، کاربران گزارش داده و شواهدی مبنی بر اینکه نتوانسته‌اند به محدودیت‌های اعمال‌شده بر حساب خود اعتراض کنند، ارائه کردند. این موضوع کاربر را از گزارش نقض‌های احتمالی سکو بازداشت و بدون دسترسی به یک راه حل مؤثر باقی گذاشت.

 

«متا» مدت‌هاست از این موضوع آگاه است که سیاست‌هایش منجر به خاموشی صدای فلسطینی‌ها و حامیان آنها در سکو‌هایش شده است. شواهد مستندشده در این گزارش، ناشی از همان نگرانی‌هایی است که سازمان‌های حقوق‌بشری و دیجیتال در مواقع قبلی مطرح کرده‌اند، مانند سال ۲۰۲۱ و زمانی که اشغالگری صهیونیست‌ها در محله «شیخ جراح» در قدس اشغالی، اعتراضات و خشونت‌هایی را به همراه داشت؛ اتفاقی که سانسور محتوای حامی فلسطین در فیس‌بوک و اینستاگرام را به دنبال داشت. سازمان دیده‌بان حقوق‌بشر در گزارشی از سال ۲۰۲۱ سانسور فیس‌بوک در بحث مسائل حقوقی مربوط به رژیم صهیونیستی و فلسطین را مستند کرد و هشدار داد که «متا» نظر بسیاری از مردم را بدون توضیح خاموش می‌کند و برخی از همان عدم تعادل‌های قدرت و نقض حقوقی را که در واقعیت مشاهده می‌کنیم به صورت برخط تکرار می‌کند.

 

در پاسخ به سال‌ها درخواست سازمان‌های حقوق‌بشر برای بررسی مستقل سیاست‌های تعدیل محتوا در «متا» و توصیه‌ای که در سال ۲۰۲۱ از سوی هیئت نظارت «متا» صورت گرفت، این شرکت از سازمان «کسب‌وکار برای مسئولیت اجتماعی» (BSR) به عنوان یک نهاد مستقل خواست تا بررسی کند که آیا فیس‌بوک سیاست‌های تعدیل محتوا را به زبان‌های عربی و عبری بدون تعصب به کار گرفته یا نه. 

 

در سپتامبر ۲۰۲۲ سازمان «کسب‌وکار برای مسئولیت اجتماعی» (BSR) گزارشی منتشر کرد که نشان داد اقدامات «متا» تأثیر منفی بر حقوق‌بشر داشته است. این اقدامات بر حقوق کاربران فلسطینی در زمینه آزادی بیان، آزادی تجمع، مشارکت سیاسی و نیز توانایی فلسطینی‌ها برای به اشتراک‌گذاری اطلاعات و بینش‌ها درباره تجربیاتشان تأثیر گذاشته است.

 

بر اساس توصیه‌های هیئت نظارت، گزارش سازمان «کسب‌وکار برای مسئولیت اجتماعی» (BSR) و تعامل با جامعه مدنی در طول سال‌ها، «متا» چندین تعهد برای رسیدگی به نگرانی‌های مربوط به سانسور مرتبط با فلسطین انجام داد. با این حال، شیوه‌های «متا» در طول جنگی که از اکتبر ۲۰۲۳ آغاز شد، نشان می‌دهد که این شرکت به وعده‌هایی که دو سال پیش داده بود، عمل نکرده و همان‌طور که این گزارش نشان می‌دهد، مشکل حادتر شده است.

 

بر اساس اصول سازمان ملل در مورد کسب و کار و حقوق‌بشر (UNGPs)، شرکت‌ها مسئولیت دارند که از نقض حقوق‌بشر جلوگیری کنند، تأثیرات حقوق‌بشر ناشی از فعالیت‌های خود را شناسایی و به آنها رسیدگی کنند و امکان جبران خسارت برای افرادی که حقوقشان نقض شده را فراهم آورند. برای شرکت‌های رسانه‌های اجتماعی از جمله «متا» این مسئولیت شامل هم‌راستا کردن سیاست‌ها و شیوه‌های تعدیل محتوا با استاندارد‌های بین‌المللی حقوق‌بشر، اطمینان از شفافیت تصمیمات درباره حذف محتوا و تعصب‌نداشتن است.

 

«متا» باید نظرات محافظت‌شده از جمله درباره نقض حقوق‌بشر و جنبش‌های سیاسی را در سکو‌های خود مجاز بداند. این شرکت باید با بازنگری در سیاست سازمان‌ها و افراد خطرناک خود آغاز کند تا با استاندارد‌های بین‌المللی حقوق‌بشر همخوانی داشته باشد. همچنین «متا» باید نظارتی بر اجرای استثنائات خبری خود داشته باشد تا اطمینان حاصل کند که این استثنائات به‌طور مؤثر، عادلانه و بدون تبعیض اعمال می‌شوند.

 

شرکت باید شفافیت بیشتری درباره درخواست‌های واحد‌های ارجاع اینترنتی دولت‌ها، برای حذف محتوا به‌طور داوطلبانه یعنی بدون دستور دادگاه و همچنین درباره استفاده از اتوماسیون و الگوریتم‌های یادگیری ماشین برای مدیریت یا ترجمه محتوای مرتبط با فلسطین، ایجاد کند. 

این شرکت باید ارزیابی دقیقی از تأثیرات حقوق‌بشری تغییرات موقتی در الگوریتم‌های توصیه‌گر خود که درباره جنگ بین رژیم صهیونیستی و حماس از ۷ اکتبر معرفی کرده، انجام دهد. «متا» همچنین باید اقدامات فوری برای همکاری با جامعه مدنی برای تعیین اهداف اجرای تعهدات معوقه خود در زمینه سرکوب محتوای مرتبط با فلسطین انجام دهد.

 

روش‌شناسی

 

سازمان دیده‌بان حقوق‌بشر تحقیقاتی را برای این گزارش در بازه زمانی اکتبر تا نوامبر ۲۰۲۳ انجام داد. در ماه اکتبر، این سازمان فراخوانی برای ارائه شواهدی درباره سانسور مجازی منتشر کرد و سرکوب محتوای مرتبط با رژیم صهیونیستی و فلسطین در شبکه‌های اجتماعی از تاریخ ۷ اکتبر که به زبان‌های انگلیسی، عربی و عبری از حساب‌های اصلی سازمان دیده‌بان حقوق‌بشر در اینستاگرام، ایکس (که قبلاً به عنوان توییتر شناخته می‌شد) و تیک‌تاک منتشر شد. سازمان دیده‌بان حقوق‌بشر تلاش کرد تا اطلاعاتی از تمام مخاطبان جهانی خود جمع‌آوری کند.

 

سازمان دیده‌بان حقوق‌بشر درخواست کرده که اطلاعات زیر از کاربران شبکه‌های اجتماعی که سانسور را گزارش کرده‌اند، از طریق ایمیل به آدرس اختصاصی این تحقیق ارسال شود: 

 

عکس از صفحه محتوای اصلی، سکوی اجتماعی مربوطه، تاریخ و کشور ارسال محتوا، نوع سانسور تجربه شده (حذف، سانسور سایه، غیرفعال شدن ویژگی‌ها، ناتوانی در تعامل با محتوا و غیره)، اطلاعیه از سکوی مربوطه (در صورت وجود)، آمار تعاملات قبلی (در صورت سانسور سایه)، URL حساب کاربری، وضعیت درخواست تجدید نظر (در صورت وجود) و هر اطلاعات مرتبط دیگر. 

 

علاوه بر مواردی که از طریق درخواست دریافت کردیم، افراد به‌طور خودجوش مواردی را برای ما ارسال کردند و ما چندین مورد دیگر را که به‌طور عمومی در دسترس بودند شناسایی کردیم.

 

داده‌های داخلی سازمان دیده‌بان حقوق‌بشر نشان می‌دهد که درخواست شواهدی که در شبکه‌های اجتماعی منتشر شده، به مخاطبان در سرتاسر جهان، از جمله در سرزمین‌های اشغالی رسید. بیشتر محتوایی که سازمان دیده‌بان حقوق‌بشر دریافت کرد به زبان انگلیسی بود و از کشور‌های زیر و مناطق مختلف منشأ گرفته بود: استرالیا، اتریش، بحرین، بنگلادش، بلژیک، بولیوی، بوسنی، برزیل، برونئی، کانادا، کنگو، کرواسی، دانمارک، مصر، فنلاند، فرانسه، آلمان، غنا، هند، اندونزی، ایرلند، ایتالیا، اردن، کنیا، کویت، لبنان، لیبی، لیتوانی، مالزی، مکزیک، هلند، نیوزیلند، نروژ، عمان، پاکستان، فلسطین، پاناما، پرو، پرتغال، پورتوریکو، قطر، رومانی، سنگاپور، آفریقای جنوبی، کره جنوبی، اسپانیا، سریلانکا، سوئد، سوئیس، تایلند، ترینیداد و توباگو، تونس، ترکیه، بریتانیا و آمریکا.

 

محققان همه هزار و ۲۸۵ گزارش مربوط به سانسور برخط که تا تاریخ ۲۸ نوامبر ۲۰۲۳ (۷ آذر ۱۴۰۲) از طریق ایمیل دریافت شده بود، چه به‌صورت پاسخ به درخواست ما و چه به‌صورت خودجوش، بررسی کردند. ما مواردی را که شواهد کافی برای تأیید ادعای سانسور وجود نداشت یا محتوایی درباره رژیم صهیونیستی یا فلسطین شامل نمی‌شد، حذف کردیم. همچنین شواهد مربوط به هرگونه سخنرانی که ممکن است به عنوان تحریک به خشونت، تبعیض یا خصومت در نظر گرفته شود، با ارزیابی محتوای پست، مطالب اطراف پست (نظرهای دیگر، رسانه‌ها و غیره) و اطلاعات اضافی ارائه‌شده توسط شخصی که سانسور را گزارش کرده بود و همچنین اطلاعیه‌های «متا» بررسی کردیم. محققان از ترکیبی از شواهد ارائه شده توسط کاربر، از جمله عکس‌های صفحه و مطالب پس‌زمینه در ایمیل و اطلاعات عمومی موجود، برای ارزیابی اینکه آیا ادعای محدودیت‌های غیرموجه بر محتوای آنها یا حساب کاربری‌شان توسط «متا» تأیید شده است یا نه، استفاده کردند. اگر محققان اطلاعات کافی برای ارزیابی کامل زمینه پست و تأیید اینکه محتوا حمایت صلح‌آمیز از فلسطین یا فلسطینی‌ها بوده است، نداشتند، این مورد را کنار گذاشتند.

 

این تحلیل یک مجموعه داده شامل هزار و ۵۰ مورد سانسور را شناسایی کرد؛ به عبارت دیگر، حذف یا سرکوب بیان محافظت‌شده. این مجموعه داده حجم سانسوری را که به ما گزارش شده، کم‌ارزیابی می‌کند، زیرا صد‌ها نفر پس از تاریخ پایان گزارش ما در ۲۸ نوامبر، به گزارش موارد سانسور ادامه دادند. در زمان نگارش این متن، ما مجموعاً هزار و ۷۳۶ گزارش دریافت کرده‌ایم. در حالی که موارد اضافی در تحلیل این گزارش گنجانده نشده‌اند، بررسی این گزارش‌ها نشان می‌دهد که صد‌ها مورد دیگر وجود دارد که در آنها حمایت از فلسطین یا فلسطینی‌ها سانسور شده است. این توزیع موارد لزوماً منعکس‌کننده آمار کلی سانسور نیست.

 

بیشترِ گزارش‌های دریافتی و شواهد مستندشده توسط سازمان دیده‌بان حقوق‌بشر مربوط به پست‌ها در اینستاگرام و فیس‌بوک بوده است (با تعداد کمتری از موارد گزارش‌شده در مورد ایکس، تیک‌تاک و سایر سکوها). 

 

سکو‌های متا (اینستاگرام و فیس‌بوک) از نرخ‌های بالای استفاده برخوردار بوده‌اند؛ هم در پاسخ به خصومت‌ها بین رژیم صهیونیستی و فلسطین از ۷ اکتبر و هم به‌طور تاریخی. فیس‌بوک و اینستاگرام هر کدام بالاترین نرخ‌های استفاده را دارند، به‌طوری‌که فیس‌بوک بیش از ۳ میلیارد و اینستاگرام بیش از ۲.۳ میلیارد کاربر فعال ماهانه دارند در حالیکه این عدد در سایر سکو‌ها مانند ایکس (نزدیک به ۴۰۰ میلیون)، تلگرام (بیش از ۸۰۰ میلیون) و تیک‌تاک (بیش از یک میلیارد) تا سال ۲۰۲۳ است.

 

این گزارش تحلیلی از موارد تأیید شده حذف محتواست که ما دریافت کرده یا مستند کرده‌ایم و یک تحلیل مقایسه‌ای جهانی از سانسور کلی بیانیه‌ها و دیدگاه‌های سیاسی نیست. روند‌های شناسایی‌شده در این موارد به هیچ وجه قصد ندارند توزیع کلی سانسور در رسانه‌های اجتماعی را منعکس کنند. یافته‌های این گزارش، به‌ویژه اینکه سانسور «متا» عمدتاً بیان‌های محافظت شده در حمایت از فلسطین یا فلسطینی‌ها را در اینستاگرام و فیس‌بوک سرکوب کرده، تنها به روند‌ها در این هزار و ۵۰ مورد مربوط می‌شود.

 

محققان تمام اطلاعاتی را که کاربران رسانه‌های اجتماعی با سازمان دیده‌بان حقوق‌بشر به اشتراک گذاشتند، ناشناس کردند و به افرادی که تجربیات خود را گزارش کردند، اطمینان دادند که هیچ‌یک از اطلاعات آنها بدون رضایت صریح و آگاهانه‌شان به اشتراک گذاشته یا منتشر نخواهد شد. 

 

سازمان دیده‌بان حقوق‌بشر در تاریخ ۱۵ نوامبر ۲۰۲۳ (۲۴ آبان ۱۴۰۲) به «متا» نامه نوشت تا یافته‌های تحقیق خود را به اشتراک بگذارد و نظر «متا» را بخواهد. پاسخ «متا» در این گزارش منعکس شده است. همچنین سازمان دیده‌بان حقوق‌بشر در تاریخ ۲۲ نوامبر (یک آذر ۱۴۰۲) به واحد سایبری رژیم صهیونیستی نامه نوشت تا اطلاعاتی درباره درخواست‌های این واحد از شرکت‌های رسانه‌های اجتماعی از تاریخ ۷ اکتبر (۱۵ مهر) و توجیه این درخواست‌ها دریافت کند. در زمان نگارش این متن، واحد سایبری پاسخی نداده بود. 

 

تحقیقات شامل مشاوره با چندین سازمان حقوق‌بشری و حقوق دیجیتال از جمله ۷amleh، Access Now و عفو بین‌الملل بود.

 

*پیش‌زمینه

 

زمینه سیاسی: محیط گسترده‌تر برای سانسور

 

امروز فلسطینی‌ها با سطوح بی‌سابقه‌ای از خشونت و سرکوب مواجه هستند. عملیات‌های کنونی ارتش صهیونیستی در غزه پس از عملیات فلسطینیان در ۷ اکتبر ۲۰۲۳ آغاز شد. تاکنون حدود ۴۲ هزار فلسطینی در غزه به شهادت رسیده‌اند که ۶۰ درصد آنها زنان و کودکان هستند. 

 

خشونت بی‌سابقه و بحران انسانی، جستجو و انتقال اطلاعات را دشوارتر کرده است. بر اساس تحقیقات کمیته حمایت از روزنامه‌نگاران (CPJ)، تاکنون دست‌کم ۱۷۵ فعال رسانه‌ای در غزه به شهادت رسیده‌اند. CPJ اعلام کرد که اولین ماه درگیری‌ها در غزه، خطرناک‌ترین ماه برای اصحاب رسانه از زمان آغاز مستندسازی تلفات روزنامه‌نگاران در سال ۱۹۹۲ بوده است. علاوه بر این، قطع مکرر و طولانی‌مدت ارتباطات در غزه، دسترسی به اطلاعات قابل اعتماد و نجات‌دهنده زندگی و همچنین توانایی مستندسازی و به اشتراک‌گذاری شواهد نقض حقوق‌بشر را مختل کرده است.

 

در این زمینه، محیط کلی برای ابراز آزادانه نظرات درباره فلسطین تحت فشار فزاینده‌ای قرار دارد. در حالی که تمرکز این گزارش بر سانسور محتوای رسانه‌های اجتماعی است، سانسور برخط در یک خلأ نیست. در تاریخ ۲۳ نوامبر ۲۰۲۳ (دوم آذر ۱۴۰۲) کارشناسان سازمان ملل بیانیه‌ای صادر و در آن نگرانی خود را از موج جهانی حملات، انتقام‌جویی‌ها، جرم‌انگاری و تحریم‌ها علیه کسانی که به‌طور علنی با قربانیان درگیری‌ها بین نظامیان صهیونیست و گروه‌های مسلح فلسطینی ابراز همبستگی می‌کنند، ابراز کردند. کارشناسان اشاره کردند که هنرمندان، دانشگاهیان، روزنامه‌نگاران، فعالان و ورزشکاران به‌دلیل نقش‌های برجسته و دیدگاه‌های خود با عواقب و انتقام‌جویی‌های سختی از سوی دولت‌ها و بازیگران خصوصی مواجه شده‌اند. 

 

در تاریخ ۸ نوامبر ۲۰۲۳ (۱۷ آبان ۱۴۰۲) کِنِست رژیم صهیونیستی اصلاحیه‌ای به قانون ضدتروریسم این رژیم اضافه کرد که مصرف محتوای تروریستی را به عنوان یک جرم تعریف می‌کند. سازمان حقوق بشری «العداله» این قانون را مورد انتقاد قرار داد و گفت که این قانون به قلمرو افکار و باور‌های شخصی نفوذ می‌کند و نظارت دولتی بر استفاده از رسانه‌های اجتماعی را به طور قابل توجهی افزایش می‌دهد. حتی قبل از تصویب این اصلاحیه، گزارش شده بود که در تاریخ ۱۷ اکتبر ۲۰۲۳ (۲۶ مهر ۱۴۰۲) پلیس رژیم صهیونیستی اعلام کرد که حداقل ۱۷۰ فلسطینی از زمان عملیات «طوفان الاقصی» به دلیل ابراز نظر در فضای مجازی بازداشت یا برای بازجویی احضار شده‌اند. «العداله» ۲۵۱ مورد را بین ۷ اکتبر ۲۰۲۳ و ۱۳ نوامبر ۲۰۲۳ مستند کرده که در آن افراد به دلیل فعالیت‌هایی که عمدتاً در چارچوب حق آزادی بیان قرار می‌گیرد، بازجویی یا در حداقل ۱۳۲ مورد، بازداشت شده‌اند. این سازمان این اقدامات را به عنوان تلاش‌های گسترده و هماهنگ برای سرکوب ابراز نارضایتی از تهاجمات رژیم صهیونیستی به غزه توصیف کرده است. سرکوب سیستماتیک میلیون‌ها فلسطینی توسط رژیم صهیونیستی، همراه با اعمال غیرانسانی که به عنوان بخشی از سیاست تسلط صهیونیست‌ها بر فلسطینیان انجام می‌شود، به عنوان جنایات علیه بشریت از جمله آپارتاید و آزار و اذیت محسوب می‌شود.

 

از تاریخ ۷ اکتبر ۲۰۲۳، هنرمندان، فعالان فرهنگی و دانشگاهیان در کشور‌های مختلف با عواقب قابل توجهی در قالب خاموشی، سانسور و ارعاب از سوی برخی دولت‌ها و نهاد‌های خصوصی مواجه شده‌اند که ناشی از سخنان غیرخشونت‌آمیز و طرفدار فلسطین است. این موارد شامل فشار یا محدودیت‌های غیرموجه بر آزادی آکادمیک و دعوت‌نکردن از کارشناسان فلسطینی برای مصاحبه‌های رسانه‌ای و کنفرانس‌ها است. همچنین محدودیت‌هایی برای تظاهرات مسالمت‌آمیز به نفع فلسطین وجود داشته است. شیوه‌های تنبیهی علیه کسانی که همبستگی خود را با فلسطینی‌ها ابراز می‌کنند یا جنایات جنگی رژیم صهیونیستی در غزه را مورد انتقاد قرار می‌دهند، چالش‌های جدی برای آزادی بیان در زمان بحران و قطب‌بندی بر سر رویداد‌های ۷ اکتبر و پس از آن ایجاد می‌کند.

 

سازمان Palestine Legal که از حقوق مدنی و قانونی افرادی در آمریکا که در راستای آزادی فلسطینیان صحبت می‌کنند، حمایت می‌کند، بین ۷ اکتبر ۲۰۲۳ و ۱۵ نوامبر ۲۰۲۳ بیش از ۶۰۰ درخواست حمایت دریافت کرده است. این سازمان گزارش داده که موج بی‌سابقه‌ای از تبعیض در محل کار را مشاهده کرده و بیش از ۲۸۰ ادعای مربوط به نگرانی‌های شغلی دریافت کرده که بیش از ۶۰ مورد از آنها شامل افرادی است که گفته‌اند از شغل خود اخراج شده‌اند.

 

به علاوه، مقامات در کشور‌های مختلف اروپایی در برخی مواقع از تاریخ ۷ اکتبر ۲۰۲۳ محدودیت‌های بیش از حدی بر روی اعتراضات و سخنرانی‌های حامی فلسطین اعمال کرده‌اند. مقامات فرانسوی یک ممنوعیت کلی بر روی اعتراضات حامی فلسطین وضع کردند که این اقدام در تاریخ ۱۸ اکتبر ۲۰۲۳ (۲۶ مهر ۱۴۰۲) توسط شورای دولتی، بالاترین دادگاه اداری فرانسه لغو شد. قبل از این تصمیم، مقامات فرانسوی ۶۴ اعتراض درباره فلسطین را ممنوع کرده بودند.

 

از ماه اکتبر، مقامات آلمان برخی از تظاهرات‌های حامی فلسطین را ممنوع کرده و اجازه برگزاری برخی دیگر را داده‌اند که این موضوع نگرانی کمیسر ضد صهیونیسم این کشور را به همراه داشته است. او اشاره کرده که تظاهرات یک حق اساسی است. در تاریخ ۱۳ اکتبر ۲۰۲۳ (۲۱ مهر ۱۴۰۲) مقامات آموزشی در برلین به مدارس تاکید کردند که از دانش‌آموزان بخواهند از پوشیدن چفیه فلسطینی و نمایش برچسب‌های «فلسطین آزاد» خودداری کنند که این موضوع نگرانی‌هایی را درباره حق آزادی بیان و احتمال تبعیض به وجود آورده است.

 

ممنوعیت‌های مربوط به تظاهرات حامی فلسطین در اتریش، مجارستان و سوئیس گزارش شده است.

 

در انگلیس، پلیس لندن به طور کلی از رویکردی دقیق نسبت به تظاهرات حامی فلسطین از تاریخ ۷ اکتبر استفاده کرده است، از جمله در رابطه با استفاده از شعار‌ها در تظاهرات که در سایر نقاط اروپا به عنوان توجیهی برای ممنوعیت‌ها ذکر شده است. این موضوع با وجود فشار سیاسی بر پلیس از سوی وزیر کشور وقت انگلیس که خواستار استفاده از تمام قدرت قانون در زمینه تظاهرات حامی فلسطین بود، اتفاق افتاده و همچنین بیانیه‌ای از وزیر خارجه پیشین انگلیس که در اکتبر از حامیان فلسطین خواسته بود در خانه بمانند. وزیر مهاجرت وقت انگلیس نیز اعلام کرد که بازدیدکنندگان از کشور در صورتی که ضد یهودی‌گری را تحریک کنند، اخراج خواهند شد.

 

*وعده‌های نقض‌شده «متا»

 

«متا» مدت‌هاست از این موضوع آگاه است که سیاست‌هایش منجر به خاموشی صدای فلسطینی‌ها و حامیان آنها در سکوهایش شده است. سال‌ها، سازمان‌های حقوق دیجیتال و حقوق‌بشر از منطقه به‌ویژه ۷amleh در حال مستندسازی و جلب توجه «متا» به تأثیر منفی نامتناسبی هستند که تعدیل محتوای آن بر فلسطینی‌ها دارد. سازمان‌های حقوق‌بشر و دیگران به این شرکت اشاره کرده‌اند که مشکلات ساختاری دارد، مانند نقص‌ها در سیاست سازمان‌ها و افراد خطرناک (DOI)، اجرای نامنظم و غیرشفاف قوانین آن، تأثیر دولت‌های مختلف بر حذف محتوای داوطلبانه و وابستگی زیاد به اتوماسیون برای حذف، تعدیل و سرکوب محتوا.

 

زمانی که خشونت در منطقه افزایش می‌یابد و مردم به رسانه‌های اجتماعی روی می‌آورند تا نقض حقوق بشر را مستند کنند، درباره آن بحث کنند، آگاهی ایجاد کنند و آن را محکوم کنند و در مباحثات سیاسی شرکت کنند، حجم محتوا به طرز چشمگیری افزایش می‌یابد و در همین راستا سطح و شدت سانسور نیز افزایش می‌یابد.

 

رویداد‌های مه ۲۰۲۱ نماد این رویداد هستند؛ زمانی که برنامه‌های اشغالگرانه مقامات صهیونیست برای تصرف خانه‌های فلسطینیان در محله «شیخ جراح» در قدس اشغالی، اعتراضات و تشدید خشونت را در برخی از نقاط سرزمین‌های اشغالی فلسطین به دنبال داشت، مردم در استفاده از شبکه‌های اجتماعی برای ابراز نظر با سانسور شدید مواجه شدند. در تاریخ ۷ مه ۲۰۲۱، گروهی متشکل از ۳۰ سازمان حقوق‌بشری و حقوق دیجیتال، شرکت‌های شبکه‌های اجتماعی را به خاطر خاموش‌کردن نظام‌مند نظرات کاربران معترض و مستندکننده اخراج خانواده‌های فلسطینی از خانه‌هایشان در محله «شیخ جراح» محکوم کردند. 

 

در اکتبر ۲۰۲۱، سازمان دیده‌بان حقوق‌بشر گزارشی منتشر کرد که سانسور فیس‌بوک در مورد بحث‌های مربوط به مسائل حقوق‌بشر مرتبط با رژیم صهیونیستی و فلسطین را مستند کرد و هشدار داد که «متا» بسیاری از افراد را بدون توضیح ساکت می‌کند و برخی از همان عدم تعادل‌های قدرت و نقض‌های حقوقی که در واقعیت مشاهده می‌کنیم را به صورت برخط تکرار می‌کند.

 

در آن زمان، فیس‌بوک به چندین مشکل که بر فلسطینی‌ها و محتوای آنها تأثیر می‌گذارد و همچنین بر افرادی که در سطح جهانی درباره مسائل فلسطین صحبت می‌کنند، اذعان کرد. هر چند برخی از این مشکلات را به اشکالات فنی و خطای انسانی نسبت داد. با این حال، این مسائل روشن‌کننده دامنه محدودیت‌ها و سرکوب محتوایی نبود که دیده‌بان حقوق‌بشر مشاهده کرده بود. فیس‌بوک در نامه‌ای به دیده‌بان حقوق‌بشر اعلام کرد که قبلاً بابت تأثیری که این اقدامات بر جامعه [متا]در فلسطین و بر کسانی که درباره مسائل فلسطینی صحبت می‌کنند، داشته است، عذرخواهی کرده است.

 

در پاسخ به سال‌ها درخواست سازمان‌های دیجیتال و حقوق‌بشر و همچنین توصیه هیئت نظارت «متا» برای بررسی مستقل سیاست‌های تعدیل محتوای این شرکت، «متا» یک تحقیق مستقل را برای تعیین اینکه آیا تعدیل محتوا در فیس‌بوک به زبان‌های عربی و عبری، از جمله استفاده از اتوماسیون، بدون تعصب انجام شده است، آغاز کرد. در سپتامبر ۲۰۲۲، سازمان «کسب و کار برای مسئولیت اجتماعی» (BSR) که یک شبکه و مشاوره کسب و کار پایدار است، یافته‌های خود را در گزارش «بررسی حقوق‌بشر از تأثیرات متا در سرزمین‌های اشغالی و فلسطین در ماه مه ۲۰۲۱» منتشر کرد.

 

گزارش به این نتیجه رسید که به نظر می‌رسد اقدامات «متا» تأثیر منفی بر حقوق‌بشر کاربران فلسطینی در زمینه آزادی بیان، آزادی تجمع، مشارکت سیاسی و عدم تبعیض داشته و بنابراین بر توانایی فلسطینی‌ها برای به اشتراک‌گذاری اطلاعات و تجربیات خود در زمان وقوع تأثیر گذاشته است. گزارش سازمان «کسب و کار برای مسئولیت اجتماعی» (BSR) موارد مختلفی را شناسایی کرد که در آن سیاست‌ها و رویه‌های «متا» همراه با دینامیک‌های خارجی گسترده‌تر، منجر به تأثیرات متفاوتی بر حقوق بشر کاربران فلسطینی و همچنین سایر کاربران عرب‌زبان شده است.

 

در پاسخ به توصیه‌های هیئت نظارت، گزارش سازمان «کسب و کار برای مسئولیت اجتماعی» (BSR) و تعامل با جامعه مدنی در طول سال‌ها، «متا» چندین تعهد برای رسیدگی به نگرانی‌های مربوط به سانسور مرتبط با فلسطین انجام داد. با این حال، شواهدی که سازمان دیده‌بان حقوق‌بشر در این گزارش از سانسور و سرکوب محتوای مربوط به فلسطینی‌ها و حامیان آنها مستند کرده، ناشی از همان نگرانی‌های بنیادی است که در سال ۲۰۲۱ و قبل‌تر بروز کرده و نشان می‌دهد که «متا» به وعده‌هایی که دو سال پیش داده بود، عمل نکرده است.

 

به عنوان مثال، «متا» متعهد به بهبود سیاست DOI خود شده که قاعده‌ای در مورد محتوا‌های مربوط به تروریست‌ها و دیگر نهاد‌های خطرناک است و در مرکز بسیاری از حذف محتوا‌ها و محدودیت‌های حساب‌های کاربری مرتبط با فلسطین قرار دارد. سیاست DOI حضور سازمان‌ها یا افرادی که مأموریت خشونت‌آمیز را اعلام می‌کنند یا در خشونت درگیر هستند را در «متا» ممنوع می‌کند.

 

سیاست DOI همچنین ستایش و حمایت اساسی از گروه‌ها یا افراد در سکو‌های «متا» را ممنوع می‌کند. این اصطلاحات مبهم و گسترده می‌توانند شامل ابراز نظری شوند که تحت قوانین بین‌المللی حقوق‌بشر محافظت می‌شود. در دامنه و کاربرد خود، سیاست DOI به طور مؤثری تأیید بسیاری از جنبش‌های سیاسی بزرگ فلسطینی را ممنوع کرده و بحث درباره جنگ کنونی را سرکوب می‌کند. «متا» در سال ۲۰۲۲ توافق کرده بود که سیاست را اصلاح کند تا به مردم اجازه دهد به طور آزادانه‌تری در مباحث اجتماعی و سیاسی شرکت کنند، ممنوعیت ستایش از نهاد‌های DOI را حذف کند و مجازات‌های ناشی از سیاست DOI را متناسب با تخلف تعیین کند.

 

گزارش‌های مستندشده توسط سازمان دیده‌بان حقوق‌بشر نشان می‌دهد که حذف نادرست نظرات طرفدار فلسطینی از سوی «متا» منجر به سانسور گفتگو‌ها و محتوای اجتماعی و سیاسی شده که به مستند کردن یا واکنش به خصومت‌ها بین رژیم صهیونیستی مردم فلسطین از جمله غزه می‌پردازد و شامل اشتراک‌گذاری تحولات میدانی یا ابراز همبستگی با فلسطینی‌ها می‌شود.

 

«متا» در ماه‌های اوت و اکتبر ۲۰۲۱ متعهد شد که شفافیت بیشتری در مورد درخواست‌های دولتی برای حذف محتوا تحت استاندارد‌های جامعه خود افزایش دهد، از جمله درخواست‌های واحد سایبری رژیم صهیونیستی و همچنین واحد‌های ارجاع اینترنتی (IRU) در کشور‌های دیگر. 

 

درخواست‌های IRU مستعد سوءاستفاده هستند، زیرا خطر دور زدن رویه‌های قانونی را دارند، فاقد شفافیت و پاسخگویی هستند و به کاربران دسترسی به یک راه حل مؤثر را ارائه نمی‌دهند.

 

بر اساس گزارش‌های رسانه‌ای در تاریخ ۱۴ نوامبر، واحد سایبری رژیم صهیونیستی از تاریخ ۷ اکتبر سال گذشته میلادی، ۹ هزار و ۵۰۰ درخواست حذف محتوا به «متا» و سایر سکو‌ها ارسال کرده که ۶۰ درصد آن به «متا» مربوط می‌شود. طبق گفته یک مقام صهیونیست، سکو‌ها با نرخ انطباق ۹۴ درصدی به این درخواست‌ها پاسخ داده‌اند. دو سال پس از تعهد خود به افزایش شفافیت، «متا» هیچ پیشرفت معناداری در اطلاع‌رسانی به کاربران یا سایر اعضای جامعه در مورد چگونگی تأثیر درخواست‌های دولتی بر محتوای حذف‌شده از اینستاگرام و فیس‌بوک نداشته است.

 

«متا» همچنین در سال ۲۰۲۱ متعهد شد که شفافیت بیشتری را در مورد اقدامات اجرایی خود به کاربران ارائه دهد، از جمله محدود کردن برخی ویژگی‌ها و کاهش دید حساب‌ها در حین جستجوی برخط کاربران و ارتباط واضح در مورد اقدامات اجرایی. با این حال، یکی از شکایات عمده‌ای که سازمان دیده‌بان حقوق‌بشر در تحقیق برای این گزارش دریافت کرد، این بود که کاربران بدون هشدار، امکانات حساب خود را از دست می‌دادند.

 

این گزارش نشان می‌دهد که وعده‌های نقض‌شده «متا» نه تنها منجر به تکرار الگو‌های گذشته سوءاستفاده‌ها شده، بلکه آنها را تشدید کرده است. سانسور کردن صدا‌ها و روایت‌های فلسطینی‌ها و کسانی که با آنها همبستگی نشان می‌دهند، تنها بر افرادی که پست‌ها و حساب‌هایشان محدود شده تأثیر نمی‌گذارد.

 

این گزارش به این موضوع اشاره دارد که اطلاعاتی که بقیه جهان در مورد تحولات در اراضی اشغالی و فلسطین دسترسی دارند، کاهش می‌یابد. این در حالی است که دبیرکل سازمان ملل و کارشناسان حقوق‌بشر آن با نگرانی فزاینده‌ای هشدار می‌دهند که فلسطینیان در غزه با یک فاجعه انسانی مواجه هستند. عدم اقدام قاطع «متا» در پاسخ به توصیه‌های هیئت نظارت خود، با وجود سال‌ها تعامل با جامعه مدنی، به این معناست که این شرکت نتوانسته مسئولیت‌های حقوق‌بشری خود را برآورده کند.

 

*یافته‌های اصلی

 

از ۷ اکتبر، سازمان دیده‌بان حقوق‌بشر بیش از هزار مورد از حذف‌های غیرموجه و سایر سرکوب‌های محتوا در اینستاگرام و فیس‌بوک مرتبط با فلسطین و فلسطینی‌ها را مستند کرده است؛ از جمله مواردی درباره نقض حقوق‌بشر. این موارد اشکال مختلفی از سانسور پست‌ها و حساب‌های کاربری را که به مستندسازی، محکوم‌کردن و افزایش آگاهی درباره خصومت‌های بی‌سابقه و جاری علیه فلسطینیان می‌پردازند، تشریح می‌کند. سانسور محتوای مرتبط با فلسطین در اینستاگرام و فیس‌بوک نظام‌مند، جهانی و نتیجه ناتوانی شرکت در انجام مسئولیت‌های مربوط به دقت در حقوق‌بشر است.

 

متن مستند شامل محتوایی است که از بیش از ۶۰ کشور در سراسر جهان، عمدتاً به زبان انگلیسی منشأ گرفته و پیام‌های متنوعی را منتقل می‌کند در حالی که یک ویژگی مشترک دارد: ابراز صلح‌آمیز حمایت از فلسطین یا فلسطینی‌ها.

 

در بررسی شواهد و زمینه‌های مرتبط با هر مورد گزارش‌شده، سازمان دیده‌بان حقوق‌بشر الگو‌های کلیدی سانسور را شناسایی کرد که هر یک در حداقل صد مورد تکرار شده است، از جمله: ۱) حذف پست‌ها، داستان‌ها و نظرات ۲) تعلیق یا غیرفعال‌سازی دائمی حساب‌ها ۳) محدودیت در توانایی تعامل با محتوا مانند لایک کردن، نظر دادن، به اشتراک‌گذاری و بازنشر داستان‌ها برای یک دوره خاص که از ۲۴ ساعت تا سه ماه متغیر است ۴) محدودیت در توانایی دنبال‌کردن یا برچسب‌زدن حساب‌های دیگر ۵) محدودیت در استفاده از برخی ویژگی‌ها مانند پخش زنده اینستاگرام/فیس‌بوک، درآمدزایی و توصیه حساب‌ها به غیر دنبال‌کنندگان و ۶) ممنوعیت سایه‌ای که به کاهش قابل توجه در دیدگاه پست‌ها، داستان‌ها یا حساب یک فرد بدون اطلاع‌رسانی به دلیل کاهش توزیع یا دسترسی به محتوا یا غیرفعال‌سازی جستجو برای حساب‌ها تعریف می‌شود.

 

برخی از کاربران گزارش دادند که محدودیت‌های متعددی به طور همزمان بر روی حساب کاربری آنها اعمال شده است. به عنوان مثال، برخی از کاربرانی که نظراتشان به دلیل نقض سیاست هرزنامه «متا» حذف شده بود که محتوایی را که به منظور فریب یا تلاش برای گمراه کردن کاربران به منظور افزایش بازدید طراحی شده است، ممنوع می‌کند سپس قادر به نظر دادن در هیچ پستی نبودند. در برخی موارد، این کاربران همچنین از مشکوک بودن به «ممنوعیت سایه‌ای» بر اساس کاهش مشهود در بازدید‌ها و تعاملات با محتوای خود خبر دادند. برخی از کاربران شواهدی ارائه دادند که «متا» نتوانسته مشخص کند کدام یک از سیاست‌های آنها نقض شده است.

 

در طول دوره تحقیق برای این گزارش، سازمان دیده‌بان حقوق‌بشر مواردی را به‌طور مداوم دریافت کرد و همان کاربران گاهی اوقات محدودیت‌های بعدی در سکو را گزارش کردند که نشان‌دهنده تشدید تدریجی نوع محدودیت‌های اعمال‌شده بر محتوای آنها یا حساب کاربری‌شان بود. به عنوان مثال، حذف مکرر نظرات با محدودیت‌هایی در دسترسی به ویژگی‌هایی مانند پخش زنده و هشداری مبنی بر اینکه حساب ممکن است معلق یا به‌طور دائمی غیرفعال شود، دنبال شد. هرچه تعداد ضربه‌ها که کاربر جمع‌آوری می‌کرد بیشتر بود، محدودیت بعدی بر محتوای آنها یا حساب کاربری‌شان سریع‌تر اعمال می‌شد. یک کاربر الگوی این روند را توصیف کرد:

 

«متوجه شدم که بسیاری از نظرات من در اینستاگرام به طور خودکار به عنوان هرزنامه حذف می‌شوند. در ابتدا، فرآیند علامت‌گذاری به عنوان هرزنامه چند ساعت پس از ارسال نظرات من اتفاق می‌افتاد و روز بعد تقریباً بلافاصله انجام می‌شد. سپس دیگر نمی‌توانستم پست‌های خبری درباره فلسطین را لایک کنم. بیش از ۱۲ بار تلاش کردم و هرگز موفق نشدم. می‌توانستم داستان‌های دیگر این کاربر را لایک کنم. در نهایت، حتی نمی‌توانستم به نظراتی که در پست‌های خودم گذاشته شده بود پاسخ دهم.»

 

به علاوه، اکثر افرادی که موارد را به سازمان دیده‌بان حقوق‌بشر گزارش کردند، گفتند که این اولین بار است که از زمان پیوستن به سکو‌های «متا» محدودیت‌هایی را تجربه می‌کنند. در هر مورد، سانسور به‌طور خاص به محتوای حامی فلسطینی‌ها از تاریخ ۷ اکتبر مربوط می‌شد. برخی از کاربران نمونه‌هایی از محتوای توهین‌آمیز که به خشونت دامن می‌زد یا شامل سخنرانی نفرت‌پراکنانه علیه فلسطینی‌ها بود را گزارش کردند که همچنان برخط باقی مانده بود، در حالی که محتوای به‌ظاهر صلح‌آمیز که از حقوق‌بشر فلسطینی‌ها حمایت می‌کرد، گاهی اوقات در همان پست حذف می‌شد.

 

با گذشت زمان، کاربرانی که مواردی را به سازمان دیده‌بان حقوق‌بشر گزارش داده‌اند، گفتند که این موضوع باعث تغییر رفتار یا تعامل مجازی آنها شده تا با محدودیت‌ها سازگار شوند و در واقع خودسانسوری کنند تا از جریمه‌های تحمیلی توسط سکو در امان بمانند. کاربران این موضوع را به عنوان عاملی در ایجاد احساس نارضایتی نسبت به آنچه که به عنوان بی‌عدالتی یا تعصب از سوی شرکت برداشت می‌کردند، توصیف کردند. یک نفر گفت که به دلیل اینکه نمی‌خواهم خودم را در رادار «متا» قرار دهم، به حذف محتوا اعتراض نکرده ام. کاربران اینستاگرام همچنین از زبان رمزگذاری‌شده، مانند غلط‌های عمدی املایی و نمادها، استفاده می‌کنند تا بخشی از تلاش خود برای فرار از سانسور سکو ناشی از نظارت خودکار بر محتوای مرتبط با فلسطین باشد.

 

در بسیاری از موارد، کاربران گفتند که هیچ هشدار یا اطلاعیه‌ای مبنی بر تعلیق یا غیرفعال شدن حساب کاربری‌شان دریافت نکرده‌اند یا اینکه «متا» استفاده از برخی ویژگی‌ها را برای آنها ممنوع کرده است. در مواردی که به «ممنوعیت سایه‌ای» مشکوک بودند، کاربران گفتند که هرگز از سوی سکو مطلع نشده‌اند که قابلیت مشاهده محتوای آنها کاهش یافته است. در حالی که برخی از ادعا‌های «ممنوعیت سایه‌ای» با شواهد قانع‌کننده‌ای مبنی بر اینکه حساب آنها تعلیق شده، پشتیبانی می‌شد. بسیاری از کاربران بر اساس یک احساس یا پس از مشاهده تغییرات ناگهانی در تعداد بازدید‌ها از داستان‌هایشان نتیجه‌گیری کردند که تعلیق شده‌اند.

 

در تاریخ ۱۸ اکتبر ۲۰۲۳ (۲۷ مهر ۱۴۰۲) «متا» اعلام کرد که یک اشکال را که به طور قابل توجهی دسترسی به استوری‌هایی که ریلز و پست‌های فید را در اینستاگرام بازنشر می‌کردند، کاهش داده بود، برطرف کرده است. با این حال، کاربران پس از آن تاریخ به گزارش و مستندسازی موارد ممنوعیت سایه‌ای ادامه دادند. به دلیل عدم شفافیت «متا» در مورد مسئله ممنوعیت سایه‌ای، مولفه‌های این محدودیت نامشخص باقی مانده و از آنجا که کاربران از هرگونه اقدام انجام شده بر روی حساب یا محتوای خود مطلع نمی‌شوند، کاربر بدون راه‌حلی باقی می‌ماند.

 

در مواردی که حذف یا محدودیت‌های مربوط به محتوا و حساب‌ها با اطلاع‌رسانی به کاربر همراه بود، دلایل عمده‌ای که «متا» به آنها استناد کرده، نقض دستورالعمل‌های جامعه (اینستاگرام) یا استاندارد‌ها (فیس‌بوک) بوده است، به‌ویژه مواردی که به سازمان‌ها و افراد خطرناک (DOI)، موضوعات غیراخلاقی و جنسی، محتوای خشونت‌آمیز و گرافیکی و هرزنامه مربوط می‌شود. در میان این نقض‌ها، سیاست هرزنامه به‌طور مکرر توسط اینستاگرام و فیس‌بوک در موارد مستند شده توسط دیده‌بان حقوق‌بشر استناد شده است. در بررسی این موارد، دیده‌بان حقوق‌بشر موارد مکرر از احتمال اعمال نادرست سیاست هرزنامه را یافت که منجر به سانسور محتوای مرتبط با فلسطین شده است.

 

سیاست‌های مربوط به نفرت‌پراکنی، آزار و اذیت و خشونت و تحریک در مواردی که دیده‌بان حقوق‌بشر مستند کرده، کمتر به کار گرفته شده‌اند، اما تعداد کمی از مواردی که در آنها اعمال شده‌اند، به عنوان اشتباهات برجسته شده‌اند. به عنوان مثال، پستی از یک کاربر فیسبوک که گفت: «چگونه می‌توان از کشتن نوزادان و غیرنظامیان بی‌گناه حمایت کرد» تحت استاندارد‌های اجتماعی به بهانه آزار و اذیت حذف شد. کاربر دیگری تصویری از یک کودک شهید در بیمارستانی در غزه را در اینستاگرام منتشر کرد با این نظر که رژیم صهیونیستی بیمارستانی در شهر غزه را بمباران کرده و بیش از ۵۰۰ نفر را کشته است» که این پست نیز به بهانه خشونت و تحریک حذف شد.

 

در بیش از ۳۰۰ مورد مستندشده توسط سازمان دیده‌بان حقوق‌بشر، کاربران گزارش داده و شواهدی ارائه کردند مبنی بر اینکه نتوانسته‌اند به محدودیت‌های اعمال شده بر حساب خود در سکو (اینستاگرام یا فیس‌بوک) اعتراض کنند. این موضوع نشان می‌دهد که دکمه «به ما بگویید» یا کار نمی‌کرد یا وقتی روی آن کلیک می‌شد به جایی نمی‌رفت و گزینه «فکر می‌کنید که ما اشتباه کرده‌ایم؟» غیرفعال بود یا در دسترس نبود. این وضعیت کاربران را از گزارش نقض‌های احتمالی سکو بازداشت و بدون دسترسی به یک راه‌حل مؤثر باقی گذاشت.

 

*مثال‌های گویا

 

«از نهر تا بحر»

 

شعار «از نهر تا بحر، فلسطین آزاد خواهد شد» در اعتراضات به نفع فلسطینی‌ها در سرتاسر جهان طنین‌انداز شده است. در صد‌ها مورد مستند شده توسط سازمان دیده‌بان حقوق‌بشر، این شعار و همچنین نظراتی مانند «فلسطین را آزاد کنید»، «آتش‌بس اکنون» و «نسل‌کشی را متوقف کنید» به طور مکرر توسط اینستاگرام و فیس‌بوک تحت عنوان هرزنامه حذف شده‌اند.

 

این نظرات و زمینه‌ای که در آن استفاده می‌شوند به وضوح نه هرزنامه هستند و نه به نظر می‌رسد که هرگونه نقض دیگری از دستورالعمل‌ها یا استاندارد‌های فیسبوک یا اینستاگرام را انجام دهند. به عنوان مثال، کلمات موجود در هر یک از این عبارات به خودیِ خود تحریک به خشونت، تبعیض یا خصومت نمی‌کنند. «متا» توضیح خاصی ارائه نکرده است. در ده‌ها مورد، حذف محتوا با محدودیت‌هایی در توانایی کاربران برای تعامل با هر محتوای دیگری در اینستاگرام و فیسبوک همراه بود.

 

ایموجی پرچم فلسطین

 

پرچم فلسطین که به طور مکرر در سراسر جهان برای ابراز همبستگی با فلسطین استفاده می‌شود، در اینستاگرام و فیس‌بوک تحت سانسور قرار گرفته است. در یک مورد، یک کاربر اینستاگرام هشدار دریافت کرد که نظری که او منتشر کرده، ممکن است برای دیگران آسیب‌زا باشد. نظری که سازمان دیده‌بان حقوق‌بشر آن را بررسی کرد، فقط شامل یک سری ایموجی‌های پرچم فلسطین بود. در موارد دیگر، «متا» پرچم فلسطین را از بخش نظرات پنهان کرد یا آن را به این دلیل حذف کرد که دیگران را آزار یا هدف قرار می‌دهد.

 

در ماه اکتبر، اینستاگرام بابت افزودن کلمه «تروریست» به برخی از پروفایل‌های عمومی کاربران فلسطینی که از کلمه عربی «الحمدلل» و ایموجی پرچم فلسطین استفاده کرده بودند، عذرخواهی کرد. «متا» اعلام کرد که این سانسور ناشی از یک نقص فنی بوده است. این مشکل زمانی به وجود آمد که ویژگی ترجمه خودکار اینستاگرام، بیوگرافی‌هایی که شامل کلمه «فلسطینی» به زبان عربی، ایموجی پرچم فلسطین و کلمه «الحمدلله» بودند را به عنوان تروریستی ترجمه کرد.

 

«اندی استون» سخنگوی «متا» در گفتگو با رسانه آمریکایی «اینترسپت» گفت که این شرکت هیچ سیاست جدیدی خاص ایموجی‌های پرچم ایجاد نکرده است. 

 

«اندی استون» بیان کرد که «متا» استاندارد متفاوتی برای اجرای قوانین در مورد ایموجی پرچم فلسطین ندارد.

 

نام «حماس» سانسور شد

 

سازمان دیده‌بان حقوق‌بشر صد‌ها مورد را مستند کرده که در آنها تن‌ها ذکر بی‌طرفانه حماس در اینستاگرام و فیس‌بوک باعث فعال شدن سیاست DOI شده و به‌طور فوری پست‌ها، داستان‌ها، نظرات و ویدئو‌ها حذف شده و حساب‌های کاربری که این محتوا را منتشر کرده بودند، محدود شده‌اند. در حالی که سیاست DOI اجازه می‌دهد که درباره سازمان‌ها یا افراد تعیین‌شده گزارش‌نویسی، بحث بی‌طرفانه یا محکومیت انجام شود، همچنین بیان می‌کند که اگر نیت کاربر مبهم یا نامشخص باشد، ما به‌طور پیش‌فرض محتوا را حذف می‌کنیم. همه مواردی که سازمان دیده‌بان حقوق‌بشر بررسی کرده، نشان می‌دهد که «متا» حتی ذکر بی‌طرفانه حماس را در ارتباط با تحولات غزه حذف کرده است.

 

تعلیق و حذف حساب‌های برجسته فلسطینی

 

از تاریخ ۷ اکتبر، اینستاگرام و فیس‌بوک در چندین مورد حساب‌های کاربری برجسته‌ای از جمله تولیدکنندگان محتوا، روزنامه‌نگاران مستقل و فعالان فلسطینی را به حالت تعلیق درآورده یا به‌طور دائمی غیرفعال کرده‌اند. «احمد شهاب‌الدین» روزنامه‌نگار فلسطینی در تاریخ ۱۸ نوامبر ۲۰۲۳ (۲۷ آبان ۱۴۰۲) گزارش داد که از تاریخ ۷ اکتبر، پنج بار دسترسی به حساب اینستاگرام خود را که نزدیک به یک میلیون دنبال‌کننده دارد، از دست داده است. «شهاب‌الدین» به‌طور مکرر درباره فلسطین پست می‌گذارد. او گفت که نتوانسته به ابزاری که به او اجازه می‌دهد تخلفات احتمالی حسابش را مشاهده کند، دسترسی پیدا کند و دیگر کاربران هنگام تلاش برای برچسب زدن او در یک پست، پیامی هشداردهنده دریافت کردند مبنی بر اینکه حساب او به‌طور مکرر اطلاعات نادرست منتشر کرده یا با دستورالعمل‌های جامعه مغایرت دارد.

 

سایر حساب‌ها، از جمله حساب اینستاگرام «بیایید درباره فلسطین صحبت کنیم» که محتوای آموزشی درباره فلسطین منتشر می‌کند، گزارش دادند که به‌طور موقت معلق شده‌اند. «متا» اعلام کرد: این حساب‌ها در ابتدا به دلایل امنیتی و پس از مشاهده نشانه‌هایی از نفوذ قفل شدند و ما در حال تلاش برای برقراری تماس با صاحبان حساب‌ها هستیم تا اطمینان حاصل کنیم که به آنها دسترسی دارند. شبکه خبری «قدس» مستقر در فلسطین گزارش داد که صفحه فیسبوکش به طور دائمی حذف و حساب اینستاگرامش هم معلق شده است. 

 

«لیلا واره» خبرنگاری که در کرانه باختری مستقر است، در اکتبر گزارش داد که حساب اینستاگرامش معلق شده است. پس از اینکه «لیلا واره» معلق‌شدن حسابش را عمومی کرد، این حساب به سرعت دوباره فعال شد، اما خیلی زود دوباره معلق و روز بعد دوباره فعال شد.

 

انتقاد از رژیم صهیونیستی «سخنان نفرت‌پراکنانه» و «خطرناک» تعبیر می‌شود

 

بسیاری از کاربران گزارش دادند که پست‌هایشان در اینستاگرام زمانی که به انتقاد از رژیم صهیونیستی، از جمله «بنیامین نتانیاهو» پرداخته‌اند، حذف شده است. «متا» این پست‌ها را تحت قوانین خود در مورد «سازمان‌ها یا افراد خطرناک» و «سخنان نفرت‌پراکنانه» حذف کرده است.

 

علاوه بر این، چندین حساب که محتوای آموزشی درباره حماس و اطلاعات پس‌زمینه‌ای در مورد حقوق‌بشر فلسطینیان را به اشتراک می‌گذاشتند، تحت سیاست DOI «متا» حذف شدند. بررسی‌های سازمان دیده‌بان حقوق‌بشر نشان داد که این پست‌ها نه حماس را ستایش می‌کردند و نه از آن حمایت می‌کردند، بلکه هدف آنها ارائه اطلاعات بود.

 

فراخوان دیده‌بان حقوق‌بشر برای ارائه شواهد سانسور

 

ده‌ها کاربر گزارش دادند که قادر به بازنشر، لایک یا نظر دادن در مورد پست دیده‌بان حقوق‌بشر که خواستار ارائه شواهدی از سانسور برخط بود، نیستند. این پست به عنوان هرزنامه علامت‌گذاری شده و در برخی موارد، تحت DOI پرچم‌گذاری شده است. به عنوان مثال، یک حساب کاربری درباره درخواست دیده‌بان حقوق‌بشر برای مستندات سانسور پستی منتشر و یک آدرس ایمیل برای ارسال شواهد به ما ارسال کرد. اینستاگرام نظر را حذف و به نقض دستورالعمل‌های جامعه خود اشاره کرد.

 

سایه ممنوعیت

 

در حالی که «ممنوعیت سایه‌ای» نوعی محدودیت است که توسط چندصد کاربر گزارش شده، تأیید آن دشوار است. بخشی از این دشواری به دلیل عدم اطلاع‌رسانی سکو در مورد وقوع آن است. با این حال، برخی از کاربران شواهد قانع‌کننده‌ای برای اثبات ادعای خود ارائه کردند.

 

این شامل عکس‌های صفحه از قبل و بعد است که کاهش چشمگیر تعداد بازدید‌ها را پس از شروع کاربر به انتشار محتوای مربوط به فلسطین نشان می‌دهد. عکس‌های صفحه از معیار‌های تعامل، مانند لایک‌ها، نظرات و اشتراک‌گذاری‌ها که کاهش ناگهانی و قابل توجهی در تعامل با محتوای مرتبط با فلسطین را نشان می‌دهد همچنین عکس‌های صفحه که نشان می‌دهد حساب یا محتوا در نتایج جستجو ظاهر نمی‌شود، کاهش قابل توجهی در تعداد دنبال‌کنندگان جدید و نشان‌دادن اینکه محتوا برای دیگران قابل مشاهده نیست.

 

محتوای مضری که برخط باقی مانده است

 

در حالی که محتوایی که همچنان برخط باقی مانده، خارج از دامنه تحقیق ماست، بسیاری از کاربران شواهدی از محتوای ضد فلسطینی و اسلام‌هراسانه را ثبت کردند که حتی پس از گزارش آن به اینستاگرام و فیس‌بوک، همچنان برخط باقی مانده بود. 

 

*مشارکت‌کنندگان اصلی در سانسور «متا»

 

سیاست خطرناک برای مباحث عمومی

 

سازمان دیده‌بان حقوق‌بشر صد‌ها مورد را مستند کرده که در آنها «متا» سیاست DOI را به گونه‌ای اعمال کرده که منجر به سرکوب سخنرانی‌های مسالمت‌آمیز در موضوعات مرتبط با جنگ غزه شده است. از آنجا که محتوای مسالمت‌آمیز به اشتباه محدود شده، پاسخ‌های استاندارد «متا» به طور اجتناب‌ناپذیری نامتناسب بوده است.

 

سازمان‌های حقوق‌بشر و حقوق دیجیتال بار‌ها به نقش سیاست DOI در خاموش‌کردن صدای فلسطینی‌ها اشاره کرده‌اند. گزارشگر ویژه سازمان ملل در زمینه ترویج و حفاظت از حقوق‌بشر و آزادی‌های بنیادی در حین مقابله با تروریسم نگرانی خود را ابراز کرده که این سیاست با حقوق‌بشر بین‌المللی، از جمله حقوق آزادی بیان، مشارکت در امور سیاسی و رفع تبعیض سازگار نیست.

 

به طور مشابه، گزارشگر ویژه سازمان ملل در مورد آزادی عقیده و بیان هشدار داد که ممنوعیت‌های شرکت‌ها در مورد تهدید یا ترویج تروریسم، حمایت یا ستایش از سران سازمان‌های تروریستی و محتوایی که اعمال تروریستی را ترویج یا به خشونت تحریک می‌کند، مانند قوانین ضدتروریسم، به طور غیرمعمولی مبهم است. حتی هیئت نظارت خود «متا» نیز توصیه کرده که این شرکت باید تغییراتی در سیاست خود ایجاد کند تا از سانسور سخنرانی‌های محافظت‌شده جلوگیری کند.

 

مشکلات مربوط به سیاست DOI چندلایه است و شامل نحوه تشکیل فهرست، موارد تحت پوشش این سیاست و اجرای آن می‌شود. همان‌طور که قبلاً اشاره شد، تعیین افراد و نهاد‌ها توسط «متا» تحت سیاست DOI به شدت به فهرست‌های تروریستی آمریکا وابسته است. 

 

«متا» این کار را انجام می‌دهد، حتی با وجود اینکه طبق اطلاعات عمومی موجود، قانون آمریکا گروه‌های موجود در این فهرست را از استفاده از رسانه‌های اجتماعی رایگان و در دسترس منع نمی‌کند و استفاده از این سکو‌ها توسط گروه‌های موجود در فهرست را معادل ارائه حمایت مادی در نقض قانون نمی‌داند. 

 

جامعه مدنی و هیئت نظارت پیشنهاد کردند که «متا» فهرست سازمان‌ها و نهاد‌هایی را که خطرناک شناسایی کرده، به صورت عمومی منتشر کند، اما «متا» از این کار امتناع ورزید و دلیل آن را ایمنی کارکنان و نگرانی از این موضوع عنوان کرد که انتشار این فهرست ممکن است به نهاد‌های ممنوعه اجازه دهد تا سیاست‌ها را دور بزنند. در اکتبر ۲۰۲۱، نشریه «اینترسپت» نسخه‌ای از این فهرست را منتشر کرد.

 

سیاست DOI نه تنها نمایندگی یا ایجاد حساب‌هایی به نمایندگی از گروه‌ها یا افراد مشخص را ممنوع می‌کند، بلکه هر دو عنوان ستایش و حمایت اساسی را نیز ممنوع می‌سازد که این اصطلاحات مبهم و گسترده شامل بیان‌های محافظت‌شده تحت قوانین حقوق‌بشر بین‌المللی هستند. 

 

«متا» حمایت معنادار را به عنوان نقل قول مستقیم از یک نهاد تعیین‌شده بدون عنوانی که آن را محکوم کند، به‌طور خنثی مورد بحث قرار دهد یا بخشی از گزارش خبری باشد، تعریف می‌کند. این سیاست به رسمیت می‌شناسد که کاربران ممکن است محتوایی را به اشتراک بگذارند که شامل ارجاعات به سازمان‌ها و افراد خطرناک تعیین‌شده در زمینه گفتمان اجتماعی و سیاسی است و محتوایی را که به گزارش، بحث خنثی یا محکوم‌کردن سازمان‌ها و افراد در فهرست DOI می‌پردازد، مجاز می‌داند.

 

با این حال، اگر نیت کاربر مبهم یا نامشخص باشد، «متا» به طور پیش‌فرض اقدام به حذف محتوا می‌کند. 

 

هیئت نظارت همچنین به تمایل «متا» برای تغییر این سیاست به صورت مخفیانه و ایجاد استثنا‌ها به صورت موردی انتقاد کرده است. به عنوان مثال برای بحث در مورد شرایط یک فرد زندانی در فهرست DOI یا برای امکان صحبت مثبت درباره یک پیشرفت مثبت از یک سازمان فهرست شده که در نقش حکومتی عمل می‌کند. دسته‌های وسیع سخنانی که تحت سیاست DOI قرار دارند، به همراه پیش‌فرض حذف محتوا در صورتی که نیت نامشخص باشد، منجر به حذف محتوایی می‌شود که باید به عنوان سخنرانی محافظت‌شده در نظر گرفته شود، حتی زمانی که نشانه‌های زمینه‌ای نشان می‌دهند که پست در واقع در حال گزارش است.

 

نقض سیاست DOI منجر به مجازات‌های شدید برای حساب‌ها می‌شود، مانند از دست دادن فوری ویژگی‌هایی مانند پخش زنده به مدت ۳۰ روز و ناتوانی در مشاهده یا توصیه محتوا به غیر از دنبال‌کنندگان. سایر نقض‌های سیاست تنها منجر به یک هشدار برای حساب می‌شود، در حالی که مجازات‌های ناشی از نقض سیاست DOI سریع و شدید هستند.

 

گزارش BSR تاکید کرد که نقض‌های DOI همچنین با جریمه‌های سنگین همراه است که به این معنی است که فلسطینی‌ها در معرض عواقب شدیدتری در اجرای سیاست‌ها قرار دارند. فلسطینی‌ها در مقایسه با صهیونیست‌ها و دیگران، از به اشتراک‌گذاری انواع محتوای سیاسی منع شده‌اند، زیرا سیاست DOI «متا» هیچ معافیتی برای ستایش نهاد‌های تعیین‌شده در ظرفیت حکومتی آنها ندارد. 

 

سازمان دیده‌بان حقوق‌بشر مستند کرده که سیاست DOI برای سانسور گفتگو‌های اجتماعی و سیاسی در مورد درگیری‌ها به کار گرفته شده است. از جمله گزارش‌دهی، بحث‌های بی‌طرفانه و محکومیت سازمان‌های خطرناک؛ نوع محتوایی که سیاست اصلاح‌شده DOI ادعا می‌کند مجاز است. در یک مورد، اینستاگرام اقدام به حذف بازنشر محتوایی از یک حساب به زبان عربی در پخش خبری ترکیه (TRT Arabi) کرد که شامل بیانیه‌ای به زبان عربی از وزارت بهداشت غزه بود مبنی بر اینکه نظامیان صهیونیست از کارکنان بیمارستان «رنتیسی» خواسته‌اند که قبل از بمباران، آن را تخلیه کنند. این پست به دلیل نقض سیاست DOI «متا» حذف شد، به احتمال زیاد به این دلیل که وزارت بهداشت غزه بخشی از دولتی است که تحت رهبری حماس قرار دارد. سازمان دیده‌بان حقوق‌بشر بیش از ۱۰۰ عکس از صفحه را بررسی کرد که حذف محتوای اینستاگرام را مستند می‌کرد و شامل ویدئو‌هایی از سازمان‌های خبری مانند «میدل ایست آی» و «الجزیره» بود که شامل گزارش‌هایی درباره اسرای صهیونیست بود و به دلیل نقض سیاست DOI حذف شده بودند.

 

ممنوعیت‌های ناسازگار و مبهم درباره محتوای خبرساز

 

سکو‌های «متا» تصاویر، ویدئو‌ها و پست‌هایی از رسانه‌های خبری، خبرنگاران مستقل و سایر منابع از مناطق درگیری را میزبانی می‌کنند. در برخی مواقع، این رسانه ممکن است شامل محتوای خشونت‌آمیز و گرافیکی، سخنان نفرت‌انگیز یا غیراخلاقی باشد. اگرچه سیاست «متا» محتوای خشونت‌آمیز، سخنان نفرت‌پراکنانه، خشونت و تحریک به خشونت و نیز موضوعات غیراخلاقی را ممنوع می‌کند، اما این شرکت در صورتی که محتوای مذکور را از نظر خبری مهم و در خدمت منافع عمومی بداند، برایش استثنا قائل می‌شود.

 

«متا» از یک پست که خشونت در اوکراین را به تصویر می‌کشد به عنوان یک مثال گویا برای اهمیت مجوز خبررسانی استفاده می‌کند که نشان‌دهنده تمایل این شرکت به تنظیم سیاست‌های خود با توجه به واقعیت‌های درگیری است. زمانی که این سیاست‌ها به درستی اجرا شود، مجوز خبررسانی «متا» می‌تواند به تقویت گفتگو، افزایش آگاهی عمومی و تسهیل تحقیقات، از جمله تحقیقاتی که توسط محققان حقوق‌بشر انجام می‌شود، کمک کند.

 

با این حال، تحقیقات سازمان دیده‌بان حقوق‌بشر نشان داد که «متا» به‌طور نامنظم سیاست مجوز خبرساز خود را اجرا کرده و ممنوعیت‌های خود در مورد تحریک و برهنگی را به محتوای خبرساز که به نظر نمی‌رسد این سیاست‌ها را نقض کند، به‌طور نادرست اعمال کرده است. به‌طور خاص، این تحقیق نشان می‌دهد که سکو‌های متا به‌طور مکرر رسانه‌های حاوی محتوای گرافیکی از فلسطین را حذف کرده‌اند و به‌طور مؤثری چنین تصاویری را سانسور کرده‌اند.

 

پنج کاربر اینستاگرام و یک کاربر فیس‌بوک گزارش دادند که تصاویر مجروحان و اجساد در بیمارستان‌های غزه به دلیل نقض دستورالعمل‌های این سکو در مورد خشونت و تحریک، حذف شده‌اند. دستورالعمل‌های خشونت و تحریک «متا» محتوا‌هایی که خشونت جدی را تحریک یا تسهیل می‌کنند را ممنوع می‌کند. ۶ تصویری که حذف شدند، هیچ دعوتی به خشونت نداشتند.

 

علاوه بر این، چندین کاربر گزارش دادند که اینستاگرام محتوایی را که وضع فلسطینی‌ها را به تصویر می‌کشد، حذف کرده است. این محتوا شامل تصاویری از فلسطینی‌های به شهادت رسیده، ویدئویی که در آن نظامیان اشغالگر در حال شکنجه فلسطینی‌ها هستند و تصویری از بمباران‌ها در غزه.

 

برخی از کاربرانی که مواردی را به سازمان دیده‌بان حقوق‌بشر گزارش داده‌اند، توضیح دادند که پست‌های آنها به دنبال بیان اعتراض به خشونت بوده و نه تحریک آن. با حذف زمینه محتوا و به‌کارگیری بی‌رحمانه سیاست‌های خود، «متا» در واقع در حال سانسور محتوای خبری و مهم است و به نتیجه‌ای معکوس از هدف اعلام‌شده سیاست‌های خود دست می‌یابد.

 

«متا» اهمیت مجوز خبرساز بودن را در مورد محتوای مرتبط با اوکراین مورد تأکید قرار داده است. با این حال، به نظر می‌رسد که این سیاست را به محتوای مستند درباره تأثیر درگیری‌های کنونی بر فلسطینی‌ها گسترش نداده است.

 

این گزارش بیان می‌کند که به جای شناسایی نیاز به انعطاف در اعمال ممنوعیت‌های محتوایی در بحث‌های مربوط به درگیری‌های جاری، مثال‌هایی که با سازمان دیده‌بان حقوق‌بشر به اشتراک گذاشته شده، نشان می‌دهد که «متا» به طور تهاجمی با محتوایی که در ابتدا نباید ممنوع می‌شد، برخورد می‌کند. 

 

شفاف‌نبودن درباره درخواست‌های دولت

 

«متا» محتوا را بر اساس استاندارد‌های خود و همچنین برای رعایت قوانین حذف می‌کند. این شرکت به‌طور منظم در مورد هر دو نوع محدودیت‌های محتوا گزارش می‌دهد. 

 

با این حال، «متا» مقدار قابل توجهی از محتوا را در پاسخ به درخواست‌های دولت‌ها برای حذف داوطلبانه بر اساس نقض‌های ادعایی استاندارد‌های این شرکت، حذف می‌کند. این درخواست‌ها از واحد‌های ارجاع اینترنتی (IRUs) می‌آید که بسته به کشور‌ها متفاوت هستند.

 

درخواست‌های IRU معمولاً خطر دور زدن رَویه‌های قانونی را دارند، فاقد شفافیت و پاسخگویی هستند و به کاربران دسترسی به جبران مؤثر را ارائه نمی‌دهند. این درخواست‌ها روند قانونی را که افراد در صورت تلاش دولت برای محدود کردن محتوا از طریق رویه‌های قانونی دارند، نادیده می‌گیرند. بر خلاف حذف محتوا بر اساس قوانین محلی که باید بر اساس احکام قانونی باشد و منجر به محدودیت‌های جغرافیایی بر روی محتوا شود، حذف‌های مبتنی بر استاندارد‌های «متا» منجر به حذف آن محتوا به‌طور جهانی می‌شود. علاوه بر این، کاربر مطلع نمی‌شود که حذف محتوای او به دلیل یک درخواست دولتی است و نقش دولت نیز در گزارش‌های شفافیت نیم‌ساله «متا» منعکس نمی‌شود.

 

رژیم صهیونیستی به شدت برای حذف محتوا از شبکه‌های تلاش کرده است. واحد سایبری رژیم صهیونیستی برخی محتوا‌ها را شناسایی و درخواست‌هایی را به شبکه‌های اجتماعی ارسال می‌کند تا به‌طور داوطلبانه آن محتوا را حذف کنند.

 

واحد سایبری رژیم صهیونیستی به جای طی کردن فرآیند قانونی برای حذف محتوای برخط، به طور مستقیم به سکو‌ها بر اساس شرایط خود اعلام درخواست می‌کند. از زمانی که دفتر دادستانی دولت صهیونیستی شروع به گزارش‌گیری از فعالیت‌های واحد سایبری کرده، نرخ کلی رعایت درخواست‌های آن توسط سکو‌ها هرگز کمتر از ۷۷ درصد نبوده و در سال ۲۰۱۸ به ۹۲ درصد نیز رسیده است.

 

در سال ۲۰۲۱، واحد سایبری رژیم صهیونیستی ۵ هزار و ۹۹۰ درخواست حذف یا محدودیت محتوا صادر کرد که نرخ رعایت آن در تمام سکو‌های «متا» ۸۲ درصد اعلام شده است.

 

اکثر این درخواست‌ها (حدود ۹۰ درصد) به فیسبوک و اینستاگرام مربوط می‌شد و در طول تشدید خصومت‌ها در ماه مه ۲۰۲۱ صادر شده بود. در همان سال، «متا» گزارش داد که ۲۹۱ محتوا یا حساب کاربری را در فیسبوک و اینستاگرام در پاسخ به درخواست رژیم صهیونیستی محدود کرده است.

 

بر اساس گزارش‌های رسانه‌ای در تاریخ ۱۴ نوامبر ۲۰۲۳ (۲۳ آبان ۱۴۰۲) دفتر دادستانی رژیم صهیونیستی ۹ هزار و ۵۰۰ درخواست حذف محتوا را از تاریخ ۷ اکتبر ۲۰۲۳ به سکو‌های بزرگ رسانه‌های اجتماعی ارسال کرده که به جنگ اخیر مربوط است و ادعا می‌شود که این موارد نقض سیاست‌های شرکت‌هاست. تقریباً ۶۰ درصد از این درخواست‌ها به «متا» ارسال شده است. گزارش‌های رسانه‌ای نرخ رعایت ۹۴ درصدی برای چنین درخواست‌هایی در تمامی سکو‌ها را ذکر کرده‌اند. سازمان حقوق‌بشر نیز از واحد سایبری این رژیم پرسیده که کدام سیاست شرکت، پست یا حساب کاربری به‌طور ادعایی نقض شده است، اما در زمان نگارش این متن پاسخی دریافت نکرده است.

 

IRU‌ها از کشور‌های دیگر نیز ممکن است از «متا» و دیگر سکو‌ها درخواست کنند تا محتوا‌های مربوط به جنگ غزه را حذف کنند. «تیری برتون» کمیسیونر بازار داخلی اروپا به تازگی نامه‌هایی به مسئولان سکو‌های بزرگ رسانه‌های اجتماعی ارسال کرده است، از جمله به «مارک زاکربرگ» مدیرعامل «متا» درباره افزایش محتوای غیرقانونی و اطلاعات نادرست منتشر شده در اتحادیه اروپا پس از عملیات «طوفان‌الاقصی».

 

در این نامه درخواست شده است که «متا» باید بسیار مراقب باشد تا اطمینان حاصل کند که به‌طور دقیق به قانون خدمات دیجیتال اروپا (DSA) در زمینه شرایط خدمات، همچنین نیاز به اقدام به‌موقع، دقیق و عینی پس از اعلامیه‌های محتوای غیرقانونی در اتحادیه اروپا و ضرورت اتخاذ تدابیر متناسب و مؤثر پاسخ دهد.

 

۳۰ سازمان حقوق دیجیتال تفسیر برتون از DSA را که در نامه آمده، زیر سوال بردند.

 

هیئت نظارت هم نگرانی خود را ابراز کرده که کاربران باید در مورد محتوایی که بر اساس استاندارد‌های سکو حذف می‌شود، مطلع شوند، به ویژه در مواردی که دخالت دولت در حذف محتوا وجود دارد. در یک مورد غیرمرتبط، هیئت نظارت توصیه کرده که «متا» اطمینان حاصل کند که کاربران زمانی که محتوای آنها به دلیل درخواست دولت و نقض استاندارد‌های جامعه حذف می‌شود، مطلع شوند و همچنین باید فرآیند شفافی برای دریافت و پاسخ به تمام درخواست‌های دولت برای حذف محتوا فراهم کند.

 

علاوه بر این، توصیه می‌کند که «متا» اطلاعاتی در مورد تعداد درخواست‌هایی که برای حذف محتوا از دولت‌ها دریافت می‌کند که بر اساس نقض استاندارد‌های انجمن (برخلاف نقض قوانین ملی) و نتیجه این درخواست‌ها هستند را شامل شود. «متا» در آگوست ۲۰۲۱ اعلام کرد که این توصیه‌ها را به طور کامل اجرا می‌کند.

 

در پرونده پست اشتراک‌گذاری‌شده الجزیره این هیئت مجدداً توصیه کرد که «متا» شفافیت در مورد درخواست‌های دولت را بهبود بخشد که منجر به حذف جهانی براساس نقض استاندارد‌های شرکت شد. در اکتبر ۲۰۲۱ «متا» اعلام کرد که این توصیه را تا حدی اجرا می‌کند.

 

گزارش BSR همچنین توصیه کرد که «متا» تعداد گزارش‌های رسمی دریافت‌شده از نهاد‌های دولتی در مورد محتوایی را که غیرقانونی نیست، اما به طور بالقوه خط‌مشی‌های محتوای «متا» را نقض می‌کند، افشا کند.

 

به‌روزرسانی عملکرد «متا» در سپتامبر ۲۰۲۳ در مورد اجرای توصیه‌های BSR نشان می‌دهد که تلاش‌های آن در این زمینه در حال انجام است و آن را یک پروژه پیچیده و بلندمدت توصیف می‌کند.

 

«متا» اعلام کرد که جدول زمانی برای گزارش عمومی این معیار‌ها را در به‌روزرسانی فصلی هیئت نظارت آینده و در گزارش سالانه حقوق بشر آینده خود ارائه خواهد کرد. بیش از دو سال پس از تعهد به انتشار داده‌های مربوط به درخواست‌های دولتی برای حذف محتوایی که لزوماً غیرقانونی نیست، «متا» نتوانسته شفافیت را در این زمینه افزایش دهد.

 

اتکا به اتوماسیون

 

اتکای «متا» به اتوماسیون برای تعدیل محتوا، عامل مهمی در اجرای اشتباه سیاست‌های آن است که منجر به حذف محتوای غیرقابل نقض در حمایت از فلسطین در اینستاگرام و فیس‌بوک شده است.

 

به گفته «متا» بیش از ۹۰ درصد محتوایی که خط‌مشی‌های آنها را نقض می‌کند، قبل از اینکه کسی آن را گزارش کند، به‌طور فعال توسط ابزار‌های خودکار آنها شناسایی می‌شود.

 

تعدیل خودکار محتوا در تفسیر عوامل زمینه‌ای که می‌تواند برای تعیین اینکه آیا یک پست حمایت یا تمجید از تروریسم است، بسیار ضعیف است. این می‌تواند منجر به محدودیت‌های بیش از حد در گفتار و برچسب زدن نامناسب آن به عنوان خشونت، جنایت یا توهین‌آمیز شود.

 

«متا» برای شناسایی و حذف محتوایی که توسط سکوی مربوطه نقض‌کننده تلقی می‌شود و بازنشر آن محتوا، به اتوماسیون متکی است. همچنین از الگوریتم‌هایی استفاده می‌کند تا تعیین کند کدام حذف‌های خودکار باید برای نظارت انسانی اولویت‌بندی شوند. 

 

«متا» اطلاعاتی در مورد میزان خطای اتوماسیون یا میزان نقش اتوماسیون در رسیدگی به شکایات و درخواست‌ها منتشر نمی‌کند. فقدان شفافیت «متا» مانع از توانایی سازمان حقوق‌بشر مستقل و سایر محققان برای پاسخگویی به سکو‌های آن می‌شود و اجازه می‌دهد حذف محتوای نادرست و همچنین فرآیند‌های تعدیل ناکارآمد برای محتوای نقض‌کننده کنترل نشود. 

 

دیده‌بان حقوق‌بشر در بررسی صد‌ها مورد حذف محتوا و ناتوانی برخی از کاربران در ارسال نظرات در اینستاگرام و فیسبوک، دریافت که ابزار‌های نظارت خودکار «متا» در تشخیص دقیق بین نظرات صلح‌آمیز و خشونت‌آمیز ناکام مانده است.

 

در نتیجه حذف یا محدودیت نظرات، کاربران گزارش دادند که رفتار خود را در اینستاگرام و فیسبوک تغییر داده‌اند تا از حذف نظراتشان جلوگیری کنند. پس از چندین تجربه با حذف نظرات به ظاهر خودکار، کاربران گزارش دادند که کمتر با محتوا درگیر می‌شوند، نظرات خود را بیان می‌کنند، یا در بحث‌هایی درباره جنگ غزه شرکت می‌کنند.

 

*پیامد‌های حقوق‌بشری سانسور محتوای مربوط به فلسطین

 

محدودیت‌های محتوا و ممنوعیت سایه‌ای

 

ماده ۱۹ میثاق بین‌المللی حقوق مدنی و سیاسی (ICCPR) حق آزادی بیان از جمله حق جستجو، دریافت و انتشار اطلاعات و عقاید از هر نوع را تضمین می‌کند.

 

همانطور که کمیته حقوق‌بشر سازمان ملل توضیح داده، این حق در مورد ابراز نظر برخط هم اعمال می‌شود.

 

حق آزادی بیان مطلق نیست. محدودیت‌های این حق در صورتی امکان‌پذیر است که برای حفظ امنیت ملی، نظم عمومی، سلامت عمومی، اخلاقیات یا حقوق و آزادی‌های دیگران ضروری و متناسب باشد.

 

محدودیت‌هایی برای این اهداف باید در قانون ایجاد شود، نه اینکه به ماهیت این حقوق لطمه‌ای وارد کند و با حق جبران موثر مطابقت داشته باشد. همین استاندارد در مورد محدودیت‌های حقوق آزادی اجتماعات و تشکل‌ها نیز اعمال می‌شود.

 

محدود کردن یا سرکوب بی‌رویه محتوای مسالمت‌آمیز که از فلسطین و فلسطینی‌ها حمایت می‌کند، به‌طور غیرمجاز حقوق مردم را برای آزادی بیان نقض می‌کند.

 

اجرای خط‌مشی‌های حذف محتوا و تنظیمات الگوریتم‌های توصیه‌گر که تعیین می‌کنند مردم چه محتوایی را در فید‌های خود ببینند، برای محدود کردن قابل توجه گردش محتوا، ممکن است به‌عنوان جانبدارانه یا هدف‌گیری انتخابی دیدگاه‌های خاص تلقی شود و می‌تواند حق عدم تبعیض و جهانی‌بودن را تضعیف کند. 

 

حذف یا سرکوب محتوای برخط می‌تواند مانع از توانایی افراد و سازمان‌ها برای دفاع از حقوق فلسطینی‌ها و افزایش آگاهی در مورد وضع آنها شود.

 

حذف محتوایی که با استفاده از سیستم‌های خودکار، مانند اینستاگرام و فیس‌بوک انجام می‌شود، نگرانی‌هایی را در مورد سوگیری الگوریتمی ایجاد می‌کند. 

 

درگیر شدن با محتوا مانند ارسال یا خواندن نظرات، یکی از جنبه‌های مهم تعامل رسانه‌های اجتماعی است؛ به ویژه زمانی که بحث آزاد در فضا‌های غیر برخط ممنوع است.

 

اینکه محتوای یک کاربر برای دوستان و دنبال‌کننده‌های او بدون هیچ توضیحی قابل مشاهده نیست، می‌تواند برای کاربران ناراحت‌کننده باشد.

 

«متا» رسماً اعمال ممنوعیت در سایه را تأیید نمی‌کند، اما به طور مؤثر شفافیت کاربران و همچنین دسترسی کافی به مکانیسم‌های شکایت و راه‌حل معنادار را منع می‌کند.

 

رسانه‌های اجتماعی می‌توانند ابزار ارتباطی حیاتی در بحران‌ها و درگیری‌ها باشند.

 

با این حال، کاربرانی که خطر محدودیت‌های حساب را تجربه می‌کنند یا حتی از آن آگاه هستند، ممکن است از مشارکت در سکو‌های اجتماعی خودداری کنند تا از دست دادن دسترسی به حساب‌ها و اطلاعات حیاتی خود جلوگیری کنند و در نتیجه رفتار‌های خودسانسوری ایجاد کنند.

 

ناتوانی در درخواست تجدید نظر به سکو

 

اصول راهنمای سازمان ملل در مورد تجارت و حقوق بشر (UNGPs) از کسب و کار‌ها می‌خواهد به راه‌حلی دسترسی داشته باشند که در آن تشخیص دهند که باعث ایجاد یا کمک به کاهش اثرات نامطلوب شده‌اند.

 

این گزارش بیش از ۳۰۰ مورد را مستند می‌کند که در آنها کاربران به دلیل عملکرد نادرست مکانیزم، امکان درخواست تجدیدنظر برای حذف محتوا یا محدودیت‌های حساب را نداشتند و شواهدی ارائه کردند. این باعث شد که آنها دسترسی مؤثری به درمان نداشته باشند.

 

اقدامات موقت «متا» برای کاهش آستانه‌ای که در آن اقدام علیه محتوای نقض‌کننده و مرزی در سراسر اینستاگرام و فیس‌بوک انجام می‌دهد تا از توصیه این نوع محتوا به کاربران در فیدهایشان خودداری کند، احتمالاً حاشیه خطا را برای حذف یا حذف محتوا و خروج از آن افزایش می‌دهد. 

 

«متا» به دیده‌بان حقوق‌بشر گفت که آگاه است که اقدامات موقتی که در طول درگیری‌ها انجام می‌دهد، می‌تواند عواقب ناخواسته‌ای مانند محدود کردن محتوای بی‌ضرر یا حتی مفید داشته باشد و همچنین اعتراف کرد که در دوره‌های پرمشغله مانند شرایط درگیری، ما ممکن است همیشه نتوانیم همه‌چیز را بر اساس ظرفیتمان بررسی کنیم.

 

«متا» همچنین فاش کرد که درخواست تجدیدنظر برای کاهش محتوا در حال حاضر در خارج از اتحادیه اروپا در دسترس نیست.

 

نبود راه‌حل موثر برای سانسور می‌تواند پیامد‌های مهمی برای افراد و گروه‌ها داشته باشد. حق آزادی بیان آنها، همانطور که در اسناد بین‌المللی حقوق بشر ذکر شده، ممکن است نقض شود.

 

*مسئولیت‌های رسانه‌های اجتماعی

 

بر اساس اصول راهنمای سازمان ملل در زمینه تجارت و حقوق‌بشر (UNGPs)، شرکت‌ها موظفند با اجتناب از نقض حقوق‌بشر، شناسایی و رسیدگی به تأثیرات حقوق‌بشری فعالیت‌های خود و دسترسی معنادار به راه‌حل، به حقوق بشر احترام بگذارند.

 

برای رسانه‌های اجتماعی، این مسئولیت شامل هم‌راستایی با سیاست‌ها و شیوه‌های تعدیل محتوا با استاندارد‌های بین‌المللی حقوق‌بشر، اطمینان از اینکه تصمیم‌گیری برای حذف محتوا بیش از حد گسترده یا جانبدارانه نیست، شفاف و پاسخگو بودن در اقدامات خود و اجرای سیاست‌های خود به صورت یکسان است. 

 

UNGP‌ها از شرکت‌ها می‌خواهند که بررسی‌های لازم در زمینه حقوق‌بشر را برای شناسایی، پیشگیری، کاهش و نحوه رسیدگی به اثرات نامطلوب حقوق‌بشر خود انجام دهند.

 

شرکت‌ها باید نحوه پرداختن به تأثیرات حقوق‌بشری خود را به صورت خارجی به اشتراک بگذارند و اطلاعات کافی را ارائه دهند تا ذینفعان بتوانند کفایت پاسخ خود را ارزیابی کنند.

 

سیاست حقوق‌بشر شرکتی «متا» تعهد خود را به احترام به حقوق‌بشر همانطور که در UNGP‌ها بیان شده، مشخص می‌کند. به عنوان یکی از اعضای ابتکار شبکه جهانی (GNI) «متا» همچنین متعهد شده که از اصول GNI در مورد آزادی بیان و حفظ حریم خصوصی حمایت کند.

 

این اصول در مورد شفافیت و مسئولیت‌پذیری در تعدیل محتوا راهنمایی‌های مهمی را برای اینکه چگونه شرکت‌ها باید مسئولیت‌های خود را در حمایت از آزادی بیان انجام دهند ارائه می‌دهد.

 

بر اساس این اصول، شرکت‌ها باید به طور واضح به کاربران توضیح دهند که چرا محتوای آنها یا حساب آنها حذف شده است.

 

شرکت‌ها همچنین باید توضیح دهند که چگونه محتوا شناسایی، ارزیابی و حذف شده است. به عنوان مثال، توسط کاربران، اتوماسیون، یا ناظران محتوای انسانی و فرصتی معنادار برای درخواست تجدیدنظر به موقع در مورد حذف محتوا یا تعلیق حساب فراهم کنند. «متا» این اصول را تأیید کرده، اما آنها را به طور کامل اعمال نکرده است.

 

*توصیه‌ها

 

به متا (اینستاگرام و فیسبوک)

 

سیاست سازمان‌ها و افراد خطرناک (DOI) را به گونه‌ای بازنگری کنید که با استاندارد‌های بین‌المللی حقوق‌بشر سازگار باشد، به‌ویژه اطمینان حاصل شود که سکو‌های متا اجازه بیان محافظت‌شده از جمله موارد نقض حقوق‌بشر، جنبش‌های سیاسی و سازمان‌هایی را که «متا» یا دولت‌ها آنها را تروریستی معرفی می‌کنند، می‌دهند.

 

به جای تکیه در درجه اول بر تعریف نهاد‌های تروریستی یا سازمان‌های خطرناک، مجدداً سیاست را بر منع تحریک به تروریسم با تکیه بر تعریف مدل ارائه‌شده توسط گزارشگر ویژه در مورد ارتقا و حمایت از حقوق‌بشر و آزادی‌های اساسی در هنگام مقابله با تروریسم متمرکز کنید.

 

تا جایی که یک سیاست بازنگری‌شده شامل تعریفی از نهاد‌های تروریستی یا سازمان‌های خطرناک می‌شود، در تعیین ممنوعیت یک سازمان منحصراً به فهرست کشور‌های خاص تکیه نکنید.

 

فهرست سازمان‌ها و افراد خطرناک «متا» را منتشر کنید.

 

با توجه به تمایل این خط‌مشی به علامت‌گذاری اشتباه عبارت‌های محافظت‌شده، از جمله موارد نقض حقوق‌بشر، اطمینان حاصل کنید که حساب‌هایی که موجب نقض تحت خط‌مشی DOI می‌شوند، مشمول مجازات‌های متناسبی هستند.

 

«متا» باید در گزارش‌های شفافیت دوره‌ای خود شامل موارد زیر باشد:

 

تعداد درخواست‌ها در هر کشور (تجزیه شده توسط سازمان دولتی)

 

نرخ انطباق در هر کشور

 

خط‌مشی شرکت مربوطه که پست یا حسابی که گفته می‌شود، نقض شده است.

 

نرخ انطباق در هر خط مشی

 

کمک‌هزینه خبر

 

برای تعیین میزان خطا در مورد حذف محتوایی که منافع عمومی دارد و باید در پلتفرم‌های «متا» تحت امتیاز ارزش خبری آن نگهداری شود، حسابرسی انجام دهید.

 

این حسابرسی همچنین باید ارزیابی کند که آیا «متا» از امتیاز ارزش خبری به طور عادلانه و بدون تبعیض استفاده می‌کند یا خیر.

 

بهبود سیستم‌ها برای شناسایی و امکان فهرست‌بندی قطعاتی از محتوایی که ارزش خبری دارند، اما به طور مکرر به اشتباه حذف می‌شوند.

 

اتوماسیون

 

بهبود شفافیت در مورد مکان و نحوه استفاده از اتوماسیون و الگوریتم‌های یادگیری ماشینی برای تعدیل یا ترجمه محتوای مرتبط با فلسطین، از جمله اشتراک‌گذاری اطلاعات در مورد طبقه‌بندی‌کننده‌های برنامه‌ریزی‌شده و مورد استفاده و میزان خطای آنها.

 

برای ارزیابی تأثیر حقوق‌بشر تغییرات موقت در الگوریتم‌های توصیه «متا» بررسی‌های لازم را انجام دهید و این یافته‌ها را به صورت عمومی به اشتراک بگذارید. هر زمان که «متا» اقدامات موقت را در شرایط بحرانی اعمال می‌کند، این ارزیابی و گزارش باید به یک روش استاندارد تبدیل شود.

 

برای نظارت معنادار بر تصمیمات اتخاذشده توسط ابزار‌های هوش مصنوعی (AI)، اصل انسان در حلقه را که در آن انسان‌ها در فرآیند تصمیم‌گیری نهایی نقش دارند، ادغام کنید. این همچنین با اصول راهنمای سازمان ملل در زمینه تجارت و حقوق بشر (UNGPs) مطابقت دارد که شرکت‌ها را ملزم می‌کند تا مکانیسم‌های پاسخگویی داخلی را برای اجرای سیاست‌ها و تسهیل حق جبران ایجاد کنند.

 

شفافیت و دسترسی به راه‌حل

 

هنگام اطلاع‌دادن به کاربران مبنی بر اینکه حساب یا محتوای آنها محدود شده است، اطلاعات کافی را ارائه دهید، از جمله:

 

محتوا یا رفتار خاصی که دستورالعمل‌های انجمن «متا» را نقض می‌کند، از جمله بند خاص دستورالعمل‌های انجمن که مشخص شد محتوای آنها نقض می‌کند و نحوه شناسایی و حذف محتوا.

 

محدودیتی که بر روی حساب یا محتوای آنها اعمال می‌شود، از جمله زمانی که حساب یا محتوای آنها در الگوریتم‌های توصیه‌گر حذف یا کاهش یافته است.

 

چگونه کاربر می‌تواند نسبت به این تصمیم اعتراض کند.

 

اطمینان حاصل کنید که همه مکانیسم‌های تجدیدنظر در دسترس، کاربردی و در دسترس همه کاربران، صرف نظر از حوزه قضایی هستند.

 

با هدف بهبود درک عمومی از تغییرات «متا» در سیستم‌های توصیه‌کننده، رتبه‌بندی محتوا و سیستم جریمه‌ها و تأثیر آن بر آزادی بیان، یک ممیزی خارجی را در ممنوعیت سایه‌ای تنظیم و منتشر کنید.

 

بررسی حقوق‌بشر

 

درخواست بازخورد از جامعه مدنی و سایر ذینفعان مربوطه در مورد اجرای تعهدات «متا» در پاسخ به گزارش BSR و هیئت نظارت برای اطلاع از ارزیابی خود از پیشرفت انجام شده.

 

با جامعه مدنی و سایر ذینفعان مرتبط کار کنید تا اجرای تعهدات باقیمانده را بر اساس فوریت زمان‌بندی کنید.

 

حفظ

 

حفظ و بایگانی مواد نقض حقوق‌بشر و سوء استفاده‌هایی که ممکن است دارای ارزش شواهد باشد و دسترسی به داده‌ها را برای محققان مستقل، از جمله کسانی که در زمینه‌های حقوق بشر هستند، با حفظ حریم خصوصی کاربران فراهم کند.

source

kheiroshar.ir

توسط kheiroshar.ir

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *