تلگرام با نسخه ۲.۰ مینیاپلیکیشنها و چند قابلیت دیگر بروزرسانی شد
پیامرسان تلگرام در بروزرسانی جدیدی بار دیگر روی مینیاپلیکیشنها تمرکز کرده است و توسعه دهندگان…
۳۰ آبان ۱۴۰۳
۲۹ آذر ۱۴۰۲
زمان مطالعه : ۴ دقیقه
هیات نظارتی مستقل میگوید متا پس از حمله ۷ اکتبر حماس به اسرائیل، حساسیت ابزارهای خودکار نسبت به محتوای این درگیری را افزایش داده است و با اینکه چنین اقدامی از انتشار محتوای خطرناک و یا شایعهپراکنی جلوگیری میکند، اما این خطر هم وجود دارد که حجم زیادی محتوای سالم نیز در این بین قربانی شوند.
به گزارش پیوست، بررسیهای هیات مستقل نظارت بر این غول شبکه اجتماعی نشان میدهد متا برای حذف محتواهایی که احتمالا سیاستهای این شرکت را نقض میکنند، آزادی عمل بیشتری به ابزارهای خودکار داده است و درنتیجه ممکن است محتوایی که ناقض سیاستها نیست هم به اشتباه قربانی نظارت سختگیرانه شود.
فایننشال تایمز به نقل از هیات نظارتی پیرامون اقدامات سختگیرانه متا میگوید: «[چنین کاری] با اینکه خطر محتوای خطرناک را کاهش میدهد، اما احتمال حذف اشتباه محتوای ارزشمندی که ناقض سیاستها نیست هم از پلتفرم بیشتر میشود. [محتوایی که] جهان را از عذاب انسانها در هردو سوی این درگیری مطلع میکند.»
این هیات نظارتی که حکم «دادگاه عالی» را برای متا دارد میگوید تا ۱۱ دسامبر، حساسیت ابزارهای خودکار متا همچنان در سطح بالایی است. ابزارهای خودکار متا اگر سطح حساسیت بالایی داشته باشند، حتی با اطمینان کمی از نقض سیاستها نیز محتوای مشکوک را حذف میکنند.
درگیری در این منطقه باعث شده تا پلتفرمهای مختلف شبکه اجتماعی از جمله تیکتاک، اکس، یوتیوب و پلتفرمهای تحت مالکیت متا را سیلی از محتوای بسیار خشن یا حاوی اطلاعات وارونه و اشتباه در بر بگیرد.
در همین حال بسیاری از سازمانهای حقوق بشری میگویند پلتفرمهای متا به شکلی تبعیضآمیز صدای فلسطینیان را محدود کرده و انتشار محتوای ضد فلسطینی را آزاد گذاشتهاند.
هیات نظارتی در گزارش خود از متا خواسته تا «سریعتر به شرایط پرنوسان جهان واقعی که بر تعادل ارزش صدا و امنیت اثرگذار است، پاسخ دهد.»
این هیات نظارتی که از روزنامهنگاران، اساتید و فعالان حقوق بشری تشکیل شده است درمورد حذف محتواهایی که شواهد نقض حقوق بشر هستند اظهار نگرانی کرده است و از متا خواسته تا چنین محتوایی را حفظ کند.
این هیات نظارتی معمولا باید یک دوره ۹۰ روزه را به درخواست تجدید نظر اختصاص دهد اما دو پرونده مربوط به این موضوع را با شتاب و در طول ۱۲ روز بررسی کرده است.
در یکی از پروندهها، متا ویدیویی مربوط به فجایع پس از حملهای به بیمارستان الشفا در غزه را که در اینستاگرام منتشر شده بود و در آن کودکان بیجان یا مجروح فلسطینی دیده میشوند را حذف کرده بود.
سیستمهای متا این محتوا را به دلیل نقض سیاستهای اینستاگرام پیرامون محتوای خشن و دلخراش حذف کردند. با این حال، هیات نظراتی معتقد است که این پستها «ارزش ویژه و بالایی برای عموم داشتند» و برای حفظ آزادی بیان باید انتشار آنها را البته با یک هشدار، فراهم کرد.
پرونده دیگری مربوط به ویدیو یک زن اسرائیلی است که به گروگانگیرها التماس میکند تا او را نکشند. متا ابتدای این ویدیو را «به دلیل نگرانی درمورد آبروی گروگانها و اینکه استفاده از آن برای حمایت و تقدیر از اقدامات حماس بود»، حذف کرد.
هیات نظارتی میگوید متا نباید این ویدیو را حذف میکرد و در ادامه این هیات از متا به دلیل رویکرد تبعیضآمیز خود نسبت به انتشار محتوا انتقاد کرد که براساس آن تنها یک سری کاربران VIP میتوانند ویدیو مربوط به گروگانها را منتشر کنند. به گفته هیات نظارتی این مساله نگرانیهایی را درمورد «رفتار نابرابر نسبت به کاربران» پدید میآورد.
این هیات که از سال ۲۰۲۱ به بررسی پروندهها مشغول است تا به امروز قضاوت خود را درمورد چندین مورد مهم نظارتی منتشر کرده است و همچنین پیشنهاداتی را درمورد یک سری سیاستها ارائه کرده است.
متا با اشاره به اینکه محتوا در پلتفرمها بازنشانی شده است از تصمیم هیات نظارتی استقبال کرده و میگوید اقدامات بیشتری در در دستور کار نیست.
به گفته شرکت: «آزادی بیان و امنیت هردو برای ما و افرادی که از خدمات ما استفاده میکنند اهمیت دارد. هیات نظارتی تصمیم اولیه متا برای حذف محتوا را رد کرد اما با پیشنهاد شرکت برای بازنشانی محتوا به همراه هشدار موافقت کرد.»