زمانی که نظارت بر محتوا آسیب میزند
فهرست
شش داستان الهام بخش برای تنظیم مقررات بهتر
اعداد به تنهایی نمیتوانند تاثیر انسانی یک تصمیم اشتباه محتوایی بر روی بزرگترین بسترهای اینترنتی دنیا را نشان دهند. پیدا کردن توضیحی مشخص و یا جبران اشتباهات میتواند بینهایت آزاردهنده باشد. چه این اشتباهات محتواهایی هستند که باید حذف شوند. چه محتواهایی که بهناحق حذف میشوند.
در این مطلب، مثالیهایی برای نشان دادن چالشهای اصلی و همچنین فرصتهای بهبود تنظیم مقررات بسترهای اینترنتی را در قالب شش داستان کوتاه و مختصر به اشتراک میگذاریم.چالشهایی مانند؛ محدودیتهای اتوماسیون و فیلترینگ. شکافهای موجود در شفافیت و یکدستی قوانین. و فرصت تعامل با یک اکوسیستمی از افراد و گروههایی که در جستجوی جایگزینهای اجتماعی. فنی و قانونی سالمتر هستند.
فشار عموم جامعه برای کاهش نفرتپراکنی. و محتواهای غیرقانونی در فضای اینترنت نیز به درخواستهایی مبنی بر تنظیم مقررات بیشتر برای پاسخگویی بهتر بسترها اضافه شده است. با این حال اکثر اوقات. تلاشهای قانونگزاران برای پاسخگویی به درخواستها بیشتر مخرب بودهاند تا سازنده و نتوانسته اند مشکلات اصلی را ریشهیابی کنند. در عین حال برخی از مشکلات حاد همچنان وجود دارند و در روند سیاستگذاری کم ارزش شمرده میشوند. برای مثال؛ تاثیر نظارت محتوا بر سلامت جسم و ذهن ناظران انسانی.
با به اشتراک گذاشتن این داستانها ما میخواهیم الهام بخش سیاستگذاری کلی بر اساس شواهد و مدارک باشیم تا اشتباهات گذشته تکرار نشوند. عموما، قوانین اقدامات شتابزده ای را برای مقابله با درگیریها و رسواییها ( و یا پاندمیها) در نظر میگیرند. به جای اینکه روندی واضح و پایدار به سوی اینترنتی سالمتر برای همه را پیش بگیرند. پیچیدگیهایی که در این داستانها بیان میشود نشاندهندهی این است که تنظیم مقررات موثرتر به این راحتیها بدست نمیآید و مطمئنا در همه جا به یک شکل نخواهد بود. ولی نشان میدهند که همکاری با همنظران خود برای بهتر شدن وضعیت چقدر مهم است.
اتوماسیون و فیلترینگ
سیستمهای متمرکز بر محتوا ، معمولاً از اتوماسیون و فیلترینگ به عنوان یک روش موثر برای نظارت بر محتوا در بسترهای بزرگ استفاده میکنند. متاسفانه این تکنولوژی هنوز پیشرفت کافی را نداشته. و بیشتر از دادههایی با جهت گیری خاص و ناقص استفاده میکند. و خیلی اوقات منجر به موقعیتهایی میشود که محتوای «بد» بر روی اینترنت باقی میماند و محتوای «خوب» پایین میآید. امروزه. در مقیاس کلی. هوش مصنوعی موئلفهی اصلی نظارت بر محتوا است. اما زمانی که کار میرسد به نظارت بر نظرات عمومی که باید در قالب انسانی فهمیده شود. این ابزار ناکارآمد میشود. پس قوانینی که استفاده از این سیستمها را اجبار میکند دلیل بروز آسیبها هستند.
داستان اول
شیوع اطلاعات غلط و کووید۱۹
وقتی اوایل شیوع جهانی این ویروس. ناظران بر محتوای بسترهای بزرگ مثل فیسبوک و یوتیوب به خانه فرستاده شدند. خیلی از مردم حذف اتوماتیک تعداد زیادی پست در مورد کووید ۱۹ را گزارش دادند. بلاگ سازندگان یوتیوب در تاریخ ۱۶ مارچ نوشت: «کاربران و سازندگان ممکن است شاهد افزایش پاک شدن ویدئوها باشند. حتی ویدیوهایی که قوانین را زیر پا نگذاشتهاند» و توضیح میدهد که سیستم یادگیری اتوماتیک بدون نظارت انسان شروع به پاک کردن محتوا خواهد کرد. در همان حین. اطلاعات غلط در مورد ویروس کرونا سرتاسر وب پخش و همهگیر میشدند. بسترها با سرعتی ثابت مشغول پاک کردن. کم اهمیت کردن و خارج کردن اطلاعات کذب در تبلیغات و لینکها بودند. اما طبق نظر نت جینز (Nat Gyenes) از مرکز سلامت دیجیتال میدن (Meedan). شیوع اطلاعات غلط اتفاق تازهای نیست.
پاندمیها
او میگوید؛ «بسترهای اینترنتی بزرگ برای اجرای استراتژیهای نظارت بر محتوای موثر نیاز به تشکیل تیمهای پاسخگو به سلامت عمومی دارند». جینز میگوید که حتی برای مشکلات قدیمی مانند اطلاعات غلط دربارهی سرطان نیز همکاری بسترها با متخصصین سلامت عمومی و محققین جهان ناکافی است. او میگوید: «پاندمیها جهانی هستند ولی به صورت منطقهای و محلی تجربه میشوند، و چالش ناظران بر محتوا نیز به همین شکل است».
مردم در همهجای جهان در ایمیلها و انجمنهای اینترنتی و گروههای مجازی با زبان عامیانه سوالهایی در مورد بهداشت و سلامت میپرسند. وجود ناظران انسانی ضروری است. در پاسخ سریع به پاندمی کووید۱۹. «میدن» در حال توسعه یک پایگاهدادهی سلامت تخصصی است که میتواند توسط جامعه بین المللی مورد بررسی صحت و درستی اطلاعات قرارگیرد.
این پایگاه داده شامل اطلاعات مختلف سلامت و بهداشت از سراسر جهان از جمله هند. برزیل، کنیا و سنگال است که از طرف متخصصین تایید شدهاند. همچنین اطلاعات را به کارکنان حوزهی سلامت و سپس به سمت بسترهای اینترنتی بزرگتر هدایت میکند. در نهایت. راهحلهای اتوماتیک نظارت بر محتوا محدودیتهایی دارند و این واقعیتی سخت است که توسط پاندمی کووید۱۹ نمایان شد. مشکلات نظارت بسیار پیچیده هستند و هیچ راه حل جادویی نیز وجود ندارد.
داستان دوم
شبکههای اجتماعی به عنوان مدرک و حافظه
میلیونها ویدیو نقض حقوق بشر، اگر یک فیلتر اتوماتیک آنها را به عنوان محتوای تروریستی بشناسد. میتوانند در یک چشم به هم زدن پاک شوند. آرشیو سوریه سازمانی است که شواهد تصویری که مدرک نقض حقوق بشر هستند را جمع آوری. تایید و نگهداری میکند. سالهاست آنها به بسترهای اینترنتی فشار وارد کرده اند که مدارک ویدئویی را نگهداری کنند و حتی اگر میخواهند آنها را از دید عموم مخفی کنند. در دسترس محققان قرار دهند. این سازمان از این که بسترهای رسانههای اجتماعی به «آرشیوهای شانسی» تبدیل شدهاند ناراضی هستند و هدفشان عرضهی یک آرشیو جایگزین است. جف داچ (Jeff Deutch) محقق اصلی این سازمان میگوید؛ «بسیار مایوس کننده است.
مدارک
در خیلی موارد، اینگونه مدارک تنها شواهد موجود برای اثبات وقوع یک جنایت هستند. وقتی آنها حذف شوند. کار خبرنگاران و محققین برای گزارش وقایع و دادستانها برای پیگیری عدالت بسیار سخت میشود». او میگوید علاوه بر این. فرآیند قانونی بازیابی محتوا یکدست و مطمئن نیست. مخصوصا هنگامی که اکانتهای تعلیقشده متعلق به کسانیست که یا کشته یا بازداشت شدهاند. «برای مثال، وقتی از سایت یوتیوب بازیابی حدود ۳۰۰ ویدئو که حمله به بیمارستانها و مراکز پزشکی را ثبت کرده بودند را درخواست کردیم. بازیابی شش ماه به طول کشید».
متاسفانه خیلی از کشورها و منطقهها. قوانین ضد تروریستی مشکلسازی را اجرا میکنند که باعث حذف شدن محتوای نقض حقوق بشری میشود. برای نمونه؛ اتحادیه اروپا در حال تدوین مقررات محتوای تروریستی جدیدی با تعهدات حذف سختگیرانهتری است که به معنی حذف هرچه بیشتر محتواهایی است که باید در دسترس عموم باشند. و این باعث ترس فعالان شده است.
فضاهای عمومی، قوانین خصوصی
بسترهای بزرگ از طرف دولتها برای شناسایی و اقدام نسبت به محتواهای غیرقانونی و آسیبزننده تحت فشار هستند. اما حتی هنگامی که قوانین مکتوب هستند نیز تصمیم بر این که چه چیزی حذف شود و چه چیزی باقی بماند کاملا به بستر مورد نظر بستگی دارد. به عبارت دیگر. در واقع دستورالعمل خدمات و نظارت بر محتوای هر بستر شبیه قانون عمل میکند. اما بدون هیچ ضمانت. روند و یا پاسخگوییهایی که از قانون انتظار میرود. این میتواند منجر به حذف بیان نظر عمومی مهمی بدون فرصت پیگیری و دادخواست شود. همچنین میتواند به این معنی باشد که بسترهای بزرگ اولویت نظارت بر محتوا را در کشورهایی که دولت قدرت فشار بیشتر به آنها دارند را در اولویت قرار میدهند. در این فرایند به نظر میرسد افرادی که در مناطق کمتر مهم از نظر تجاری زندگی میکنند در تلاشهای امنیتی نادیده گرفته شدهاند.
داستان سوم
سیاستهای توجه آنلاین
تفاوت اهمیت و توجه به کاربران در بین کشورهای مختلف اولین بار توسط رزماری آجای (Rosemary Ajayi) محقق دیجیتالی در حین انتخابات سال ۲۰۱۹ نیجریه شناخته شد. او به همراه یک تیم هشت نفره ناظر صدها توییت که حاوی اطلاعات نادرست. نفرتپراکنی و جعل هویت نامزدها بودند را جمع آوری کردند. او میگوید نه تنها ارتباط با افرادی از سایت توییتر سخت بود، بلکه او. متوجه شد که ابزارهای گزارش محتوای نادرست برای حفظ سلامت انتخابات که در انگلستان و دیگر کشورها وجود دارد در نیجریه وجود ندارد. حتی پیدا کردن تیک آبی به نشان مورد تایید بودن اکانت نامزدهای سیاسی نیز سخت بود.
«هیچ توضیحی وجود ندارد که چرا ابزارهای موجود که میتوانند از کاربران نیجریهای محافظت کنند. در دسترس آنها قرار نمیگیرد. در کل، من بیشتر نگران بالا گرفتن خشونت در حین انتخابات نیجریه هستم تا در انگلستان».
نشانگذاری
«آجای» به صورت سیستماتیک محتواهای آسیب زننده را نشانگذاری و گزارش میداد و زمان پاسخدهی را ثبت میکرد. «بعضی پاسخها پس از یک ساعت میرسیدند. بعضی پس از ۲۴ساعت و بعضیها حتی بیشتر از آن به طول میکشید. اگر پاسخ گزارش یک موضوع مهم در روز انتخابات یک هفته زمان ببرد، فایدهی آن چیست؟». تیم او با اسم «گروه تحقیقاتی دیجیتال آفریقا» جمعآوری هزاران توییت را در طول سال ۲۰۱۹ همچنان ادامه دادند.
نظر «آجای» این است که مقررات ضروری هستند. اما او نگران لایحهی جدید شبکههای اجتماعی در نیجریه است (که از یک قانون در سنگاپور الهام گرفته شده) که جریمههای سنگینی برای تخلفات در نظر دارد. «آسیبهای زیادی در شبکههای اجتماعی وجود دارد ولی آنها باید به دنبال اعمال مقررات برای بسترها باشند نه فرد به فرد». او به همراه دیگر محققان از کشورهای دیگر به صورت غیررسمی به مشاوره با شرکتهای رسانههای مجازی در مورد مسایل محلی داوطلب شدهاند. او میگوید: « این شرکتها لزوما متوجه معضلات نیستند، اما حتی زمانی هم که متوجه آنها شدند نیز مطمئن نیستم که ارادهی رسیدگی به آنها را داشته باشند».
داستان چهارم
کاهش آسیب مواد مخدر و آموزش آن
بازگرداندن یک تصمیم نظارت بر محتوا اگر پاسخگویی انسانی و یا یک روند قانونی نداشته نباشد، میتواند به یک امر بسیار آزاردهنده تبدیل شود. در لهستان یک سازمان به نام SIN که کارش آموزش خطرات استفاده از مواد مخدر به جوانان است از تجربهشان از زمانی که فیسبوک صفحه و گروهشان با ۴۰۰۰ عضو را به دلیل «تخلف از دستورالعملهای اصلی» در سال ۲۰۱۸ بست میگویند. جرزی آفاناسجو (Jerzy Afanasjew) از SIN میگوید: «یک روز بیدار شدم و دیدم همهاش رفته. فکر کردیم یک تصمیم اتوماتیک است و دکمهی بازبینی را زدیم. تلاش کردیم با ارتباط انسانی تماس برقرار کنیم. حتی دادخواستهای امضا شده برای دفترهای ورشو. دوبلین و کالیفرنیای فیسبوک فرستادیم».
پس از یک سال انتظار برای بازگرداندن این تصمیم، در سال ۲۰۱۹ آنها یک پروندهی دادگاهی علیه فیسبوک با حمایت از گروه حقوق دیجیتالی لهستان» باز کردند. آنها خواستار عذرخواهی و بازگرداندن اکانت و صفحات Sin بودند. گروههای کاهش آسیبهای مواد مخدر عموما تحت تاثیر فیلتر محتوای کاهش فروش مواد مخدر قرار میگیرند. اما همچنین بعضی وقتها بازگردانده میشوند. «آفاناسجو» میگوید: «من به شخصه گروههایی در ایالات متحده میشناسم که درگیر همین مشکل بودند ولی توانستند آن را حل کنند. بگونه ای است که انگار ما برای آنها کاربران درجه دو هستیم. مگر آنکه پول زیادی هزینهی تبلیغات کنیم. حس میکنم ۵سال کارم به باد هوا رفته است».
نوآوری برای جایگزینهای آتی
در کنار مقررات موثر، بیشمار نمونه از ابتکارات اجتماعی برای مبارزه با تاثیرات جانبی آسیبزنندهی نظارت بر محتوا و یا جایگزینهایی برای اقدامات ناکافی وجود دارد. مخصوصا از طریق توسعهی نرمافزاری و ارتباط مستقیم با بسترهای اینترنتی و این تلاشها برای پیدا کردن جایگزینی مناسب نسبت به وضعیت موجود حیاتی هستند و باید آنها را تشویق و حمایت کرد. قانونگذاران باید از رویکردهای جدید موفق استفاده کنند و با از افراد و سازمانهایی که به دنبال راهحلهای متفکرانه برای مشکلات ریشهای هستند همکاری وسیعتری داشته باشند.
داستان پنجم
تزریق جایگزینهای فمینیستی
زنان و اقلیتهای جنسی بیشتر در معرض آزار و اذیت آنلاین هستند ولی تبعیض جنسیتی در مقایسه با نفرت پراکنی، به ندرت اولویت نظارت بر محتوا بوده است. آیا امکاناتی وجود دارد که کاربران تجربهشان را خودشان کنترل کنند؟ ترزا اینگرام (Teresa Ingram) به عنوان تنها زن برنامهنویس نرمافزار در یک بانک انگلستان مشغول به کار بود که متوجه آزار و اذیت آنلاین زنان کارمند دولت از طریق دوستدخترش شد که در پارلمان دانمارک کار میکرد. او در مورد ایدهی افزونهی مرورگرش به نام Opt Out که توییتهای تبعیض جنسیتی را از صفحهی اصلی کاربر حذف میکند توضیح میدهد: «به خودم گفتم در این مورد اگر خودم کاری نکنم، هیچ کس نمیکند».
اکنون Opt Out یکی از پروژههای گروه فعالان تکنولوژی ٰOpt Out tool است که توانسته از همان ابتدا داوطلبانی از رشتههای مختلف برنامهنویسی آزمایشی و فمینیستی به خود جذب کند. «اینگرام» با اشاره به اینکه گزارش توییتهای توهینآمیز، زنان را از آزارو اذیت رها نمیکند.
توییتهای توهینآمیز
میگوید : «مشکلی که ما در حال رفع آن هستیم حتی توسط بسترها به عنوان مشکل شناخته نمیشود». هدف آنها ساخت افزونهای برای مرورگرها است که هر فردی بتواند آنرا همراستای نیازهای خود تنظیم کند. او میگوید: «ما روند <خواهر بزرگ> را به جای <برادر بزرگ> برای نظارت بر محتوا در پیش گرفتهایم. کاربر تصمیم میگیرد که چه چیز را میخواد ببیند و چه چیز را نمیخواخد ببیند. هیچ وقت مدل نظارتی که برای تکتک افراد جهان مناسب باشد پیدا نخواهد شد. پس ما میخواهیم به افراد کمک کنیم خودشان سیستم مناسبشان را بسازند».
داستان ششم
همگامسازی اصول مدنی با حقوق کاربری
تصادفی نیست که طی سالهای گذشته گزارشهای شفافسازی بسترها بیشتر و بیشتر با خواستههای کاربران، سازمانها و دولتها هم راستا شدهاست. یکی از تلاشهای گروهی موثر در ساخت زمینههای استاندارد تدوین «اصول سانتا کلارا» است که در سال ۲۰۱۸ در کنار یک کنفرانس بزرگ نظارت بر محتوا در کالیفرنیا شکل گرفت. طی دوسال، بسترهای متعددی این اصول را تایید کردند و به اجرای درجات مختلفی از درخواستهای بازنگری و پیگیری قانونی متعهد شدند. جیلیان یورک (Jillian York) مدیر آزادی بیان بینالمللی EFF میگوید: «ما نیاز کاربران برای اجرای روندی که آنها را از مقررات نظارتی ناعادلانه و مبهم محافظت میکند شناختهایم».
وی اکنون برای توسعه و اجرای استانداردهای جدیدی که حامی صداهای به حاشیه رفته هستند در حال تنظیم درخواست همگانی است . سازمانهایی مانند Ranking Digital Rights که در صف اول نظارت بر محتوا و شفافیتسازی شرکتها هستند نیز مدلهای تبلیغاتی که باعث افزایش محتواهای آسیب زننده به نحوی میشوندکه نظارت بر محتوا هم به تنهایی قادر به برطرف کردن آن نیست را مورد انتقاد قرار میدهند. ناتالی مارچال (Nathalie Maréchal) میگوید: « ما فکر میکنیم زمان آن رسیده که قانونکذاران بسترها را مسئول نحوه پخش و هدفگذاری محتواها بدانند تا کاربران را برای محتواهایشان». فعالان، هم در مقابل و هم در کنار بسترها، خواهان درگیر کردن قانونگذاران برای دستیابی به قوانینی سالم و در راستای حقوق بشر و آزادی بیان هستند که ادامهی راه سالها تلاش افراد و گروهها باشد.
چهکار میشود کرد؟
گاها شنیده میشود که به اینترنت لقب «غرب وحشی» را میدهند که هر اتفاقی ممکن است بیفتد. داستانهای بالا نشان میدهد که این لقب از واقعیت به دور است. در هر لحظه، تصمیمات برای محتوای آنلاین گرفته میشود که تاثیر واقعی بر حقوق بشر و تجربهی زیستی شهروندان جهان دارند. در حالی که نظارت بر محتوا توسط مقررات هر بسترها انجام میشود، ولی نباید تاثیر فشار و اجرای مقررات توسط دولتها را نیز نادیده گرفت. امروزه توجه اکثر این قوانین به تکنولوژی فیلتر محتوای نامناسب جلب است و کمتر به اطمینان از پاسخگویی و قبول مسئولیت بسترها و نحوهی پیگیریهای قضایی توجه میشود.
امیدواریم این داستانها در به تصویر کشیدن هزینههای انسانی این واقعیت کمک کرده باشند و بتوانند نشان دهند که وقتی قانونگذاران مقررات تنظیم محتوا را شکل میدهند، چه چیزی در خطر است. در عین حال که ما میدانیم رسیدن به یک توازن که برای همه مناسب باشد چقدر سخت است. امیدواریم با این داستانها توانسته باشیم نشان دهیم که اگر قوانین بهدرستی تنظیم شوند، شرایط چگونه خواهد بود.
با تشکر از مقاله بی نظیر شما. نظرتان در مورد اینترنت امن که این روزها به بحثی داغ تبدیل شده است چیست؟ آیا کشورها در عین حال که ارتباط خود با شبکه ی جهانی را باید حفظ کنند، مجبور به ایجاد شبکه ی امن داخلی هستند؟
ممنون بابت مقاله خوبتون.