Generic selectors
Exact matches only
جستجو بر اساس عنوان
جستجو بر اساس مطلب
Post Type Selectors
بر اساس دسته بندی
آی تی
اصناف و صنایع
اقتصاد
امور زنان
بلاکچین و ارز دیجیتال
بهترین ها
تعمیرات
تغذیه
تکنولوژی
توسعه مهارت‌ها
حیوانات خانگی
خانه و دکوراسیون
داستان کوتاه/ نقد ادبی
دسته‌بندی نشده
رابطه و ازدواج
رهبری و مدیریت
روان‌شناسی
رویدادها
سبک زندگی
سرگذشت‌ها
سلامت
سلامت عمومی
طبیعت و محیط زیست
علم و فناوری
فیلم و سرگرمی
گردشگری
مارکتینگ
مد و زیبایی
مدیریت و کسب‌وکار
موبایل و کامپیوتر
موسیقی
نوشته های خواندنی
هنر و ادبیات
هنرهای تجسمی
ورزش
پذیرش پست مهمان در یونویس
خبر فوری
خانه @ مدیریت و کسب‌وکار @ مارکتینگ @ زمانی که نظارت بر محتوا آسیب می‌زند بخش 1

زمانی که نظارت بر محتوا آسیب می‌زند بخش 1

by | 2 خرداد 1400 | مارکتینگ, نوشته های خواندنی | 2 comments

زمانی که نظارت بر محتوا آسیب می‌زند

شش داستان الهام بخش برای تنظیم مقررات بهتر

اعداد به تنهایی نمی‌توانند تاثیر انسانی یک تصمیم اشتباه محتوایی بر روی بزرگترین بسترهای اینترنتی دنیا را نشان دهند. پیدا کردن توضیحی مشخص و یا جبران اشتباهات می‌تواند بی‌نهایت آزاردهنده باشد. چه این اشتباهات محتوا‌هایی هستند که باید حذف شوند. چه محتواهایی که به‌ناحق حذف می‌شوند. 

در این مطلب، مثالی‌هایی برای نشان دادن چالش‌های اصلی و همچنین فرصت‌های بهبود تنظیم مقررات بسترهای اینترنتی را در قالب شش داستان کوتاه و مختصر به اشتراک می‌گذاریم.چالش‌هایی مانند؛ محدودیت‌های اتوماسیون و فیلترینگ. شکاف‌های موجود در شفافیت و یک‌دستی قوانین. و فرصت تعامل با یک اکوسیستمی از افراد و گروه‌هایی که در جستجوی جایگزین‌های اجتماعی. فنی و قانونی سالم‌تر هستند.

فشار عموم جامعه برای کاهش نفرت‌پراکنی. و محتواهای غیرقانونی در فضای اینترنت نیز به درخواست‌هایی مبنی بر تنظیم مقررات بیشتر برای پاسخگویی بهتر بسترها اضافه شده است. با این حال اکثر اوقات. تلاش‌های قانون‌گزاران برای پاسخگویی به درخواست‌ها بیشتر مخرب بوده‌اند تا سازنده و نتوانسته اند مشکلات اصلی را ریشه‌یابی کنند. در عین حال برخی از مشکلات حاد همچنان وجود دارند و در روند سیاست‌گذاری کم ارزش شمرده می‌شوند. برای مثال؛ تاثیر نظارت محتوا بر سلامت جسم و ذهن ناظران انسانی.

با به اشتراک گذاشتن این داستان‌ها ما می‌خواهیم الهام بخش سیاست‌گذاری کلی بر اساس شواهد و مدارک باشیم تا اشتباهات گذشته تکرار نشوند. عموما، قوانین اقدامات شتاب‌زده ‌ای را برای مقابله با درگیری‌ها و رسوایی‌ها ( و یا پاندمی‌ها) در نظر می‌گیرند. به جای اینکه روندی واضح و پایدار به سوی اینترنتی سالم‌تر برای همه را پیش بگیرند. پیچیدگی‌هایی که در این داستان‌ها بیان می‌شود نشان‌دهنده‌ی این است که تنظیم مقررات موثرتر به این راحتی‌‌ها بدست نمی‌آید و مطمئنا در همه جا به یک شکل نخواهد بود. ولی نشان می‌دهند که همکاری با هم‌نظران خود برای بهتر شدن وضعیت چقدر مهم است.

اتوماسیون و فیلترینگ

اتوماسیون و فیلترینگ

سیستم‌های متمرکز بر محتوا ، معمولاً از اتوماسیون و فیلترینگ به عنوان یک روش موثر برای نظارت بر محتوا در بسترهای بزرگ استفاده می‌کنند. متاسفانه این تکنولوژی هنوز پیشرفت کافی را نداشته. و بیشتر از داده‌هایی با جهت گیری خاص و ناقص استفاده می‌کند. و خیلی اوقات منجر به موقعیت‌هایی می‌شود که محتوای «بد» بر روی اینترنت باقی می‌ماند و محتوای «خوب» پایین می‌آید. امروزه. در مقیاس کلی. هوش مصنوعی موئلفه‌ی اصلی نظارت بر محتوا است. اما زمانی که کار می‌رسد به نظارت بر نظرات عمومی که باید در قالب انسانی فهمیده شود. این ابزار ناکارآمد می‌شود. پس قوانینی که استفاده از این سیستم‌ها را اجبار می‌کند دلیل بروز آسیب‌ها هستند.

داستان اول

شیوع اطلاعات غلط و کووید۱۹

 وقتی اوایل شیوع جهانی این ویروس. ناظران بر محتوای بسترهای بزرگ مثل فیسبوک و یوتیوب به خانه فرستاده شدند. خیلی از مردم حذف اتوماتیک تعداد زیادی پست در مورد کووید ۱۹ را گزارش دادند. بلاگ سازندگان یوتیوب در تاریخ ۱۶ مارچ نوشت: «کاربران و سازندگان ممکن است شاهد افزایش پاک شدن ویدئو‌ها باشند. حتی ویدیوهایی که قوانین را زیر پا نگذاشته‌اند» و توضیح می‌دهد که سیستم یادگیری اتوماتیک بدون نظارت انسان شروع به پاک کردن محتوا خواهد کرد. در همان حین. اطلاعات غلط در مورد ویروس کرونا سرتاسر وب پخش و همه‌گیر می‌شدند. بسترها با سرعتی ثابت مشغول پاک کردن. کم اهمیت کردن و خارج کردن اطلاعات کذب در تبلیغات و لینک‌ها بودند. اما طبق نظر نت جینز (Nat Gyenes) از مرکز سلامت دیجیتال میدن (Meedan). شیوع اطلاعات غلط اتفاق تازه‌ای نیست.

پاندمی‌ها

او می‌گوید؛ «بسترهای اینترنتی بزرگ برای اجرای استراتژی‌های نظارت بر محتوای موثر نیاز به تشکیل تیم‌های پاسخگو به سلامت عمومی دارند». جینز می‌گوید که حتی برای مشکلات قدیمی مانند اطلاعات غلط درباره‌ی سرطان نیز همکاری بستر‌ها با متخصصین سلامت عمومی و محققین جهان ناکافی است. او می‌گوید: «پاندمی‌ها جهانی هستند ولی به صورت منطقه‌ای و محلی تجربه می‌شوند، و چالش ناظران بر محتوا نیز به همین شکل است».

همچنین بخوانید  چگونه از یک رابطه سمی جان سالم به در ببریم؟

مردم در همه‌جای جهان در ایمیل‌ها و انجمن‌های اینترنتی و گروه‌های مجازی با زبان عامیانه سوال‌هایی در مورد بهداشت و سلامت می‌پرسند. وجود ناظران انسانی ضروری است. در پاسخ سریع به پاندمی کووید۱۹. «میدن» در حال توسعه یک پایگاه‌داده‌ی سلامت تخصصی است که می‌تواند توسط جامعه بین المللی مورد بررسی صحت و درستی اطلاعات قرارگیرد.

این پایگاه داده شامل اطلاعات مختلف سلامت و بهداشت از سراسر جهان از جمله هند. برزیل، کنیا و سنگال است که از طرف متخصصین تایید شده‌اند. همچنین اطلاعات را به کارکنان حوزه‌ی سلامت و سپس به سمت بسترهای اینترنتی بزرگ‌تر هدایت می‌کند. در نهایت. راه‌حل‌های اتوماتیک نظارت بر محتوا محدودیت‌هایی دارند و این واقعیتی سخت است که توسط پاندمی کووید۱۹ نمایان شد. مشکلات نظارت بسیار پیچیده هستند و هیچ راه حل جادویی نیز وجود ندارد.

داستان دوم

شبکه‌های اجتماعی به عنوان مدرک و حافظه

میلیون‌ها ویدیو نقض حقوق بشر، اگر یک فیلتر اتوماتیک آن‌ها را به عنوان محتوای تروریستی بشناسد. می‌توانند در یک چشم به هم زدن پاک شوند. آرشیو سوریه سازمانی است که شواهد تصویری که مدرک نقض حقوق بشر هستند را جمع آوری. تایید و نگه‌داری می‌کند. سال‌هاست آنها به بسترهای اینترنتی فشار وارد کرده اند که مدارک ویدئویی را نگه‌داری کنند و حتی اگر می‌خواهند آنها را از دید عموم مخفی کنند. در دسترس محققان قرار دهند. این سازمان از این که بسترهای رسانه‌های اجتماعی به «آرشیو‌های شانسی» تبدیل شده‌اند ناراضی هستند و هدفشان عرضه‌ی یک آرشیو جایگزین است. جف داچ (Jeff Deutch) محقق اصلی این سازمان می‌گوید؛ «بسیار مایوس کننده است.

مدارک

در خیلی موارد، اینگونه مدارک تنها شواهد موجود برای اثبات وقوع یک جنایت هستند. وقتی آن‌ها حذف شوند. کار خبرنگاران و محققین برای گزارش وقایع و دادستان‌ها برای پیگیری عدالت بسیار سخت می‌شود». او می‌گوید علاوه بر این. فرآیند قانونی بازیابی محتوا یکدست و مطمئن نیست. مخصوصا هنگامی که اکانت‌های تعلیق‌شده متعلق به کسانیست که یا کشته یا بازداشت شده‌اند. «برای مثال، وقتی از سایت یوتیوب بازیابی حدود ۳۰۰ ویدئو که حمله به بیمارستان‌ها و مراکز پزشکی را ثبت کرده بودند را درخواست کردیم. بازیابی شش ماه به طول کشید».

متاسفانه خیلی از کشورها و منطقه‌ها. قوانین ضد تروریستی مشکل‌سازی را اجرا می‌کنند که باعث حذف شدن محتوای نقض حقوق بشری می‌شود. برای نمونه؛ اتحادیه اروپا در حال تدوین مقررات محتوای تروریستی جدیدی با تعهدات حذف سخت‌گیرانه‌تری است که به معنی حذف هرچه بیشتر محتواهایی است که باید در دسترس عموم باشند. و این باعث ترس فعالان شده است. 

فضاهای عمومی، قوانین خصوصی

بسترهای بزرگ از طرف دولت‌ها برای شناسایی و اقدام نسبت به محتواهای غیرقانونی و آسیب‌زننده تحت فشار هستند. اما حتی هنگامی که قوانین مکتوب هستند نیز تصمیم بر این که چه چیزی حذف شود و چه چیزی باقی بماند کاملا به بستر مورد نظر بستگی دارد. به عبارت دیگر. در واقع دستورالعمل خدمات و نظارت بر محتوای هر بستر شبیه قانون عمل می‌کند. اما بدون هیچ ضمانت‌. روند‌ و یا پاسخگویی‌هایی که از قانون انتظار می‌رود. این می‌تواند منجر به حذف بیان نظر عمومی مهمی بدون فرصت پیگیری و دادخواست شود. همچنین می‌تواند به این معنی باشد که بستر‌های بزرگ اولویت نظارت بر محتوا را در کشورهایی که دولت قدرت فشار بیشتر به آنها دارند را در اولویت قرار می‌دهند. در این فرایند به نظر میرسد افرادی که در مناطق کمتر مهم از نظر تجاری زندگی می‌کنند در تلاش‌های امنیتی نادیده گرفته شده‌اند.

داستان سوم

سیاست‌های توجه آنلاین

تفاوت اهمیت و توجه به کاربران در بین کشورهای مختلف اولین بار توسط رزماری آجای (Rosemary Ajayi) محقق دیجیتالی در حین انتخابات سال ۲۰۱۹ نیجریه شناخته شد. او به همراه یک تیم هشت نفره ناظر صدها توییت که حاوی اطلاعات نادرست. نفرت‌پراکنی و جعل هویت نامزد‌ها بودند را جمع آوری کردند. او می‌گوید نه تنها ارتباط با افرادی از سایت توییتر سخت بود، بلکه او. متوجه شد که ابزارهای گزارش محتوای نادرست برای حفظ سلامت انتخابات که در انگلستان و دیگر کشورها وجود دارد در نیجریه وجود ندارد. حتی پیدا کردن تیک آبی به نشان مورد تایید بودن اکانت نامزدهای سیاسی نیز سخت بود.

همچنین بخوانید  10 دلیل برای اینکه کارآفرین نشوید!

«هیچ توضیحی وجود ندارد که چرا ابزار‌های موجود که می‌توانند از کاربران نیجریه‌ای محافظت کنند. در دسترس آن‌ها قرار نمی‌گیرد. در کل، من بیشتر نگران بالا گرفتن خشونت در حین انتخابات نیجریه هستم تا در انگلستان».

نشان‌گذاری

«آجای» به صورت سیستماتیک محتواهای آسیب زننده را نشان‌گذاری و گزارش می‌داد و زمان پاسخ‌دهی را ثبت می‌کرد. «بعضی پاسخ‌ها پس از یک ساعت می‌رسیدند. بعضی پس از ۲۴ساعت و بعضی‌ها حتی بیشتر از آن به طول می‌کشید. اگر پاسخ گزارش یک موضوع مهم در روز انتخابات یک هفته زمان ببرد، فایده‌ی آن چیست؟». تیم او با اسم «گروه تحقیقاتی دیجیتال آفریقا» جمع‌آوری هزاران توییت را در طول سال ۲۰۱۹ همچنان ادامه‌ دادند.

نظر «آجای» این است که مقررات ضروری هستند. اما او نگران لایحه‌ی جدید شبکه‌های اجتماعی در نیجریه است (که از یک قانون در سنگاپور الهام گرفته شده) که جریمه‌های سنگینی برای تخلفات در نظر دارد. «آسیب‌های زیادی در شبکه‌های اجتماعی وجود دارد ولی آن‌ها باید به دنبال اعمال مقررات برای بسترها باشند نه فرد به فرد». او به همراه دیگر محققان از کشورهای دیگر به صورت غیر‌رسمی به مشاوره با شرکت‌های رسانه‌های مجازی در مورد مسایل محلی داوطلب شده‌اند. او می‌گوید: « این شرکت‌ها لزوما متوجه معضلات نیستند، اما حتی زمانی هم که متوجه آن‌ها شدند نیز مطمئن نیستم که اراده‌ی رسیدگی به آن‌ها را داشته باشند».

داستان چهارم

کاهش آسیب مواد مخدر و آموزش آن

بازگرداندن یک تصمیم نظارت بر محتوا اگر پاسخگویی انسانی و یا یک روند قانونی نداشته نباشد، می‌تواند به یک امر بسیار آزاردهنده‌ تبدیل شود. در لهستان یک سازمان به نام SIN که کارش آموزش خطرات استفاده از مواد مخدر به جوانان است از تجربه‌شان از زمانی که فیسبوک صفحه‌ و گروهشان با ۴۰۰۰ عضو را به دلیل «تخلف از دستورالعمل‌های اصلی» در سال ۲۰۱۸ بست می‌گویند. جرزی آفاناسجو (Jerzy Afanasjew) از SIN می‌گوید: «یک روز بیدار شدم و دیدم همه‌اش رفته. فکر کردیم یک تصمیم اتوماتیک است و دکمه‌ی بازبینی را زدیم. تلاش کردیم با ارتباط انسانی تماس برقرار کنیم. حتی دادخواست‌های امضا شده برای دفترهای ورشو. دوبلین و کالیفرنیای فیسبوک فرستادیم».

پس از یک سال انتظار برای بازگرداندن این تصمیم، در سال ۲۰۱۹ آن‌ها یک پرونده‌ی دادگاهی علیه فیسبوک با حمایت از گروه حقوق دیجیتالی لهستان» باز کردند. آن‌ها خواستار عذرخواهی و بازگرداندن اکانت و صفحات Sin بودند. گروه‌های کاهش آسیب‌های مواد مخدر عموما تحت تاثیر فیلتر محتوای کاهش فروش مواد مخدر قرار می‌گیرند. اما همچنین بعضی وقت‌ها بازگردانده می‌شوند. «آفاناسجو» می‌گوید: «من به شخصه گروه‌هایی در ایالات متحده‌ می‌شناسم که درگیر همین مشکل بودند ولی توانستند آن را حل کنند. بگونه ای است که انگار ما برای آن‌ها کاربران درجه دو هستیم. مگر آنکه پول زیادی هزینه‌ی تبلیغات کنیم. حس می‌کنم ۵سال کارم به باد هوا رفته است».

نوآوری برای جایگزین‌های آتی

در کنار مقررات موثر، بیشمار نمونه از ابتکارات اجتماعی برای مبارزه با تاثیرات جانبی آسیب‌زننده‌ی نظارت بر محتوا و یا جایگزین‌هایی برای اقدامات ناکافی وجود دارد. مخصوصا از طریق توسعه‌ی نرم‌افزاری و ارتباط مستقیم با بسترهای اینترنتی و این تلاش‌ها برای پیدا کردن جایگزینی مناسب نسبت به وضعیت موجود حیاتی هستند و باید آن‌ها را تشویق و حمایت کرد. قانون‌گذاران باید از رویکرد‌های جدید موفق استفاده کنند و با از افراد و سازمان‌هایی که به دنبال راه‌حل‌های متفکرانه برای مشکلات ریشه‌ای هستند همکاری وسیع‌تری داشته باشند.

داستان پنجم

تزریق جایگزین‌های فمینیستی

زنان و اقلیت‌های جنسی بیشتر در معرض آزار و اذیت آنلاین هستند ولی تبعیض جنسیتی در مقایسه با نفرت پراکنی، به ندرت اولویت نظارت بر محتوا بوده است. آیا امکاناتی وجود دارد که کاربران تجربه‌شان را خودشان کنترل کنند؟ ترزا اینگرام (Teresa Ingram) به عنوان تنها زن برنامه‌نویس نرم‌افزار در یک بانک انگلستان مشغول به کار بود که متوجه آزار و اذیت آنلاین زنان کارمند دولت از طریق دوست‌دخترش شد که در پارلمان دانمارک کار می‌کرد. او‌ در مورد ایده‌ی افزونه‌ی مرورگرش به نام Opt Out که توییت‌های تبعیض جنسیتی را از صفحه‌ی اصلی کاربر حذف می‌کند توضیح می‌دهد: «به خودم گفتم در این مورد اگر خودم کاری نکنم، هیچ کس نمی‌کند».

همچنین بخوانید  نکات طلایی بازاریابی در لینکدین که باید بدانید!

اکنون Opt Out یکی از پروژه‌های گروه فعالان تکنولوژی ٰOpt Out tool است که توانسته از همان ابتدا داوطلبانی از رشته‌های مختلف برنامه‌نویسی آزمایشی و فمینیستی به خود جذب کند. «اینگرام» با اشاره به اینکه گزارش توییت‌های توهین‌آمیز، زنان را از آزارو اذیت رها نمی‌کند.

توییت‌های توهین‌آمیز

توییت‌های توهین‌آمیز

می‌گوید : «مشکلی که ما در حال رفع آن هستیم حتی توسط بسترها به عنوان مشکل شناخته نمی‌شود». هدف آن‌ها ساخت افزونه‌ای برای مرورگرها است که هر فردی بتواند آن‌را هم‌راستای نیازهای خود تنظیم کند. او می‌گوید: «ما روند <خواهر بزرگ> را به جای <برادر بزرگ> برای نظارت بر محتوا در پیش گرفته‌ایم. کاربر تصمیم می‌گیرد که چه چیز را می‌خواد ببیند و چه چیز را نمی‌خواخد ببیند. هیچ وقت مدل نظارتی که برای تک‌تک افراد جهان مناسب باشد پیدا نخواهد شد. پس ما می‌خواهیم به افراد کمک کنیم خودشان سیستم مناسب‌شان را بسازند».

داستان ششم

همگام‌سازی اصول مدنی با حقوق کاربری

تصادفی نیست که طی سال‌های گذشته گزارش‌های شفاف‌سازی بسترها بیشتر و بیشتر با خواسته‌های کاربران، سازمان‌ها و دولت‌ها هم راستا شده‌است. یکی از تلاش‌های گروهی موثر در ساخت زمینه‌های استاندارد تدوین «اصول سانتا کلارا» است که در سال ۲۰۱۸ در کنار یک کنفرانس بزرگ نظارت بر محتوا در کالیفرنیا شکل گرفت. طی دوسال، بسترهای متعددی این اصول را تایید کردند و به اجرای درجات مختلفی از درخواست‌های بازنگری و پی‌گیری قانونی متعهد شدند. جیلیان یورک (Jillian York) مدیر آزادی بیان بین‌المللی EFF می‌گوید: «ما نیاز کاربران برای اجرای روندی که آن‌ها را از مقررات نظارتی ناعادلانه و مبهم محافظت می‌کند شناخته‌ایم».

وی اکنون برای توسعه و اجرای استاندارد‌های جدیدی که حامی صداهای به حاشیه رفته هستند در حال تنظیم درخواست همگانی است . سازمان‌هایی مانند Ranking Digital Rights که در صف اول نظارت بر محتوا و شفافیت‌سازی شرکت‌ها هستند نیز مدل‌‌های تبلیغاتی که باعث افزایش محتواهای آسیب زننده به نحوی می‌شوندکه نظارت بر محتوا هم به تنهایی قادر به برطرف کردن آن نیست را مورد انتقاد قرار می‌دهند. ناتالی مارچال (Nathalie Maréchal) می‌گوید: « ما فکر می‌کنیم زمان آن رسیده که قانون‌کذاران بسترها را مسئول نحوه پخش و هدف‌گذاری محتواها بدانند تا کاربران را برای محتوا‌هایشان». فعالان، هم در مقابل و هم در کنار بسترها، خواهان درگیر کردن قانون‌گذاران برای دست‌یابی به قوانینی سالم و در راستای حقوق بشر و آزادی بیان هستند که ادامه‌ی راه سال‌ها تلاش افراد و گروه‌ها باشد.

چه‌کار می‌شود کرد؟

گاها شنیده می‌شود که به اینترنت لقب «غرب وحشی» را می‌دهند که هر اتفاقی ممکن است بیفتد. داستان‌های بالا نشان می‌دهد که این لقب از واقعیت به دور است. در هر لحظه، تصمیمات برای محتوای آنلاین گرفته می‌شود که تاثیر واقعی بر حقوق بشر و تجربه‌ی زیستی شهروندان جهان دارند. در حالی که نظارت بر محتوا توسط مقررات هر بسترها انجام می‌شود، ولی نباید تاثیر فشار و اجرای مقررات توسط دولت‌ها را نیز نادیده گرفت. امروزه توجه اکثر این قوانین به تکنولوژی فیلتر محتوای نامناسب جلب است و کمتر به اطمینان از پاسخگویی و قبول مسئولیت بسترها و نحوه‌ی پیگیری‌های قضایی توجه می‌شود.

امیدواریم این داستان‌ها در به تصویر کشیدن هزینه‌های انسانی این واقعیت کمک کرده باشند و بتوانند نشان دهند که وقتی قانون‌گذاران مقررات تنظیم محتوا را شکل می‌دهند، چه چیزی در خطر است. در عین حال که ما می‌دانیم رسیدن به یک توازن که برای همه مناسب باشد چقدر سخت است. امیدواریم با این داستان‌ها توانسته باشیم نشان دهیم که اگر قوانین به‌درستی تنظیم شوند، شرایط چگونه خواهد بود.

بی‌نظیر
بی‌نظیر

Life is a waterfall
We drink from the river
Then we turn around and put up our walls

چطور بود؟
+1
+1
+1
+1
+1
+1
+1

2 Comments

  1. مهدی
    0
    0

    با تشکر از مقاله بی نظیر شما. نظرتان در مورد اینترنت امن که این روزها به بحثی داغ تبدیل شده است چیست؟ آیا کشورها در عین حال که ارتباط خود با شبکه ی جهانی را باید حفظ کنند، مجبور به ایجاد شبکه ی امن داخلی هستند؟

    Reply
  2. اکبر حسین‌پور
    0
    0

    ممنون بابت مقاله خوبتون.

    Reply

Submit a Comment

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

نویسندگان فعال

مطالب مرتبط