محتوا

در این وبلاگ سعی میکنیم که بهترین محتواهای ترجمه را قرار دهیم

محتوا

در این وبلاگ سعی میکنیم که بهترین محتواهای ترجمه را قرار دهیم

  • ۰
  • ۰

به گفته محققان دانشگاه کمبریج ، گسترش گفتار نفرت از طریق رسانه های اجتماعی می تواند با همان رویکرد "قرنطینه" که برای مبارزه با نرم افزارهای مخرب مستقر شده است ، مقابله کند.


تعاریف سخن از نفرت بسته به ملت ، قانون و بستر متغیر است و فقط مسدود کردن کلمات کلیدی بی اثر است: برای توصیف های گرافیکی خشونت نیازی به شعارهای قومی آشکار برای ایجاد تهدیدات مرگ نژادپرستانه نیست.

به همین ترتیب ، تشخیص متنفر از نفرت دشوار است. این افراد باید پس از تحمیل "آسیب روانی" مورد نظر ، توسط ارتش های تعدیل کننده گزارش شوند که باید در مورد هر پرونده قضاوت کنند.

این خط مقدم جدید بحث باستانی است: آزادی بیان در مقابل زبان مسموم.

اکنون ، یک مهندس و یک زبان شناس پیشنهادی را در ژورنال اخلاق و فناوری اطلاعات منتشر کرده اند که از تکنیک های امنیت سایبر استفاده می کند تا بدون اینکه به سانسور متوسل شود ، به افراد هدفمند کنترل می کند.

کارشناسان آموزش زبان و کمبریج کمبریج برای ایجاد الگوریتم هایی که می توانند برای احتمال ارسال پیام آنلاین ، حاوی اشکال سخن از نفرت ، از پایگاههای داده تهدیدها و توهینهای خشن استفاده کنند ، استفاده می کنند.

با اصلاح این الگوریتم ها ، می توان گفتار متنفرانه از نفرت را شناسایی و "قرنطینه" کرد. کاربران با یک "نفرت O'Meter" - نمره شدت سخن گفتن نفرت - نام فرستنده و یک گزینه برای مشاهده محتوا یا حذف غیب ، یک اخطار هشدار دریافت می کنند.

این رویکرد شبیه فیلترهای اسپم و بدافزار است و محققان پروژه "دادن صدا به دموکراسی های دیجیتال" معتقدند که می تواند میزان گفتار نفرت را که افراد مجبور به تجربه کردن هستند بطور چشمگیری کاهش دهد. آنها قصد دارند یک نمونه اولیه را در اوایل سال 2020 آماده کنند.

دکتر استفانی اولمان گفت: گفتار متنفر نوعی آسیب آنلاین عمدی مانند بدافزار است و بنابراین می توان با استفاده از قرنطینه کار کرد. "در واقع ، بسیاری از گفتار نفرت در واقع توسط نرم افزارهایی مانند رباتهای توییتر تولید می شود."

دکتر مارکوس توماالین ، نویسنده و مهندس گفت: "شرکت هایی مانند فیس بوک ، توییتر و گوگل به طور کلی واکنش نشان می دهند و متنفر هستند." "این ممکن است برای کسانی که اغلب با آن روبرو نیستند ، خوب باشد. برای دیگران این خیلی کم است ، خیلی دیر است."

وی گفت: "بسیاری از زنان و افراد گروه های اقلیت در اذهان عمومی ، به دلیل جرات جسارت حضور آنلاین ، از متن نفرت ناشناس دریافت می کنند. ما می بینیم که این افراد مانع از ورود یا ادامه زندگی در زندگی عمومی می شوند. گفت


 
وزیر امور خارجه پیشین آمریکا ، هیلاری کلینتون اخیراً به مخاطبان انگلستان گفت که سخنرانی نفرت انگیز "تهدیدی برای دموکراسی ها" محسوب می شود ، در پی بسیاری از نمایندگان زن با استناد به سوء استفاده آنلاین به عنوان بخشی از دلیل عدم حضور آنها در انتخابات.

در حالی که در یک آدرس دانشگاه جورج تاون ، مدیر عامل فیس بوک مارک زاکربرگ از "اختلاف نظرهای گسترده در مورد آنچه که نفرت است" سخن گفت و اظهار داشت: "ما باید در کنار بیان بیشتر خطا کنیم".

محققان می گویند که پیشنهاد آنها یک گلوله جادویی نیست ، بلکه بین "رویکردهای آزادی خواهانه و استبدادی افراطی" یا کاملاً مجاز یا ممنوع بودن زبان خاصی از طریق اینترنت قرار دارد.

مهمتر اینکه ، کاربر به داور تبدیل می شود. Tomalin گفت: "بسیاری از افراد ایده شرکت انتخاب نشده یا دولت خرد را نمی دانند که تصمیم می گیرد چه چیزی می توانیم و نمی توانیم به یکدیگر بگوییم."

"سیستم ما هنگامی که باید مراقب باشید پرچم گذاری می کند ، اما همیشه تماس شما است. این افراد جلوی ارسال پست یا مشاهده آنچه دوست دارند را نمی گیرد.

در مقاله ، محققان به الگوریتم های تشخیص دستیابی به دقت 60٪ اشاره می کنند - نه خیلی بهتر از فرصت. آزمایشگاه یادگیری ماشین توامالین اکنون این میزان را تا 80٪ آورده است و او پیش بینی می کند که ادامه مدل سازی ریاضی بهبود یابد.

در همین حال ، اولمان "داده های آموزشی" بیشتری را جمع می کند: تأیید شده متن سخن از نفرت که الگوریتم ها می توانند از آن یاد بگیرند. این کمک می کند تا "نمرات اعتماد به نفس" تعیین کننده قرنطینه و خواندن متن بعدی Hate O'Meter باشد ، که بسته به ترجیح کاربر می تواند مانند یک شماره گیری حساسیت تنظیم شود.

یک مثال اساسی ممکن است یک کلمه مانند "عوضی" را شامل شود: یک دفع سوء رفتار ، اما همچنین یک اصطلاح قانونی در زمینه هایی مانند پرورش سگ است. این تحلیل الگوریتمی از جایی است که چنین کلمه ای به صورت نحوی - انواع کلمات پیرامون و روابط معنایی بین آنها - نشانه متن سخن از نفرت را نشان می دهد.

اولیمان گفت: "شناسایی کلمات کلیدی فردی کافی نیست ، ما به کل ساختارهای جمله و بسیار فراتر از آن می پردازیم.

Tomalin اضافه کرد: "از طریق قرنطینه های اتوماتیک ، که در مورد محتوای متنفرانه هدایت می کنند ، می توانیم افرادی را که در انتهای سخنرانی نفرت دارند ، به گفتگوهای اینترنتی مسموم شوند."

با این حال ، محققان ، که در مرکز تحقیقات هنر ، علوم انسانی و علوم اجتماعی کمبریج (CRASSH) کار می کنند ، می گویند که - مانند ویروس های رایانه ای - همواره میان اسم و نفرت و سیستم هایی برای محدود کردن آن ، مسابقه تسلیحاتی وجود خواهد داشت.

این پروژه همچنین به بررسی "گفتار ضد" پرداخته است: روش هایی که مردم به گفتار متنفر پاسخ می دهند . محققان قصد دارند درباره بحث درباره دستیاران مجازی مانند "سیری" در برابر تهدیدها و ارعابها پاسخ دهند.

  • ۹۹/۰۲/۳۱
  • abcdonenumber1 abcdonenumbe

نظرات (۰)

هیچ نظری هنوز ثبت نشده است

ارسال نظر

ارسال نظر آزاد است، اما اگر قبلا در بیان ثبت نام کرده اید می توانید ابتدا وارد شوید.
شما میتوانید از این تگهای html استفاده کنید:
<b> یا <strong>، <em> یا <i>، <u>، <strike> یا <s>، <sup>، <sub>، <blockquote>، <code>، <pre>، <hr>، <br>، <p>، <a href="" title="">، <span style="">، <div align="">
تجدید کد امنیتی