منو سایت

  • خانه
  • وبلاگ
  • تلاش توییتر برای کسب درآمد از پورنو به دلیل هشدارهای ایمنی کودکان متوقف شد – TechCrunch

تلاش توییتر برای کسب درآمد از پورنو به دلیل هشدارهای ایمنی کودکان متوقف شد – TechCrunch

 تاریخ انتشار :
/
  وبلاگ
تلاش توییتر برای کسب درآمد از پورنو به دلیل هشدارهای ایمنی کودکان متوقف شد - TechCrunch

با وجود اینکه توییتر به عنوان یک خنک کننده آنلاین برای روزنامه نگاران، سیاستمداران و سرمایه گذاران خطرپذیر عمل می کند، سودآورترین شبکه اجتماعی در این بلوک نیست. در میان آشفتگی داخلی و افزایش فشار سرمایه‌گذاران برای کسب درآمد بیشتر، توییتر در حال بررسی درآمدزایی از محتوای بزرگسالان است.

طبق گزارش The Verge، توییتر با اجازه دادن به سازندگان بزرگسال برای فروش اشتراک در پلت فرم رسانه های اجتماعی، آماده تبدیل شدن به رقیبی برای OnlyFans بود. این ایده ممکن است در ابتدا عجیب به نظر برسد، اما در واقع آنقدرها هم عجیب نیست – برخی از سازندگان بزرگسال از قبل به توییتر به عنوان وسیله ای برای تبلیغ حساب های OnlyFans خود متکی هستند، زیرا توییتر یکی از تنها پلتفرم های اصلی است که در آن پست کردن پورن دستورالعمل ها را نقض نمی کند.

اما ظاهراً توییتر این پروژه را پس از اینکه یک «تیم قرمز» 84 کارمندی که برای آزمایش این محصول برای نقص‌های امنیتی راه‌اندازی شد، متوقف کرد، متوجه شد که توییتر قادر به تشخیص مواد سوء استفاده جنسی از کودکان (CSAM) و برهنگی غیر توافقی در مقیاس نیست. توییتر همچنین هیچ ابزاری برای تأیید اینکه سازندگان و کاربران محتوای بزرگسالان بالای 18 سال سن دارند، نداشت. بر اساس این گزارش، تیم سلامت توییتر از فوریه 2021 به افراد بالاتر در مورد مشکل CSAM این پلتفرم هشدار داده است.

برای شناسایی چنین محتوایی، توییتر از یک پایگاه داده توسعه یافته توسط مایکروسافت به نام PhotoDNA استفاده می کند که به پلتفرم ها کمک می کند تا به سرعت CSAM های شناخته شده را شناسایی و حذف کنند. اما اگر قطعه ای از CSAM قبلاً بخشی از این پایگاه داده نباشد، تصاویر جدیدتر یا تغییر داده شده دیجیتالی می توانند از تشخیص فرار کنند.

متیو گرین، دانشیار موسسه امنیت اطلاعات جانز هاپکینز، می گوید: «شما می بینید که مردم می گویند، «خب، توییتر کار بدی انجام می دهد». و سپس معلوم می شود که توییتر از همان فناوری اسکن PhotoDNA استفاده می کند که تقریباً همه از آن استفاده می کنند.

درآمد سالانه توییتر – حدود 5 میلیارد دلار در سال 2021 – در مقایسه با شرکتی مانند گوگل که در سال گذشته 257 میلیارد دلار درآمد داشت، اندک است. Google توانایی مالی برای توسعه فناوری پیچیده‌تر برای شناسایی CSAM را دارد، اما این مکانیسم‌های مبتنی بر یادگیری ماشینی بی‌خطا نیستند. متا همچنین از Content Safety API گوگل برای شناسایی CSAM استفاده می کند.

گرین توضیح داد: «این نوع جدید از فناوری تجربی یک استاندارد صنعتی نیست.

در یکی از موارد اخیر، پدری متوجه شد که اندام تناسلی کودک نوپایش متورم و دردناک است، بنابراین با پزشک پسرش تماس گرفت. قبل از کلاس پزشکی از راه دور، پدر تصاویر عفونت پسرش را برای دکتر فرستاد. سیستم‌های تعدیل محتوای Google این تصاویر پزشکی را به عنوان CSAM علامت‌گذاری کردند و پدر را از تمام حساب‌های Google خود مسدود کردند. پلیس هشدار داده شد و شروع به تحقیق از پدر کرد، اما از قضا نتوانستند با او تماس بگیرند زیرا شماره تلفن Google Fi او قطع شده بود.

گرین به TechCrunch گفت: «این ابزارها قدرتمند هستند زیرا می توانند چیزهای جدیدی پیدا کنند، اما مستعد خطا نیز هستند. “یادگیری ماشینی تفاوت بین ارسال چیزی به پزشک و آزار جنسی واقعی کودک را نمی داند.”

اگرچه این نوع فناوری برای محافظت از کودکان در برابر استثمار استفاده می شود، منتقدان نگران هستند که هزینه این حفاظت – نظارت انبوه و اسکن داده های شخصی – بسیار بالا باشد. اپل سال گذشته قصد داشت فناوری تشخیص CSAM خود به نام NeuralHash را منتشر کند، اما پس از اینکه کارشناسان امنیتی و طرفداران حریم خصوصی اشاره کردند که این فناوری می تواند به راحتی توسط مقامات دولتی مورد سوء استفاده قرار گیرد، این محصول کنار گذاشته شد.

جو مولین، تحلیلگر سیاست در بنیاد Electronic Frontier در یک پست وبلاگی نوشت: «سیستم‌هایی مانند این می‌توانند اقلیت‌های آسیب‌پذیر، از جمله والدین دگرباشان جنسی را در مکان‌هایی که پلیس و اعضای جامعه غیردوستانه هستند، گزارش کنند. “سیستم Google ممکن است به اشتباه والدین را به مقامات کشورهای مستبد یا مکان هایی با پلیس فاسد گزارش دهد که والدین متهم به اشتباه نمی توانند از روند قانونی مطمئن شوند.”

این بدان معنا نیست که پلتفرم‌های اجتماعی نمی‌توانند بیشتر برای محافظت از کودکان در برابر استثمار انجام دهند. تا ماه فوریه، توییتر راهی برای کاربران نداشت که محتوای حاوی CSAM را پرچم‌گذاری کنند، به این معنی که برخی از مضرترین محتوای وب‌سایت می‌توانند برای مدت طولانی پس از گزارش کاربران آنلاین باقی بمانند. سال گذشته، دو نفر از توییتر به دلیل سودجویی از ویدئوهایی که از آنها به عنوان قربانیان قاچاق جنسی نوجوانان ضبط شده بود، شکایت کردند. پرونده به دادگاه تجدید نظر ایالات متحده برای حوزه نهم هدایت می شود. در آن پرونده، شاکیان ادعا می‌کنند که توییتر در زمانی که ویدیوها از آنها مطلع شد، موفق به حذف آن‌ها نشده است. این ویدیوها بیش از 167000 بازدید به دست آورده است.

توییتر با مشکل سختی روبروست: این پلتفرم به اندازه‌ای بزرگ است که شناسایی همه CSAMها تقریباً غیرممکن است، اما پول کافی برای سرمایه‌گذاری روی پادمان‌های قوی‌تر به دست نمی‌آورد. بر اساس گزارش The Verge، خرید احتمالی ایلان ماسک از توییتر نیز بر اولویت‌های تیم‌های ایمنی و سلامت این شرکت تأثیر گذاشته است. هفته گذشته، طبق گزارش‌ها، توییتر تیم سلامت خود را سازماندهی کرد تا به جای آن بر شناسایی حساب‌های اسپم تمرکز کند – ماسک به شدت استدلال کرده است که توییتر در مورد تکثیر ربات‌ها در این پلتفرم دروغ می‌گوید و دلیل آن را برای پایان دادن به قرارداد 44 میلیارد دلاری ذکر کرده است.

هر کاری که توییتر انجام می دهد که خوب یا بد است، اکنون با توجه به اینکه چگونه بر روند تأثیر می گذارد سنجیده می شود. [with Musk]گرین گفت: “ممکن است میلیاردها دلار در خطر باشد.”

توییتر به درخواست TechCrunch برای اظهار نظر پاسخ نداد.