
با وجود اینکه توییتر به عنوان یک خنک کننده آنلاین برای روزنامه نگاران، سیاستمداران و سرمایه گذاران خطرپذیر عمل می کند، سودآورترین شبکه اجتماعی در این بلوک نیست. در میان آشفتگی داخلی و افزایش فشار سرمایهگذاران برای کسب درآمد بیشتر، توییتر در حال بررسی درآمدزایی از محتوای بزرگسالان است.
طبق گزارش The Verge، توییتر با اجازه دادن به سازندگان بزرگسال برای فروش اشتراک در پلت فرم رسانه های اجتماعی، آماده تبدیل شدن به رقیبی برای OnlyFans بود. این ایده ممکن است در ابتدا عجیب به نظر برسد، اما در واقع آنقدرها هم عجیب نیست – برخی از سازندگان بزرگسال از قبل به توییتر به عنوان وسیله ای برای تبلیغ حساب های OnlyFans خود متکی هستند، زیرا توییتر یکی از تنها پلتفرم های اصلی است که در آن پست کردن پورن دستورالعمل ها را نقض نمی کند.
اما ظاهراً توییتر این پروژه را پس از اینکه یک «تیم قرمز» 84 کارمندی که برای آزمایش این محصول برای نقصهای امنیتی راهاندازی شد، متوقف کرد، متوجه شد که توییتر قادر به تشخیص مواد سوء استفاده جنسی از کودکان (CSAM) و برهنگی غیر توافقی در مقیاس نیست. توییتر همچنین هیچ ابزاری برای تأیید اینکه سازندگان و کاربران محتوای بزرگسالان بالای 18 سال سن دارند، نداشت. بر اساس این گزارش، تیم سلامت توییتر از فوریه 2021 به افراد بالاتر در مورد مشکل CSAM این پلتفرم هشدار داده است.
برای شناسایی چنین محتوایی، توییتر از یک پایگاه داده توسعه یافته توسط مایکروسافت به نام PhotoDNA استفاده می کند که به پلتفرم ها کمک می کند تا به سرعت CSAM های شناخته شده را شناسایی و حذف کنند. اما اگر قطعه ای از CSAM قبلاً بخشی از این پایگاه داده نباشد، تصاویر جدیدتر یا تغییر داده شده دیجیتالی می توانند از تشخیص فرار کنند.
متیو گرین، دانشیار موسسه امنیت اطلاعات جانز هاپکینز، می گوید: «شما می بینید که مردم می گویند، «خب، توییتر کار بدی انجام می دهد». و سپس معلوم می شود که توییتر از همان فناوری اسکن PhotoDNA استفاده می کند که تقریباً همه از آن استفاده می کنند.
درآمد سالانه توییتر – حدود 5 میلیارد دلار در سال 2021 – در مقایسه با شرکتی مانند گوگل که در سال گذشته 257 میلیارد دلار درآمد داشت، اندک است. Google توانایی مالی برای توسعه فناوری پیچیدهتر برای شناسایی CSAM را دارد، اما این مکانیسمهای مبتنی بر یادگیری ماشینی بیخطا نیستند. متا همچنین از Content Safety API گوگل برای شناسایی CSAM استفاده می کند.
گرین توضیح داد: «این نوع جدید از فناوری تجربی یک استاندارد صنعتی نیست.
در یکی از موارد اخیر، پدری متوجه شد که اندام تناسلی کودک نوپایش متورم و دردناک است، بنابراین با پزشک پسرش تماس گرفت. قبل از کلاس پزشکی از راه دور، پدر تصاویر عفونت پسرش را برای دکتر فرستاد. سیستمهای تعدیل محتوای Google این تصاویر پزشکی را به عنوان CSAM علامتگذاری کردند و پدر را از تمام حسابهای Google خود مسدود کردند. پلیس هشدار داده شد و شروع به تحقیق از پدر کرد، اما از قضا نتوانستند با او تماس بگیرند زیرا شماره تلفن Google Fi او قطع شده بود.
گرین به TechCrunch گفت: «این ابزارها قدرتمند هستند زیرا می توانند چیزهای جدیدی پیدا کنند، اما مستعد خطا نیز هستند. “یادگیری ماشینی تفاوت بین ارسال چیزی به پزشک و آزار جنسی واقعی کودک را نمی داند.”
اگرچه این نوع فناوری برای محافظت از کودکان در برابر استثمار استفاده می شود، منتقدان نگران هستند که هزینه این حفاظت – نظارت انبوه و اسکن داده های شخصی – بسیار بالا باشد. اپل سال گذشته قصد داشت فناوری تشخیص CSAM خود به نام NeuralHash را منتشر کند، اما پس از اینکه کارشناسان امنیتی و طرفداران حریم خصوصی اشاره کردند که این فناوری می تواند به راحتی توسط مقامات دولتی مورد سوء استفاده قرار گیرد، این محصول کنار گذاشته شد.
جو مولین، تحلیلگر سیاست در بنیاد Electronic Frontier در یک پست وبلاگی نوشت: «سیستمهایی مانند این میتوانند اقلیتهای آسیبپذیر، از جمله والدین دگرباشان جنسی را در مکانهایی که پلیس و اعضای جامعه غیردوستانه هستند، گزارش کنند. “سیستم Google ممکن است به اشتباه والدین را به مقامات کشورهای مستبد یا مکان هایی با پلیس فاسد گزارش دهد که والدین متهم به اشتباه نمی توانند از روند قانونی مطمئن شوند.”
این بدان معنا نیست که پلتفرمهای اجتماعی نمیتوانند بیشتر برای محافظت از کودکان در برابر استثمار انجام دهند. تا ماه فوریه، توییتر راهی برای کاربران نداشت که محتوای حاوی CSAM را پرچمگذاری کنند، به این معنی که برخی از مضرترین محتوای وبسایت میتوانند برای مدت طولانی پس از گزارش کاربران آنلاین باقی بمانند. سال گذشته، دو نفر از توییتر به دلیل سودجویی از ویدئوهایی که از آنها به عنوان قربانیان قاچاق جنسی نوجوانان ضبط شده بود، شکایت کردند. پرونده به دادگاه تجدید نظر ایالات متحده برای حوزه نهم هدایت می شود. در آن پرونده، شاکیان ادعا میکنند که توییتر در زمانی که ویدیوها از آنها مطلع شد، موفق به حذف آنها نشده است. این ویدیوها بیش از 167000 بازدید به دست آورده است.
توییتر با مشکل سختی روبروست: این پلتفرم به اندازهای بزرگ است که شناسایی همه CSAMها تقریباً غیرممکن است، اما پول کافی برای سرمایهگذاری روی پادمانهای قویتر به دست نمیآورد. بر اساس گزارش The Verge، خرید احتمالی ایلان ماسک از توییتر نیز بر اولویتهای تیمهای ایمنی و سلامت این شرکت تأثیر گذاشته است. هفته گذشته، طبق گزارشها، توییتر تیم سلامت خود را سازماندهی کرد تا به جای آن بر شناسایی حسابهای اسپم تمرکز کند – ماسک به شدت استدلال کرده است که توییتر در مورد تکثیر رباتها در این پلتفرم دروغ میگوید و دلیل آن را برای پایان دادن به قرارداد 44 میلیارد دلاری ذکر کرده است.
هر کاری که توییتر انجام می دهد که خوب یا بد است، اکنون با توجه به اینکه چگونه بر روند تأثیر می گذارد سنجیده می شود. [with Musk]گرین گفت: “ممکن است میلیاردها دلار در خطر باشد.”
توییتر به درخواست TechCrunch برای اظهار نظر پاسخ نداد.