
برنامه دوستیابی Bumble به عنوان بخشی از تعهد بزرگتر خود برای مبارزه با «فلش سایبری»، ابزار هوش مصنوعی خود را که تصاویر ناپسند ناخواسته را شناسایی می کند، منبع باز می کند. آشکارساز خصوصی که برای اولین بار در سال 2019 عرضه شد (بیایید یک لحظه وقت بگذاریم تا این نام جا بیفتد) بدن های برهنه ارسال شده از طریق برنامه Bumble را محو می کند و به کاربر دریافت کننده این امکان را می دهد که آیا تصویر را باز کند یا نه.
اگرچه تعداد کاربرانی که تصاویر ناپسند را به برنامههای ما ارسال میکنند خوشبختانه یک اقلیت کوچک است – فقط 0.1٪ – مقیاس ما به ما اجازه میدهد تا بهترین مجموعه دادههای صنعت از تصاویر ناشایست و غیر زشت را جمعآوری کنیم که برای دستیابی به بهترین عملکرد ممکن از کار طراحی شده است. این شرکت در یک بیانیه مطبوعاتی نوشت.
اکنون در Github موجود است، یک نسخه پیشرفته از AI برای استفاده تجاری، توزیع و اصلاح در دسترس است. در حالی که توسعه مدلی که تصاویر برهنه را تشخیص میدهد، دقیقاً یک فناوری پیشرفته نیست، چیزی است که شرکتهای کوچکتر احتمالاً زمانی برای توسعه خودشان ندارند. بنابراین، سایر برنامههای دوستیابی (یا هر محصولی که در آن افراد میتوانند عکسهای دیکها را بفرستند، با نام مستعار کل اینترنت؟) میتوانند این فناوری را در محصولات خود ادغام کنند و به کاربران کمک کنند از خود در برابر محتوای ناپسند ناخواسته محافظت کنند.
از زمان راهاندازی آشکارساز خصوصی، بامبل همچنین با قانونگذاران آمریکایی برای اجرای عواقب قانونی ارسال برهنههای ناخواسته همکاری کرده است.
بامبل افزود: «این موضوع باید فراتر از اکوسیستم محصولات Bumble و در یک گفتگوی گسترده تر در مورد چگونگی مقابله با مشکل عکس های ناشایست ناخواسته – که به عنوان سایبرفلشینگ نیز شناخته می شود – برای ایمن تر کردن اینترنت و مکان زیباتر برای همه مورد توجه قرار گیرد.
زمانی که Bumble برای اولین بار این هوش مصنوعی را معرفی کرد، شرکت ادعا کرد که دقت 98 درصدی دارد.