منو سایت

  • خانه
  • وبلاگ
  • Bumble هوش مصنوعی خود را باز می کند که برهنه های ناخواسته را تشخیص می دهد • TechCrunch

Bumble هوش مصنوعی خود را باز می کند که برهنه های ناخواسته را تشخیص می دهد • TechCrunch

 تاریخ انتشار :
/
  وبلاگ
Bumble هوش مصنوعی خود را باز می کند که برهنه های ناخواسته را تشخیص می دهد • TechCrunch

برنامه دوستیابی Bumble به عنوان بخشی از تعهد بزرگتر خود برای مبارزه با «فلش سایبری»، ابزار هوش مصنوعی خود را که تصاویر ناپسند ناخواسته را شناسایی می کند، منبع باز می کند. آشکارساز خصوصی که برای اولین بار در سال 2019 عرضه شد (بیایید یک لحظه وقت بگذاریم تا این نام جا بیفتد) بدن های برهنه ارسال شده از طریق برنامه Bumble را محو می کند و به کاربر دریافت کننده این امکان را می دهد که آیا تصویر را باز کند یا نه.

اگرچه تعداد کاربرانی که تصاویر ناپسند را به برنامه‌های ما ارسال می‌کنند خوشبختانه یک اقلیت کوچک است – فقط 0.1٪ – مقیاس ما به ما اجازه می‌دهد تا بهترین مجموعه داده‌های صنعت از تصاویر ناشایست و غیر زشت را جمع‌آوری کنیم که برای دستیابی به بهترین عملکرد ممکن از کار طراحی شده است. این شرکت در یک بیانیه مطبوعاتی نوشت.

اکنون در Github موجود است، یک نسخه پیشرفته از AI برای استفاده تجاری، توزیع و اصلاح در دسترس است. در حالی که توسعه مدلی که تصاویر برهنه را تشخیص می‌دهد، دقیقاً یک فناوری پیشرفته نیست، چیزی است که شرکت‌های کوچکتر احتمالاً زمانی برای توسعه خودشان ندارند. بنابراین، سایر برنامه‌های دوستیابی (یا هر محصولی که در آن افراد می‌توانند عکس‌های دیک‌ها را بفرستند، با نام مستعار کل اینترنت؟) می‌توانند این فناوری را در محصولات خود ادغام کنند و به کاربران کمک کنند از خود در برابر محتوای ناپسند ناخواسته محافظت کنند.

از زمان راه‌اندازی آشکارساز خصوصی، بامبل همچنین با قانون‌گذاران آمریکایی برای اجرای عواقب قانونی ارسال برهنه‌های ناخواسته همکاری کرده است.

بامبل افزود: «این موضوع باید فراتر از اکوسیستم محصولات Bumble و در یک گفتگوی گسترده تر در مورد چگونگی مقابله با مشکل عکس های ناشایست ناخواسته – که به عنوان سایبرفلشینگ نیز شناخته می شود – برای ایمن تر کردن اینترنت و مکان زیباتر برای همه مورد توجه قرار گیرد.

زمانی که Bumble برای اولین بار این هوش مصنوعی را معرفی کرد، شرکت ادعا کرد که دقت 98 درصدی دارد.