منو سایت

  • خانه
  • وبلاگ
  • قوانین تولید هوش مصنوعی چین محدودیت ها و مجازات هایی را برای سوء استفاده تعیین می کند • TechCrunch

قوانین تولید هوش مصنوعی چین محدودیت ها و مجازات هایی را برای سوء استفاده تعیین می کند • TechCrunch

 تاریخ انتشار :
/
  وبلاگ
قوانین تولید هوش مصنوعی چین محدودیت ها و مجازات هایی را برای سوء استفاده تعیین می کند • TechCrunch

قوانین تولید هوش مصنوعی چین محدودیت ها و مجازات هایی را برای سوء استفاده تعیین می کند • TechCrunch

از آنجایی که مولدهای تبدیل متن به تصویر و چت ربات‌های هوشمند همچنان اذهان مردم را به خود مشغول می‌کنند، چین به سرعت اقدام به ارائه آنچه که مردم می‌توانند با ابزارهای ساخته شده بر روی مدل‌های قدرتمند هوش مصنوعی انجام دهند، انجام داده است. رگولاتورهای کشور به وضوح در مورد پیامدهای هوش مصنوعی مولد احتیاط دارند. این در تضاد با ایالات متحده است که تا به حال بخش خصوصی را تا حد زیادی رها کرده است تا قوانین خود را وضع کند و سؤالات اخلاقی و قانونی را ایجاد کرده است.

اداره فضای سایبری چین، برترین ناظر اینترنت این کشور، اخیراً مقرراتی را در مورد فناوری “سنتز عمیق” تصویب کرده است که آن را به عنوان “فناوری که از یادگیری عمیق، واقعیت مجازی و سایر الگوریتم‌های ترکیبی برای تولید متن، تصویر، صدا، ویدئو و سایر الگوریتم‌های ترکیبی استفاده می‌کند” تعریف کرده است. صحنه های مجازی.» این مقررات برای ارائه دهندگان خدمات فعال در چین اعمال می شود و از 10 ژانویه اجرایی می شود.

هیچ چیز در مجموعه قوانین غافلگیرکننده نیست، زیرا محدودیت ها عمدتاً مطابق با محدودیت هایی است که سایر اشکال خدمات اینترنتی مصرف کننده در چین مانند بازی ها، رسانه های اجتماعی و ویدیوهای کوتاه را کنترل می کنند. به عنوان مثال، کاربران از استفاده منع می شوند هوش مصنوعی مولد برای شرکت در فعالیت هایی که امنیت ملی را تهدید می کند، به منافع عمومی آسیب می رساند یا غیرقانونی است.

چنین محدودیت هایی توسط دستگاه تأیید نام واقعی چین امکان پذیر شده است. ناشناس بودن واقعاً در اینترنت چینی وجود ندارد، زیرا معمولاً از کاربران خواسته می شود تا حساب های آنلاین خود را به شماره تلفن خود که با شناسه دولتی آنها ثبت شده است پیوند دهند. ارائه دهندگان تولید هوش مصنوعی به طور مشابه ملزم به تأیید کاربران با استفاده از شماره تلفن همراه، شماره شناسایی یا سایر اشکال اسناد هستند.

چین همچنین به طور عجیبی می خواهد الگوریتم هایی را که می تواند تولید کند سانسور کند. ارائه دهندگان خدمات باید محتوای تولید شده توسط هوش مصنوعی را بررسی کنند و کاربر به صورت دستی یا از طریق ابزارهای فنی درخواست می کند. بایدو، یکی از اولین شرکت هایی که مدل متن به تصویر چین را راه اندازی کرد، در حال حاضر محتوای حساس سیاسی را فیلتر می کند. سانسور یک روش استاندارد در همه اشکال رسانه در چین است. سوال این است که آیا اعتدال محتوا می‌تواند با حجم زیاد متن، صدا، تصاویر و ویدیوهایی که توسط مدل‌های هوش مصنوعی استخراج می‌شوند کنار بیاید؟

شاید دولت چین باید برای جلوگیری از سوء استفاده از هوش مصنوعی قدمی بگذارد. از یک طرف قوانین مردم را از استفاده از فناوری های سنتز عمیق برای تولید و انتشار اخبار جعلی منع کنید. هنگامی که داده های مورد استفاده برای آموزش هوش مصنوعی حاوی اطلاعات شخصی باشد، ارائه دهندگان فناوری باید از قانون حفاظت از اطلاعات شخصی کشور پیروی کنند. پلتفرم‌ها همچنین باید به کاربران یادآوری کنند که قبل از تغییر چهره و صدای دیگران از طریق فناوری سنتز عمیق، به دنبال تأیید باشند. در نهایت، این قانون باید برخی از نگرانی‌های مربوط به نقض حق نسخه‌برداری و تقلب علمی را کاهش دهد: در صورتی که نتیجه هوش مصنوعی مولد می‌تواند باعث سردرگمی یا شناسایی نادرست مردم شود، ارائه‌دهنده خدمات باید یک واترمارک را در مکانی برجسته قرار دهد تا به مردم اطلاع دهد که کار دستگاه است

کاربرانی که این قوانین را نقض کنند جریمه خواهند شد. از متصدیان خدمات درخواست می شود سوابق تخلفات خود را نگهداری و مراتب را به مراجع ذیصلاح گزارش دهند. علاوه بر این، پلتفرم‌ها همچنین باید اخطارهایی صادر کنند، استفاده را محدود کنند، خدمات را به حالت تعلیق درآورند یا حتی حساب‌های افرادی را که قوانین را نقض می‌کنند ببندند.