

از آنجایی که مولدهای تبدیل متن به تصویر و چت رباتهای هوشمند همچنان اذهان مردم را به خود مشغول میکنند، چین به سرعت اقدام به ارائه آنچه که مردم میتوانند با ابزارهای ساخته شده بر روی مدلهای قدرتمند هوش مصنوعی انجام دهند، انجام داده است. رگولاتورهای کشور به وضوح در مورد پیامدهای هوش مصنوعی مولد احتیاط دارند. این در تضاد با ایالات متحده است که تا به حال بخش خصوصی را تا حد زیادی رها کرده است تا قوانین خود را وضع کند و سؤالات اخلاقی و قانونی را ایجاد کرده است.
اداره فضای سایبری چین، برترین ناظر اینترنت این کشور، اخیراً مقرراتی را در مورد فناوری “سنتز عمیق” تصویب کرده است که آن را به عنوان “فناوری که از یادگیری عمیق، واقعیت مجازی و سایر الگوریتمهای ترکیبی برای تولید متن، تصویر، صدا، ویدئو و سایر الگوریتمهای ترکیبی استفاده میکند” تعریف کرده است. صحنه های مجازی.» این مقررات برای ارائه دهندگان خدمات فعال در چین اعمال می شود و از 10 ژانویه اجرایی می شود.
هیچ چیز در مجموعه قوانین غافلگیرکننده نیست، زیرا محدودیت ها عمدتاً مطابق با محدودیت هایی است که سایر اشکال خدمات اینترنتی مصرف کننده در چین مانند بازی ها، رسانه های اجتماعی و ویدیوهای کوتاه را کنترل می کنند. به عنوان مثال، کاربران از استفاده منع می شوند هوش مصنوعی مولد برای شرکت در فعالیت هایی که امنیت ملی را تهدید می کند، به منافع عمومی آسیب می رساند یا غیرقانونی است.
چنین محدودیت هایی توسط دستگاه تأیید نام واقعی چین امکان پذیر شده است. ناشناس بودن واقعاً در اینترنت چینی وجود ندارد، زیرا معمولاً از کاربران خواسته می شود تا حساب های آنلاین خود را به شماره تلفن خود که با شناسه دولتی آنها ثبت شده است پیوند دهند. ارائه دهندگان تولید هوش مصنوعی به طور مشابه ملزم به تأیید کاربران با استفاده از شماره تلفن همراه، شماره شناسایی یا سایر اشکال اسناد هستند.
چین همچنین به طور عجیبی می خواهد الگوریتم هایی را که می تواند تولید کند سانسور کند. ارائه دهندگان خدمات باید محتوای تولید شده توسط هوش مصنوعی را بررسی کنند و کاربر به صورت دستی یا از طریق ابزارهای فنی درخواست می کند. بایدو، یکی از اولین شرکت هایی که مدل متن به تصویر چین را راه اندازی کرد، در حال حاضر محتوای حساس سیاسی را فیلتر می کند. سانسور یک روش استاندارد در همه اشکال رسانه در چین است. سوال این است که آیا اعتدال محتوا میتواند با حجم زیاد متن، صدا، تصاویر و ویدیوهایی که توسط مدلهای هوش مصنوعی استخراج میشوند کنار بیاید؟
شاید دولت چین باید برای جلوگیری از سوء استفاده از هوش مصنوعی قدمی بگذارد. از یک طرف قوانین مردم را از استفاده از فناوری های سنتز عمیق برای تولید و انتشار اخبار جعلی منع کنید. هنگامی که داده های مورد استفاده برای آموزش هوش مصنوعی حاوی اطلاعات شخصی باشد، ارائه دهندگان فناوری باید از قانون حفاظت از اطلاعات شخصی کشور پیروی کنند. پلتفرمها همچنین باید به کاربران یادآوری کنند که قبل از تغییر چهره و صدای دیگران از طریق فناوری سنتز عمیق، به دنبال تأیید باشند. در نهایت، این قانون باید برخی از نگرانیهای مربوط به نقض حق نسخهبرداری و تقلب علمی را کاهش دهد: در صورتی که نتیجه هوش مصنوعی مولد میتواند باعث سردرگمی یا شناسایی نادرست مردم شود، ارائهدهنده خدمات باید یک واترمارک را در مکانی برجسته قرار دهد تا به مردم اطلاع دهد که کار دستگاه است
کاربرانی که این قوانین را نقض کنند جریمه خواهند شد. از متصدیان خدمات درخواست می شود سوابق تخلفات خود را نگهداری و مراتب را به مراجع ذیصلاح گزارش دهند. علاوه بر این، پلتفرمها همچنین باید اخطارهایی صادر کنند، استفاده را محدود کنند، خدمات را به حالت تعلیق درآورند یا حتی حسابهای افرادی را که قوانین را نقض میکنند ببندند.