
اولین معادل منبع باز ChatGPT OpenAI وارد شده است، اما موفق باشید آن را روی لپ تاپ خود اجرا کنید – یا اصلاً.
این هفته، فیلیپ وانگ، توسعهدهندهای که مسئول مهندسی معکوس سیستمهای AI منبع بسته از جمله Make-A-Video متا است، PalM + RLHF را منتشر کرد، یک مدل تولید متن که رفتاری مشابه ChatGPT دارد. این سیستم PALM، یک مدل زبان بزرگ از Google، و تکنیکی به نام یادگیری تقویتی با بازخورد انسانی – به طور خلاصه RLHF – را ترکیب می کند تا سیستمی را ایجاد کند که تقریباً می تواند هر کاری را که ChatGPT می تواند انجام دهد، از جمله تهیه پیش نویس ایمیل ها و ارائه کد رایانه.
اما PalM + RLHF از قبل آموزش دیده نیست. یعنی سیستم بر روی نمونه داده های شبکه مورد نیاز برای عملکرد واقعی خود آموزش ندیده است. دانلود PaLM + RLHF به طور جادویی تجربهای شبیه به ChatGPT را نصب نمیکند – که نیازمند کامپایل کردن گیگابایت متن برای مدل برای یادگیری و یافتن سختافزاری قدرتمند برای مدیریت بار آموزشی است.
مانند ChatGPT، PalM + RLHF اساساً یک ابزار آماری پیشبینی کلمات است. هنگامی که تعداد زیادی نمونه از داده های آموزشی تغذیه می شود – برای مثال، پست های Reddit، مقالات خبری، و کتاب های الکترونیکی – PaLM + RLHF می آموزد که چقدر احتمال دارد کلمات بر اساس الگوهایی مانند بافت معنایی متن اطراف ظاهر شوند.
ChatGPT و PalM + RLHF سس خاصی را در آموزش تقویتی با بازخورد انسانی به اشتراک می گذارند، تکنیکی که هدف آن همسویی بهتر مدل های زبان با آنچه کاربران می خواهند به آن دست یابند. RLHF شامل آموزش یک مدل زبان – در مورد PaLM + RLHF، PaLM – و تنظیم دقیق آن بر روی مجموعه داده ای است که شامل دستورات (به عنوان مثال، “یادگیری ماشینی را برای یک کودک شش ساله توضیح دهید”) همراه با آنچه که داوطلبان انسانی انتظار دارند، می باشد. از مدل برای گفتن (مثلاً “یادگیری ماشین نوعی هوش مصنوعی است…”). سپس دستورات فوق به مدل تنظیم شده داده می شود که چندین پاسخ ایجاد می کند و داوطلبان همه پاسخ ها را از بهترین به بدترین رتبه بندی می کنند. در نهایت، از رتبهبندی برای آموزش یک «مدل پاداش» استفاده میشود که پاسخهای مدل اصلی را میگیرد و آنها را به ترتیب اولویت مرتب میکند و بهترین پاسخها را به یک درخواست داده شده فیلتر میکند.
جمع آوری داده های آموزشی فرآیندی پرهزینه است. و خود آموزش ارزان نیست. اندازه PalM 540 میلیارد پارامتر است، «پارامترهایی» که به بخشهایی از مدل زبانی که از دادههای آموزشی آموخته میشود، اشاره دارد. یک مطالعه در سال 2020 هزینه توسعه یک مدل تولید متن با تنها 1.5 میلیارد پارامتر را 1.6 میلیون دلار نشان داد. و برای آموزش مدل منبع باز بلوم، که دارای 176 میلیارد پارامتر است، سه ماه با استفاده از 384 پردازنده گرافیکی Nvidia A100 طول کشید. یک A100 هزاران دلار قیمت دارد.
اجرای یک مدل آموزش دیده با سایز PaLM + RLHF نیز بی اهمیت نیست. بلوم به یک کامپیوتر اختصاصی با حدود هشت پردازنده گرافیکی A100 نیاز دارد. جایگزینهای ابری گران هستند، با ریاضیات پشت سر هم هزینه اجرای GPT-3 برای تولید متن OpenAI – که حدود 175 میلیارد پارامتر دارد – روی یک نمونه از خدمات وب آمازون حدود 87000 دلار در سال است.
سباستین راشکا، محقق هوش مصنوعی، در یک پست لینکدین در مورد PaLM + RLHF اشاره میکند که بزرگکردن جریانهای کاری توسعه مورد نیاز نیز میتواند یک چالش باشد. او گفت: «حتی اگر کسی 500 پردازنده گرافیکی برای آموزش این مدل به شما بدهد، باز هم باید با زیرساختها سروکار داشته باشید و یک چارچوب نرمافزاری داشته باشید که بتواند آن را مدیریت کند». “بدیهی است که ممکن است، اما در حال حاضر تلاش بزرگی است (البته، ما در حال توسعه چارچوب هایی برای ساده تر کردن آن هستیم، اما هنوز هم بی اهمیت نیست).
همه اینها به این معنی است که PALM + RLHF امروز جایگزین ChatGPT نمیشود – مگر اینکه یک سرمایهگذاری (یا شخص) با بودجه خوب آموزش دهد و آن را عمومی کند.
در خبر بهتر، چندین تلاش دیگر برای تکرار ChatGPT در حال پیشرفت سریع است، از جمله تلاشهایی که توسط یک گروه تحقیقاتی به نام CarperAI رهبری میشود. CarperAI با مشارکت سازمان تحقیقاتی باز هوش مصنوعی EleutherAI و استارتآپهای Scale AI و Hugging Face، قصد دارد اولین مدل هوش مصنوعی آماده استفاده از ChatGPT را منتشر کند که با بازخورد انسانی آموزش دیده است.
LAION، سازمان غیرانتفاعی که مجموعه داده اولیه مورد استفاده برای آموزش Stable Diffusion را ارائه کرد، همچنین پروژهای را برای تکرار ChatGPT با استفاده از آخرین تکنیکهای یادگیری ماشین هدایت میکند. هدف LAION بلندپروازانه ساختن «دستیار آینده» است – دستیار که فقط ایمیلها و نامههای پوششی نمینویسد، بلکه «کار معنیداری انجام میدهد، از APIها استفاده میکند، اطلاعات را به صورت پویا کاوش میکند و خیلی چیزهای دیگر». این در مراحل اولیه است اما یک صفحه منبع GitHub برای این پروژه چند هفته پیش راه اندازی شد.