منو سایت

  • خانه
  • وبلاگ
  • در حال حاضر یک جایگزین منبع باز برای ChatGPT وجود دارد، اما با راه اندازی آن موفق باشید • TechCrunch

در حال حاضر یک جایگزین منبع باز برای ChatGPT وجود دارد، اما با راه اندازی آن موفق باشید • TechCrunch

 تاریخ انتشار :
/
  وبلاگ
در حال حاضر یک جایگزین منبع باز برای ChatGPT وجود دارد، اما با راه اندازی آن موفق باشید • TechCrunch

اولین معادل منبع باز ChatGPT OpenAI وارد شده است، اما موفق باشید آن را روی لپ تاپ خود اجرا کنید – یا اصلاً.

این هفته، فیلیپ وانگ، توسعه‌دهنده‌ای که مسئول مهندسی معکوس سیستم‌های AI منبع بسته از جمله Make-A-Video متا است، PalM + RLHF را منتشر کرد، یک مدل تولید متن که رفتاری مشابه ChatGPT دارد. این سیستم PALM، یک مدل زبان بزرگ از Google، و تکنیکی به نام یادگیری تقویتی با بازخورد انسانی – به طور خلاصه RLHF – را ترکیب می کند تا سیستمی را ایجاد کند که تقریباً می تواند هر کاری را که ChatGPT می تواند انجام دهد، از جمله تهیه پیش نویس ایمیل ها و ارائه کد رایانه.

اما PalM + RLHF از قبل آموزش دیده نیست. یعنی سیستم بر روی نمونه داده های شبکه مورد نیاز برای عملکرد واقعی خود آموزش ندیده است. دانلود PaLM + RLHF به طور جادویی تجربه‌ای شبیه به ChatGPT را نصب نمی‌کند – که نیازمند کامپایل کردن گیگابایت متن برای مدل برای یادگیری و یافتن سخت‌افزاری قدرتمند برای مدیریت بار آموزشی است.

مانند ChatGPT، PalM + RLHF اساساً یک ابزار آماری پیش‌بینی کلمات است. هنگامی که تعداد زیادی نمونه از داده های آموزشی تغذیه می شود – برای مثال، پست های Reddit، مقالات خبری، و کتاب های الکترونیکی – PaLM + RLHF می آموزد که چقدر احتمال دارد کلمات بر اساس الگوهایی مانند بافت معنایی متن اطراف ظاهر شوند.

ChatGPT و PalM + RLHF سس خاصی را در آموزش تقویتی با بازخورد انسانی به اشتراک می گذارند، تکنیکی که هدف آن همسویی بهتر مدل های زبان با آنچه کاربران می خواهند به آن دست یابند. RLHF شامل آموزش یک مدل زبان – در مورد PaLM + RLHF، PaLM – و تنظیم دقیق آن بر روی مجموعه داده ای است که شامل دستورات (به عنوان مثال، “یادگیری ماشینی را برای یک کودک شش ساله توضیح دهید”) همراه با آنچه که داوطلبان انسانی انتظار دارند، می باشد. از مدل برای گفتن (مثلاً “یادگیری ماشین نوعی هوش مصنوعی است…”). سپس دستورات فوق به مدل تنظیم شده داده می شود که چندین پاسخ ایجاد می کند و داوطلبان همه پاسخ ها را از بهترین به بدترین رتبه بندی می کنند. در نهایت، از رتبه‌بندی برای آموزش یک «مدل پاداش» استفاده می‌شود که پاسخ‌های مدل اصلی را می‌گیرد و آنها را به ترتیب اولویت مرتب می‌کند و بهترین پاسخ‌ها را به یک درخواست داده شده فیلتر می‌کند.

جمع آوری داده های آموزشی فرآیندی پرهزینه است. و خود آموزش ارزان نیست. اندازه PalM 540 میلیارد پارامتر است، «پارامترهایی» که به بخش‌هایی از مدل زبانی که از داده‌های آموزشی آموخته می‌شود، اشاره دارد. یک مطالعه در سال 2020 هزینه توسعه یک مدل تولید متن با تنها 1.5 میلیارد پارامتر را 1.6 میلیون دلار نشان داد. و برای آموزش مدل منبع باز بلوم، که دارای 176 میلیارد پارامتر است، سه ماه با استفاده از 384 پردازنده گرافیکی Nvidia A100 طول کشید. یک A100 هزاران دلار قیمت دارد.

اجرای یک مدل آموزش دیده با سایز PaLM + RLHF نیز بی اهمیت نیست. بلوم به یک کامپیوتر اختصاصی با حدود هشت پردازنده گرافیکی A100 نیاز دارد. جایگزین‌های ابری گران هستند، با ریاضیات پشت سر هم هزینه اجرای GPT-3 برای تولید متن OpenAI – که حدود 175 میلیارد پارامتر دارد – روی یک نمونه از خدمات وب آمازون حدود 87000 دلار در سال است.

سباستین راشکا، محقق هوش مصنوعی، در یک پست لینکدین در مورد PaLM + RLHF اشاره می‌کند که بزرگ‌کردن جریان‌های کاری توسعه مورد نیاز نیز می‌تواند یک چالش باشد. او گفت: «حتی اگر کسی 500 پردازنده گرافیکی برای آموزش این مدل به شما بدهد، باز هم باید با زیرساخت‌ها سروکار داشته باشید و یک چارچوب نرم‌افزاری داشته باشید که بتواند آن را مدیریت کند». “بدیهی است که ممکن است، اما در حال حاضر تلاش بزرگی است (البته، ما در حال توسعه چارچوب هایی برای ساده تر کردن آن هستیم، اما هنوز هم بی اهمیت نیست).

همه اینها به این معنی است که PALM + RLHF امروز جایگزین ChatGPT نمی‌شود – مگر اینکه یک سرمایه‌گذاری (یا شخص) با بودجه خوب آموزش دهد و آن را عمومی کند.

در خبر بهتر، چندین تلاش دیگر برای تکرار ChatGPT در حال پیشرفت سریع است، از جمله تلاش‌هایی که توسط یک گروه تحقیقاتی به نام CarperAI رهبری می‌شود. CarperAI با مشارکت سازمان تحقیقاتی باز هوش مصنوعی EleutherAI و استارت‌آپ‌های Scale AI و Hugging Face، قصد دارد اولین مدل هوش مصنوعی آماده استفاده از ChatGPT را منتشر کند که با بازخورد انسانی آموزش دیده است.

LAION، سازمان غیرانتفاعی که مجموعه داده اولیه مورد استفاده برای آموزش Stable Diffusion را ارائه کرد، همچنین پروژه‌ای را برای تکرار ChatGPT با استفاده از آخرین تکنیک‌های یادگیری ماشین هدایت می‌کند. هدف LAION بلندپروازانه ساختن «دستیار آینده» است – دستیار که فقط ایمیل‌ها و نامه‌های پوششی نمی‌نویسد، بلکه «کار معنی‌داری انجام می‌دهد، از APIها استفاده می‌کند، اطلاعات را به صورت پویا کاوش می‌کند و خیلی چیزهای دیگر». این در مراحل اولیه است اما یک صفحه منبع GitHub برای این پروژه چند هفته پیش راه اندازی شد.