منو سایت

  • خانه
  • وبلاگ
  • Anthropic’s Claude ChatGPT را بهبود می بخشد، اما همچنان از محدودیت هایی رنج می برد • TechCrunch

Anthropic’s Claude ChatGPT را بهبود می بخشد، اما همچنان از محدودیت هایی رنج می برد • TechCrunch

 تاریخ انتشار :
/
  وبلاگ
Anthropic's Claude ChatGPT را بهبود می بخشد، اما همچنان از محدودیت هایی رنج می برد • TechCrunch

آنتروپیک، استارت آپی که توسط کارمندان سابق OpenAI تأسیس شده و تا به امروز بیش از 700 میلیون دلار سرمایه جمع آوری کرده است، یک سیستم هوش مصنوعی مشابه ChatGPT OpenAI توسعه داده است که به نظر می رسد از جنبه های کلیدی نسبت به نسخه اصلی بهبود یافته است.

سیستم آنتروپیک که کلود نام دارد از طریق یکپارچه سازی Slack به عنوان بخشی از a در دسترس است نسخه بتا بسته. TechCrunch نتوانست دسترسی داشته باشد – ما با آنتروپیک تماس گرفتیم – اما کسانی که در نسخه بتا بودند، در آخر هفته گذشته پس از لغو تحریم پوشش رسانه‌ای، تعامل خود با کلود را در توییتر شرح دادند.

کلود با استفاده از تکنیک توسعه یافته توسط آنتروپیک به نام “هوش مصنوعی اساسی” ساخته شد. همانطور که این شرکت در موضوع اخیر توییتر توضیح داد، هدف “هوش مصنوعی قانونی” ارائه یک رویکرد “مبتنی بر اصول” برای همسویی سیستم های هوش مصنوعی با نیت انسان است، که به هوش مصنوعی ChatGPT اجازه می دهد تا با استفاده از مجموعه ای ساده از اصول به عنوان راهنما به سوالات پاسخ دهد.

برای مهندس کلود آنتروپیک، او با فهرستی از حدود ده اصل شروع کرد که در کنار هم، نوعی “قانون اساسی” را تشکیل می دادند (از این رو نام “هوش مصنوعی قانون اساسی” نامیده می شود). این اصول علنی نشده است، اما آنتروپیک می‌گوید این اصول مبتنی بر مفاهیم سودمندی (یعنی به حداکثر رساندن تأثیر مثبت)، عدم سوءاستفاده (پرهیز از دادن توصیه‌های مضر) و استقلال (احترام به آزادی انتخاب) است.

آنتروپیک سپس یک سیستم هوش مصنوعی داشت – نه کلود – از اصول خودسازی استفاده می کرد، پاسخ هایی را به اعلان های مختلف می نوشت (مثلاً «شعری به سبک جان کیتس بنویسید») و پاسخ ها را مطابق قانون اساسی تجدید نظر می کرد. هوش مصنوعی پاسخ‌های احتمالی به هزاران درخواست را مطالعه کرد و آن‌هایی را انتخاب کرد که با قانون اساسی سازگارتر بودند، که Anthropic آنها را در یک مدل تقطیر کرد. از این مدل برای آموزش کلود استفاده شد.

در غیر این صورت، کلود اساساً یک ابزار آماری پیش‌بینی کلمات است – بسیار شبیه به ChatGPT و سایر مدل‌های به اصطلاح زبان. کلود که تعداد زیادی نمونه متن را از وب تغذیه کرد، متوجه شد که چقدر احتمال دارد کلمات بر اساس الگوهایی مانند بافت معنایی متن اطراف ظاهر شوند. در نتیجه، کلود می تواند گفتگوی باز داشته باشد، جوک بگوید و در مورد طیف وسیعی از موضوعات فلسفه ورزی کند.

رایلی گودساید، مهندس پیشنهاد در استارت‌آپ Scale AI، کلود را در مقابل ChatGPT در نبرد عقل قرار داد. او از هر دو ربات خواست تا خود را با ماشینی از رمان علمی تخیلی لهستانی «سایبریاد» مقایسه کنند که فقط می‌تواند اشیایی ایجاد کند که نامشان با «n» شروع شود. گودساید گفت، کلود به گونه‌ای پاسخ داد که نشان می‌دهد «طرح داستان را خوانده است» (اگرچه جزئیات کوچک را به اشتباه به خاطر می‌آورد)، در حالی که ChatGPT پاسخ مبهم‌تری ارائه کرد.

به عنوان نمایشی از خلاقیت کلود، گودساید از هوش مصنوعی خواست تا یک قسمت داستانی از سینفلد و یک شعر به سبک کلاغ ادگار آلن پو بنویسد. نتایج با آنچه ChatGPT می‌تواند به دست آورد همخوانی داشت – نثر انسانی چشمگیر، اگر نگوییم کامل.

Jan Dubois، Ph.D. دانشجوی آزمایشگاه هوش مصنوعی استنفورد نیز کلود و ChatGPT را مقایسه کرد و نوشت که کلود “به طور کلی آنچه را که خواسته می شود با دقت بیشتری دنبال می کند” اما “کمتر مختصر” است زیرا تمایل دارد آنچه گفته شده را توضیح دهد و از او بپرسد که چگونه می تواند کمک بیشتری کند. با این حال، کلود چند سؤال بی اهمیت دیگر به درستی دریافت می کند – به ویژه آنهایی که مربوط به سرگرمی، جغرافیا، تاریخ و مبانی جبر – و بدون کرک اضافی که ChatGPT گاهی اوقات اضافه می کند. و بر خلاف ChatGPT، کلود می تواند اعتراف کند (البته نه همیشه) زمانی که پاسخ یک سوال به خصوص دشوار را نمی داند.

همچنین به نظر می رسد کلود در گفتن جوک بهتر از ChatGPT است، یک شاهکار چشمگیر با توجه به اینکه طنز مفهومی دشوار برای هوش مصنوعی است. دان التون، محقق هوش مصنوعی، با مقایسه کلود با ChatGPT متوجه شد که کلود جوک های ظریف تری مانند «چرا Starship Enterprise شبیه یک موتور سیکلت بود؟ این یک سکان دارد.

با این حال، کلود کامل نیست. در معرض برخی از نقص های مشابه ChatGPT است، از جمله دادن پاسخ هایی که با محدودیت های برنامه ریزی شده آن مطابقت ندارند. در یکی از مثال‌های عجیب‌تر، جستجوی سیستم در base64، یک طرح رمزگذاری که داده‌های باینری را در قالب ASCII نشان می‌دهد، فیلترهای محتوای مخرب داخلی خود را دور می‌زند. التون توانست در base64 از کلود بخواهد تا دستورالعمل هایی در مورد نحوه ساخت مت در خانه ارائه دهد، سوالی که سیستم وقتی به زبان انگلیسی ساده از او پرسیده می شد جواب نمی داد.

DuBois گزارش می دهد که کلود در ریاضیات بدتر از ChatGPT است، اشتباهات آشکاری مرتکب می شود و نمی تواند پاسخ های بعدی صحیح را بدهد. در همین راستا، کلود برنامه نویس بدتری است، کدهای خود را بهتر توضیح می دهد، اما زبان های دیگری غیر از پایتون را ندارد.

کلود همچنین “توهمات” را حل نمی کند، یک مشکل طولانی مدت در سیستم های هوش مصنوعی مانند ChatGPT که در آن هوش مصنوعی جملات ناسازگار و نادرست را می نویسد. التون توانست کلود را وادار کند تا نامی برای یک ماده شیمیایی که وجود نداشت بسازد و دستورالعمل های مشکوکی برای تولید اورانیوم با درجه سلاح ارائه کند.

پس نتیجه چیست؟ با قضاوت بر اساس گزارش های دست دوم، کلود در برخی زمینه ها، به ویژه طنز، به لطف رویکرد “هوش مصنوعی قانونی” کمی بهتر از ChatGPT است. اما اگر محدودیت ها وجود داشته باشد، زبان و گفت و گو از یک چالش حل نشده در هوش مصنوعی دور هستند.

جدا از آزمایش خودمان، برخی از سؤالات درباره کلود بی‌پاسخ باقی می‌مانند، مانند اینکه آیا اطلاعاتی را بازپس می‌گیرد – درست یا نادرست، و از جمله دیدگاه‌های نژادپرستانه و جنسیت‌گرایانه – که اغلب به اندازه ChatGPT آموزش داده شده است. با فرض اینکه چنین باشد، بعید است که کلود پلتفرم‌ها و سازمان‌ها را از سیاست‌های محدودکننده فعلی‌شان در مورد مدل‌های زبانی منحرف کند.

سایت برنامه نویسی پرسش و پاسخ Stack Overflow به دلیل نگرانی در مورد صحت واقعی، پاسخ های ایجاد شده توسط ChatGPT را به طور موقت ممنوع کرده است. کنفرانس بین المللی یادگیری ماشین ممنوعیت مقالات علمی حاوی متن تولید شده توسط سیستم های هوش مصنوعی را به دلیل ترس از “عواقب ناخواسته” اعلام کرد. و مدارس دولتی نیویورک دسترسی به ChatGPT را تا حدی به دلیل نگرانی در مورد سرقت ادبی، کلاهبرداری و اطلاعات نادرست عمومی محدود کرده اند.

Anthropic می گوید قصد دارد کلود را اصلاح کند و به طور بالقوه نسخه بتا را برای افراد بیشتری در خط تولید باز کند. امیدواریم این اتفاق بیفتد – و منجر به بهبودهای ملموس تر و قابل اندازه گیری شود.