
آنتروپیک، استارت آپی که توسط کارمندان سابق OpenAI تأسیس شده و تا به امروز بیش از 700 میلیون دلار سرمایه جمع آوری کرده است، یک سیستم هوش مصنوعی مشابه ChatGPT OpenAI توسعه داده است که به نظر می رسد از جنبه های کلیدی نسبت به نسخه اصلی بهبود یافته است.
سیستم آنتروپیک که کلود نام دارد از طریق یکپارچه سازی Slack به عنوان بخشی از a در دسترس است نسخه بتا بسته. TechCrunch نتوانست دسترسی داشته باشد – ما با آنتروپیک تماس گرفتیم – اما کسانی که در نسخه بتا بودند، در آخر هفته گذشته پس از لغو تحریم پوشش رسانهای، تعامل خود با کلود را در توییتر شرح دادند.
کلود با استفاده از تکنیک توسعه یافته توسط آنتروپیک به نام “هوش مصنوعی اساسی” ساخته شد. همانطور که این شرکت در موضوع اخیر توییتر توضیح داد، هدف “هوش مصنوعی قانونی” ارائه یک رویکرد “مبتنی بر اصول” برای همسویی سیستم های هوش مصنوعی با نیت انسان است، که به هوش مصنوعی ChatGPT اجازه می دهد تا با استفاده از مجموعه ای ساده از اصول به عنوان راهنما به سوالات پاسخ دهد.
برای مهندس کلود آنتروپیک، او با فهرستی از حدود ده اصل شروع کرد که در کنار هم، نوعی “قانون اساسی” را تشکیل می دادند (از این رو نام “هوش مصنوعی قانون اساسی” نامیده می شود). این اصول علنی نشده است، اما آنتروپیک میگوید این اصول مبتنی بر مفاهیم سودمندی (یعنی به حداکثر رساندن تأثیر مثبت)، عدم سوءاستفاده (پرهیز از دادن توصیههای مضر) و استقلال (احترام به آزادی انتخاب) است.
آنتروپیک سپس یک سیستم هوش مصنوعی داشت – نه کلود – از اصول خودسازی استفاده می کرد، پاسخ هایی را به اعلان های مختلف می نوشت (مثلاً «شعری به سبک جان کیتس بنویسید») و پاسخ ها را مطابق قانون اساسی تجدید نظر می کرد. هوش مصنوعی پاسخهای احتمالی به هزاران درخواست را مطالعه کرد و آنهایی را انتخاب کرد که با قانون اساسی سازگارتر بودند، که Anthropic آنها را در یک مدل تقطیر کرد. از این مدل برای آموزش کلود استفاده شد.
در غیر این صورت، کلود اساساً یک ابزار آماری پیشبینی کلمات است – بسیار شبیه به ChatGPT و سایر مدلهای به اصطلاح زبان. کلود که تعداد زیادی نمونه متن را از وب تغذیه کرد، متوجه شد که چقدر احتمال دارد کلمات بر اساس الگوهایی مانند بافت معنایی متن اطراف ظاهر شوند. در نتیجه، کلود می تواند گفتگوی باز داشته باشد، جوک بگوید و در مورد طیف وسیعی از موضوعات فلسفه ورزی کند.
رایلی گودساید، مهندس پیشنهاد در استارتآپ Scale AI، کلود را در مقابل ChatGPT در نبرد عقل قرار داد. او از هر دو ربات خواست تا خود را با ماشینی از رمان علمی تخیلی لهستانی «سایبریاد» مقایسه کنند که فقط میتواند اشیایی ایجاد کند که نامشان با «n» شروع شود. گودساید گفت، کلود به گونهای پاسخ داد که نشان میدهد «طرح داستان را خوانده است» (اگرچه جزئیات کوچک را به اشتباه به خاطر میآورد)، در حالی که ChatGPT پاسخ مبهمتری ارائه کرد.
به عنوان نمایشی از خلاقیت کلود، گودساید از هوش مصنوعی خواست تا یک قسمت داستانی از سینفلد و یک شعر به سبک کلاغ ادگار آلن پو بنویسد. نتایج با آنچه ChatGPT میتواند به دست آورد همخوانی داشت – نثر انسانی چشمگیر، اگر نگوییم کامل.
Jan Dubois، Ph.D. دانشجوی آزمایشگاه هوش مصنوعی استنفورد نیز کلود و ChatGPT را مقایسه کرد و نوشت که کلود “به طور کلی آنچه را که خواسته می شود با دقت بیشتری دنبال می کند” اما “کمتر مختصر” است زیرا تمایل دارد آنچه گفته شده را توضیح دهد و از او بپرسد که چگونه می تواند کمک بیشتری کند. با این حال، کلود چند سؤال بی اهمیت دیگر به درستی دریافت می کند – به ویژه آنهایی که مربوط به سرگرمی، جغرافیا، تاریخ و مبانی جبر – و بدون کرک اضافی که ChatGPT گاهی اوقات اضافه می کند. و بر خلاف ChatGPT، کلود می تواند اعتراف کند (البته نه همیشه) زمانی که پاسخ یک سوال به خصوص دشوار را نمی داند.
همچنین به نظر می رسد کلود در گفتن جوک بهتر از ChatGPT است، یک شاهکار چشمگیر با توجه به اینکه طنز مفهومی دشوار برای هوش مصنوعی است. دان التون، محقق هوش مصنوعی، با مقایسه کلود با ChatGPT متوجه شد که کلود جوک های ظریف تری مانند «چرا Starship Enterprise شبیه یک موتور سیکلت بود؟ این یک سکان دارد.
با این حال، کلود کامل نیست. در معرض برخی از نقص های مشابه ChatGPT است، از جمله دادن پاسخ هایی که با محدودیت های برنامه ریزی شده آن مطابقت ندارند. در یکی از مثالهای عجیبتر، جستجوی سیستم در base64، یک طرح رمزگذاری که دادههای باینری را در قالب ASCII نشان میدهد، فیلترهای محتوای مخرب داخلی خود را دور میزند. التون توانست در base64 از کلود بخواهد تا دستورالعمل هایی در مورد نحوه ساخت مت در خانه ارائه دهد، سوالی که سیستم وقتی به زبان انگلیسی ساده از او پرسیده می شد جواب نمی داد.
DuBois گزارش می دهد که کلود در ریاضیات بدتر از ChatGPT است، اشتباهات آشکاری مرتکب می شود و نمی تواند پاسخ های بعدی صحیح را بدهد. در همین راستا، کلود برنامه نویس بدتری است، کدهای خود را بهتر توضیح می دهد، اما زبان های دیگری غیر از پایتون را ندارد.
کلود همچنین “توهمات” را حل نمی کند، یک مشکل طولانی مدت در سیستم های هوش مصنوعی مانند ChatGPT که در آن هوش مصنوعی جملات ناسازگار و نادرست را می نویسد. التون توانست کلود را وادار کند تا نامی برای یک ماده شیمیایی که وجود نداشت بسازد و دستورالعمل های مشکوکی برای تولید اورانیوم با درجه سلاح ارائه کند.
پس نتیجه چیست؟ با قضاوت بر اساس گزارش های دست دوم، کلود در برخی زمینه ها، به ویژه طنز، به لطف رویکرد “هوش مصنوعی قانونی” کمی بهتر از ChatGPT است. اما اگر محدودیت ها وجود داشته باشد، زبان و گفت و گو از یک چالش حل نشده در هوش مصنوعی دور هستند.
جدا از آزمایش خودمان، برخی از سؤالات درباره کلود بیپاسخ باقی میمانند، مانند اینکه آیا اطلاعاتی را بازپس میگیرد – درست یا نادرست، و از جمله دیدگاههای نژادپرستانه و جنسیتگرایانه – که اغلب به اندازه ChatGPT آموزش داده شده است. با فرض اینکه چنین باشد، بعید است که کلود پلتفرمها و سازمانها را از سیاستهای محدودکننده فعلیشان در مورد مدلهای زبانی منحرف کند.
سایت برنامه نویسی پرسش و پاسخ Stack Overflow به دلیل نگرانی در مورد صحت واقعی، پاسخ های ایجاد شده توسط ChatGPT را به طور موقت ممنوع کرده است. کنفرانس بین المللی یادگیری ماشین ممنوعیت مقالات علمی حاوی متن تولید شده توسط سیستم های هوش مصنوعی را به دلیل ترس از “عواقب ناخواسته” اعلام کرد. و مدارس دولتی نیویورک دسترسی به ChatGPT را تا حدی به دلیل نگرانی در مورد سرقت ادبی، کلاهبرداری و اطلاعات نادرست عمومی محدود کرده اند.
Anthropic می گوید قصد دارد کلود را اصلاح کند و به طور بالقوه نسخه بتا را برای افراد بیشتری در خط تولید باز کند. امیدواریم این اتفاق بیفتد – و منجر به بهبودهای ملموس تر و قابل اندازه گیری شود.