
سام آلتمن، بنیانگذار و مدیر عامل OpenAI در اواخر هفته گذشته برای یک مصاحبه گسترده با این سردبیر نشست و به سوالاتی در مورد برخی از جاه طلبانه ترین سرمایه گذاری های شخصی او و همچنین آینده OpenAI پاسخ داد.
بحث زیادی وجود داشت. این لباس هشت ساله در دو ماه پس از راهاندازی ChatGPT، یک ربات چت که مانند یک انسان به سؤالات پاسخ میدهد، بر گفتگوهای ملی غالب شده است. محصولات OpenAI فقط کاربران را شگفت زده نکرد. طبق گزارش ها، این شرکت در حال مذاکره برای نظارت بر فروش سهام موجود به سرمایه گذاران جدید با ارزش 29 میلیارد دلار با وجود درآمد نسبتا اسمی است.
آلتمن از صحبت در مورد معاملات تجاری فعلی شرکت خودداری کرد و هنگامی که در جلسه ما از یک سوال مرتبط پرسیده شد، کمی هشدار داد.
با این حال، او اطلاعات کمی در مورد برنامه های آینده این شرکت فاش کرد. برای یک چیز، علاوه بر ChatGPT و تولیدکننده محبوب هنر دیجیتال لباس، DALL-E، آلتمن تأیید کرد که یک مدل ویدیویی در راه است، اگرچه او گفت که “نمیخواهد حدس بزند که چه زمانی چه زمانی است.” ممکن است خیلی زود باشد. این یک پروژه تحقیقاتی قانونی است. ممکن است کمی طول بکشد.»
آلتمن تصریح کرد که همکاری در حال توسعه OpenAI با مایکروسافت – که برای اولین بار در OpenA در سال 2019 سرمایه گذاری کرد و اوایل امروز تأیید کرد که قصد دارد ابزارهای هوش مصنوعی مانند ChatGPT را در همه محصولات خود بگنجاند – یک معامله انحصاری نیست.
آلتمن همچنین تأیید کرد که OpenAI میتواند محصولات و خدمات نرمافزاری خود را بسازد، علاوه بر اینکه مجوز فناوری خود را به شرکتهای دیگر میدهد. این موضوع برای ناظران صنعت قابل توجه است، که نمیدانند آیا OpenAI روزی میتواند مستقیماً از طریق موتور جستجوی خود با گوگل رقابت کند. (در پاسخ به سوالی درباره این سناریو، آلتمن گفت: “هر وقت کسی صحبت می کند که یک فناوری پایان یک شرکت غول پیکر دیگر است، معمولا اشتباه است. مردم فراموش می کنند که باید در اینجا حرکت متقابل انجام دهند، و آنها بسیار باهوش، بسیار باصلاحیت هستند. ”)
در مورد زمانی که OpenAI قصد دارد نسخه چهارم GPT را منتشر کند، مدل زبان پیچیده ای که ChatGPT مبتنی بر آن است، آلتمن فقط می گوید که محصول مورد انتظار “در مقطعی زمانی که ما مطمئن باشیم که می توانیم عرضه خواهد شد، منتشر خواهد شد. [release] امن و مسئول.» او نیز سعی کرد انتظارات مربوط به GPT-4 را تعدیل کند و گفت: «ما AGI واقعی نداریم»، یعنی هوش عمومی مصنوعی، یا فناوری با هوش نوظهور خود، در مقابل مدلهای یادگیری عمیق OpenAI فعلی که مشکلات را حل میکنند و الگوها را با آزمون و خطا شناسایی میکنند.
“من فکر می کنم که [AGI] همان چیزی است که از ما انتظار می رود، و GPT-4 مردم را با این انتظار ناامید خواهد کرد.
در ضمن من در مورد چه زمانی او می گوید که آلتمن انتظار دارد هوش عمومی مصنوعی را نزدیکتر از آنچه تصور می کند ببیند، اما همچنین انتقال به “AGI” آنطور که برخی انتظار دارند ناگهانی نباشد. “هر چه نزدیک تر می شویم [to AGI]پاسخ دادن برای من دشوارتر است زیرا فکر میکنم این انتقال بسیار مبهمتر و تدریجیتر از آنچه مردم فکر میکنند خواهد بود.»
به طور طبیعی، قبل از پایان دادن به همه چیز، ما زمانی را صرف صحبت در مورد ایمنی کردیم، از جمله اینکه آیا جامعه نرده های محافظ کافی برای فناوری که OpenAI قبلاً در جهان راه اندازی کرده است یا خیر. بسیاری از منتقدان معتقدند که ما اینطور نیستیم، از جمله مربیان نگران که به دلیل نگرانی از اینکه دانش آموزان از آن برای تقلب استفاده خواهند کرد، به طور فزاینده ای دسترسی به ChatGPT را مسدود می کنند. (قابل توجه، گوگل به دلیل نگرانی در مورد “خطر شهرت” خود، تمایلی به راه اندازی چت ربات هوش مصنوعی خود، LaMDA نداشته است.)
آلتمن در اینجا گفت که OpenAI یک فرآیند داخلی دارد که در آن ما سعی می کنیم همه چیز را تجزیه کنیم و تأثیرات آن را بررسی کنیم. ما از حسابرسان خارجی استفاده می کنیم. ما تیم های قرمز خارجی داریم. ما با آزمایشگاههای دیگر کار میکنیم و سازمانهای ایمنی داریم که به مسائل نگاه میکنند.
او گفت در همان زمان، این فناوری – از OpenAI و جاهای دیگر – در حال آمدن است و مردم باید شروع به کشف نحوه زندگی با آن کنند. “تغییرات اجتماعی وجود دارد که ChatGPT باعث یا ایجاد می شود. اتفاق بزرگی که اکنون در حال رخ دادن است در مورد تأثیر آن بر آموزش و تمامیت تحصیلی است، همه اینها. با این حال، او استدلال می کند، “شروع اینها [product releases] اکنون [makes sense]جایی که خطرات هنوز نسبتاً کم است، به جای اینکه صرفاً آنچه را که کل صنعت در چند سال آینده خواهد داشت، بدون زمان برای به روز رسانی جامعه مشخص کنیم.
در واقع، مربیان – و شاید والدین – باید درک کنند که جن را نمی توان دوباره در بطری گذاشت. اگرچه آلتمن گفت که OpenAI و سایر تیمهای هوش مصنوعی با فناوریهای واترمارک و سایر تکنیکهای تأیید آزمایش خواهند کرد تا به سنجش اینکه آیا دانشآموزان در تلاش هستند تا نسخههای تولید شده توسط هوش مصنوعی را به عنوان نسخههای خود به اشتراک بگذارند یا خیر، او همچنین اشاره کرد که تمرکز بیش از حد بر روی این سناریو خاص، بی فایده
“ممکن است راه هایی وجود داشته باشد که بتوانیم به معلمان کمک کنیم تا کمی تمایل بیشتری برای یافتن راه خروج از یک سیستم GPT مانند داشته باشند، اما صادقانه بگویم، یک فرد مصمم آنها را دور می زند، و من فکر نمی کنم این چیزی باشد که جامعه به آن نیاز دارد. می تواند یا باید بر یک برنامه بلند مدت تکیه کند.
او اضافه کرد که این اولین بار نیست که مردم با موفقیت با تغییرات بزرگ سازگار می شوند. آلتمن با اشاره به اینکه ماشینحسابها آنچه را که ما در کلاس ریاضی آزمایش میکنیم تغییر دادهاند و گوگل نیاز به به خاطر سپردن حقایق را بسیار کماهمیت کرده است، گفت که مدلهای یادگیری عمیق نشاندهنده «نسخه شدیدتر» از هر دو پیشرفت هستند. اما او استدلال می کند که «مزایای آن نیز شدیدتر است. ما از معلمانی می شنویم که به طور قابل درک در مورد تأثیر این امر بر تکالیف بسیار عصبی هستند. ما همچنین از معلمان زیادی می شنویم که می گویند: “وای، این یک معلم خصوصی شگفت انگیز برای هر کودکی است.”
برای گفتگوی کامل در مورد دیدگاههای در حال تحول OpenAI و آلتمن در مورد کالاسازی، مقررات و اینکه چرا هوش مصنوعی در «جهت کاملاً مخالف» است که بسیاری از پنج تا هفت سال پیش تصور میکردند، میرود، ارزش دیدن کلیپ زیر را دارد.
همچنین میشنوید که آلتمن در مورد بهترین و بدترین سناریوها در مورد وعدهها و خطرات هوش مصنوعی صحبت میکند. نسخه کوتاه؟ او گفت: «یک مورد خوب آنقدر فوقالعاده خوب است که برای شروع به صحبت کردن در مورد آن مثل یک فرد واقعاً دیوانه به نظر میرسید. و مورد بد – و من فکر می کنم گفتن این مهم است – این است که چراغ ها برای همه ما خاموش است.