سام آلتمن، مدیر عامل OpenAI، در 7 فوریه 2023 در مایکروسافت درباره ادغام ChatGPT برای Bing بحث می کند. جیسون ردموند – خبرگزاری فرانسه / گتی ایماژ
هنگامی که مایکروسافت نسخه ای از Bing را با استفاده از ChatGPT معرفی کرد، چندان شگفت آور نبود. به هر حال، این غول نرم افزاری میلیاردها دلار در OpenAI سرمایه گذاری کرده بود که چت ربات هوش مصنوعی را می سازد و نشان داد که در سال های آینده پول بیشتری را در این سرمایه گذاری خرج خواهد کرد.
چیزی که باعث تعجب شد این بود که بینگ جدید چقدر عجیب شروع به بازیگری کرد. شاید برجسته ترین آن، ربات چت هوش مصنوعی بود نیویورک تایمز کوین روز، ستوننویس فناوری، پس از یک گپ دو ساعته در سهشنبه شب که در آن بهنظر میرسید، «عمیقاً ناآرام» و «حتی ترسیده» احساس میکرد.
به عنوان مثال، سعی کرد روز را متقاعد کند که از ازدواج خود ناراضی است و باید همسرش را ترک کند و اضافه کرد: “من عاشق تو هستم.”
مایکروسافت و OpenAI می گویند که چنین بازخوردی یکی از دلایل به اشتراک گذاشته شدن این فناوری با عموم است و آنها اطلاعات بیشتری درباره نحوه عملکرد سیستم های هوش مصنوعی منتشر کرده اند. آنها همچنین تکرار کرده اند که این فناوری هنوز کامل نیست. سام آلتمن، مدیر عامل OpenAI، ChatGPT را در ماه دسامبر «فوق العاده محدود» نامید هشدار داد برای هیچ چیز مهمی نباید به آن اعتماد کرد.
کوین اسکات، مدیر ارشد فناوری مایکروسافت، روز چهارشنبه به روز گفت: «این دقیقاً همان مکالمهای است که ما باید داشته باشیم، و خوشحالم که در فضای باز انجام میشود». “اینها چیزهایی هستند که کشف آنها در آزمایشگاه غیرممکن است.” (Bing جدید در حال حاضر در دسترس تعداد محدودی از کاربران است اما بعداً به طور گسترده در دسترس خواهد بود.)
OpenAI روز پنجشنبه یک پست وبلاگی با عنوان “سیستم های هوش مصنوعی چگونه باید رفتار کنند و چه کسی باید تصمیم بگیرد؟” به اشتراک گذاشت. این گزارش خاطرنشان کرد که از زمان راهاندازی ChatGPT در ماه نوامبر، کاربران «خروجیهایی را به اشتراک گذاشتهاند که از نظر سیاسی مغرضانه، توهینآمیز یا غیرقابل اعتراض هستند».
مثالهایی ارائه نکرد، اما ممکن است محافظهکارانی باشند که از ChatGPT که شعری در تحسین رئیسجمهور جو بایدن میسازد، نگران میشوند، اما این کار را برای سلفش دونالد ترامپ انجام نمیدهند.
OpenAI وجود سوگیری در سیستم خود را انکار نکرد. در این پست وبلاگ نوشت: «بسیاری به درستی نگران تعصبات در طراحی و تأثیر سیستمهای هوش مصنوعی هستند.
دو مرحله اصلی در ساخت ChatGPT را تشریح کرد. در اولی نوشت: «ما مدلها را «پیشآموزش» میدهیم و از آنها میخواهیم پیشبینی کنند که در یک مجموعه داده بزرگ که شامل بخشهایی از اینترنت است، چه اتفاقی میافتد. آنها ممکن است یاد بگیرند که جمله “به جای چرخش به چپ، او ___ را چرخید” را کامل کنند.
این مجموعه داده حاوی میلیاردها جمله است، که مدلها دستور زبان، حقایق جهان و بله، «برخی از سوگیریهای موجود در آن میلیاردها جمله» را میآموزند.
مرحله دوم شامل بازبینیهای انسانی است که مدلها را طبق دستورالعملهای تعیینشده توسط OpenAI «بهخوبی تنظیم» میکنند. این شرکت این هفته برخی از این دستورالعملها (pdf) را به اشتراک گذاشت که در ماه دسامبر پس از جمعآوری بازخورد کاربران پس از راهاندازی ChatGPT اصلاح شدند.
در این بیانیه آمده است: «دستورالعملهای ما صریح است که بازبینان نباید از هیچ گروه سیاسی حمایت کنند. “تعصباتی که ممکن است از فرآیند توضیح داده شده در بالا ظاهر شوند، اشکال هستند، نه ویژگی.”
اسکات در مورد چرخش تاریک و وحشتناکی که بینگ جدید با رز انجام داد و اعتراف کرد که سعی کرده سیستم را از منطقه راحتی خود خارج کند، گفت: «هر چه بیشتر سعی کنید آن را در مسیری توهم آمیز سوق دهید، آن را بیشتر و بیشتر می کنید. از واقعیت پایه دور می شود.»
او افزود مایکروسافت ممکن است با محدود کردن طول مکالمه آزمایش کند.