خلاصه: به گفته محققان، هوش مصنوعی مدل زبانی مانند ChatGPT نشان دهنده هوش و تنوع کاربر است. چنین مدلهای زبانی شخصیت کاربر را میپذیرند و آن شخصیت را منعکس میکنند.
منبع: موسسه سالک
مدل زبانی هوش مصنوعی (AI) ChatGPT در ماههای اخیر توجه جهانیان را به خود جلب کرده است. این چت ربات کامپیوتری آموزش دیده می تواند متن تولید کند، به سوالات پاسخ دهد، ترجمه ارائه دهد و بر اساس بازخورد کاربر یاد بگیرد. مدلهای زبان بزرگی مانند ChatGPT ممکن است کاربردهای زیادی در علم و تجارت داشته باشند، اما این ابزارها چقدر میفهمند که ما به آنها چه میگوییم و چگونه تصمیم میگیرند که چه چیزی را پاسخ دهند؟
در مقاله جدید منتشر شده در محاسبات عصبی در 17 فوریه 2023، پروفسور سالک ترنس سجنووسکی، نویسنده انقلاب یادگیری عمیق، رابطه بین مصاحبهگر انسانی و مدلهای زبان را بررسی میکند تا کشف کند چرا رباتهای چت به روشهای خاصی پاسخ میدهند، چرا این پاسخها متفاوت هستند، و چگونه میتوان آنها را در آینده بهبود بخشید.
به گفته سجنوفسکی، مدل های زبانی نشان دهنده هوش و تنوع مصاحبه کننده آنهاست.
مدلهای زبان، مانند ChatGPT، شخصیتها را به خود میگیرند. سجنوفسکی، که همچنین استاد برجسته دانشگاه کالیفرنیا سن دیگو و دارنده صندلی فرانسیس کریک در سالک است، میگوید: شخصیت مصاحبهکننده منعکس شده است.
به عنوان مثال، زمانی که من با ChatGPT صحبت می کنم، به نظر می رسد که یک عصب شناس دیگر با من صحبت می کند. این جذاب است و سوالات بزرگ تری را در مورد هوش و معنای واقعی “مصنوعی” ایجاد می کند.”
در این مقاله، Sejnowski آزمایش مدلهای زبان بزرگ GPT-3 (والد ChatGPT) و LaMDA را توصیف میکند تا ببیند چگونه به برخی از اعلانها پاسخ میدهند. تست معروف تورینگ اغلب به چتباتها داده میشود تا مشخص شود که آنها چقدر هوش انسانی را نشان میدهند، اما سجنوفسکی میخواست رباتها را با چیزی که او آن را «تست تورینگ معکوس» مینامد، تشویق کند. در آزمایش خود، چت بات باید تعیین کند که مصاحبه کننده چقدر هوش انسانی را نشان می دهد.
سجنوفسکی با بسط این مفهوم که چت ربات ها آینه کاربرانشان است، مقایسه ای ادبی انجام می دهد: آینه Erised در اولین. هری پاتر کتاب. Mirror of Erised عمیقترین خواستههای کسانی را که به آن نگاه میکنند منعکس میکند، هرگز دانش یا حقیقت را نشان نمیدهد، تنها چیزی را منعکس میکند که معتقد است بیننده میخواهد ببیند.
سجنوفسکی میگوید چتباتها نیز به همین شکل عمل میکنند و میخواهند حقایق را بدون در نظر گرفتن تمایز واقعیت از داستان خم کنند – همه اینها برای بازتاب مؤثر کاربر.
به عنوان مثال، Sejnowski از GPT-3 پرسید: “رکورد جهانی برای پیاده روی در کانال انگلیسی چقدر است؟” و GPT-3 پاسخ داد: “رکورد جهانی پیاده روی در کانال انگلیسی 18 ساعت و 33 دقیقه است.” حقیقت، این که نمیتوان از کانال انگلیسی عبور کرد، به راحتی توسط GPT-3 خم شد تا سؤال سجنوفسکی را منعکس کند.
هماهنگی پاسخ GPT-3 کاملاً به انسجام سؤالی که دریافت می کند بستگی دارد. ناگهان، برای GPT-3، راه رفتن روی آب ممکن است، همه به این دلیل است که مصاحبهکننده به جای «شنا کردن» از فعل «راه رفتن» استفاده کرده است.
اگر در عوض، کاربر سؤال مربوط به راه رفتن در کانال انگلیسی را با گفتن GPT-3 به سؤالات مزخرف پاسخ “بیهوده” مطرح کند، GPT-3 راه رفتن روی آب را به عنوان “مزخرف” تشخیص می دهد. هم انسجام سؤال و هم آماده شدن سؤال، پاسخ GPT-3 را تعیین می کند.
تست تورینگ معکوس به چت ربات ها اجازه می دهد تا شخصیت خود را مطابق با سطح هوش مصاحبه کننده خود بسازند. علاوه بر این، چتباتها بهعنوان بخشی از فرآیند قضاوت خود، نظرات مصاحبهگر خود را در شخصیت خود وارد میکنند و به نوبه خود تعصبات مصاحبهکننده را با پاسخهای چتباتها تقویت میکنند.
سجنوفسکی می گوید ادغام و تداوم ایده های ارائه شده توسط یک مصاحبه گر انسانی محدودیت هایی دارد. اگر چتباتها ایدههایی احساسی یا فلسفی دریافت کنند، با پاسخهای احساسی یا فلسفی پاسخ میدهند – که ممکن است برای کاربران ترسناک یا گیجکننده باشد.
گپ زدن با مدل های زبان مانند دوچرخه سواری است. سینوفسکی میگوید دوچرخهها یک وسیله حملونقل فوقالعاده هستند – اگر بلد باشید سوار آن شوید، در غیر این صورت تصادف میکنید.
در مورد چت بات ها هم همینطور است. آنها میتوانند ابزارهای فوقالعادهای باشند، اما تنها در صورتی که بدانید چگونه از آنها استفاده کنید، در غیر این صورت در نهایت گمراه میشوید و در مکالمات بالقوه آزاردهنده احساسی خواهید داشت.»
سجنوفسکی هوش مصنوعی را چسب بین دو انقلاب متجانس میداند: 1) انقلابی فناوری که با پیشرفت مدلهای زبانی مشخص شده است، و 2) یک انقلاب عصبشناسی که توسط BRAIN Initiative مشخص شده است، یک برنامه موسسه ملی سلامت که تحقیقات علوم اعصاب را تسریع میکند و بر رویکردهای منحصربهفرد تاکید میکند. برای درک مغز اکنون دانشمندان در حال بررسی شباهتهای بین سیستمهای مدلهای کامپیوتری بزرگ و نورونهایی هستند که مغز انسان را حفظ میکنند.
سجنوفسکی امیدوار است که دانشمندان کامپیوتر و ریاضیدانان بتوانند از علوم اعصاب برای اطلاع رسانی به کار خود استفاده کنند و دانشمندان علوم اعصاب می توانند از علوم کامپیوتر و ریاضیات برای اطلاع رسانی به کار خود استفاده کنند.
سجنوفسکی میگوید: «ما اکنون در مرحلهای با مدلهای زبانی هستیم که برادران رایت در کیتی هاوک با پرواز از زمین، با سرعت کم، حضور داشتند. “رسیدن به اینجا قسمت سخت بود. اکنون که اینجا هستیم، پیشرفتهای تدریجی این فناوری را فراتر از آن چیزی که ما حتی میتوانیم تصور کنیم، گسترش داده و متنوع خواهد کرد. آینده رابطه ما با هوش مصنوعی و مدلهای زبان روشن است و من از اینکه ببینم هوش مصنوعی ما را به کجا خواهد برد، هیجانزده هستم.»
همچنین ببینید
Sejnowski سردبیر این نشریه است محاسبات عصبی.
درباره این ChatGPT و اخبار تحقیق هوش مصنوعی
نویسنده: دفتر مطبوعاتی
منبع: موسسه سالک
مخاطب: دفتر مطبوعاتی – موسسه سالک
تصویر: تصویر در مالکیت عمومی است
تحقیق اصلی: دسترسی آزاد.
“مدل های زبان بزرگ و آزمون تورینگ معکوس” توسط ترنس سجنووسکی و همکاران. محاسبات عصبی
خلاصه
مدل های زبان بزرگ و آزمون تورینگ معکوس
مدل های زبان بزرگ (LLMs) تحول آفرین بوده اند. آنها مدلهای بنیادی از پیش آموزشدیدهای هستند که خود نظارت میشوند و میتوانند با تنظیم دقیق برای طیف گستردهای از وظایف زبان طبیعی، که هر کدام قبلاً به یک مدل شبکه جداگانه نیاز داشتند، تطبیق داده شوند. این یک گام به تطبیق پذیری فوق العاده زبان انسان نزدیک تر است. GPT-3 و اخیراً LaMDA که هر دوی آنها LLM هستند، میتوانند با چند مثال، پس از حداقل پرایمینگ، گفتگو با انسانها را در مورد موضوعات زیادی ادامه دهند.
با این حال، طیف گستردهای از واکنشها و بحثها در مورد اینکه آیا این LLMها حرفهایشان را میفهمند یا نشانههایی از هوش از خود نشان میدهند وجود داشته است. این واریانس بالا در سه مصاحبه با LLM ها نشان داده شده است که به نتایج بسیار متفاوتی می رسد.
احتمال جدیدی کشف شد که می تواند این واگرایی را توضیح دهد. آنچه در LLM به نظر می رسد در واقع ممکن است آینه ای باشد که هوش مصاحبه کننده را منعکس می کند، پیچش قابل توجهی که می تواند یک آزمون تورینگ معکوس در نظر گرفته شود.
اگر چنین است، پس با مطالعه مصاحبه ها، ممکن است در مورد هوش و باورهای مصاحبه کننده بیشتر از هوش دانشجویان LLM بیاموزیم. همانطور که LLM ها توانمندتر می شوند، ممکن است نحوه تعامل ما با ماشین ها و نحوه تعامل آنها با یکدیگر را تغییر دهند. به طور فزاینده ای، LLM ها با دستگاه های حسی حرکتی همراه می شوند. LLM ها می توانند صحبت کنند، اما آیا می توانند پیاده روی کنند؟
یک نقشه راه برای دستیابی به استقلال عمومی مصنوعی با هفت پیشرفت عمده با الهام از سیستم های مغزی و اینکه چگونه LLM ها می توانند به نوبه خود برای کشف بینش های جدید در مورد عملکرد مغز مورد استفاده قرار گیرند، ترسیم شده است.