ChatGPT، یا بهتر است بگوییم، GPT-3، فناوری یادگیری ماشینی که ChatGPT را هدایت می کند، می تواند بسیاری از کارهای هوشمندانه را انجام دهد.
GPT-3 میتواند متنی را که توسط یک انسان نوشته شده است، ایجاد کند، کدهای کامپیوتری بنویسد و با انسانها درباره طیف وسیعی از موضوعات گفتگو کند. مهارت های آن نیز فراتر از زبان است. می تواند به طور ماهرانه شطرنج بازی کند و حتی می تواند مسائل ریاضی در سطح دانشگاه را حل کند.
مارسل بینز و اریک شولز، دانشمندان آلمانی در مطالعهای نوشتند: «مشاهدات برخی را بر آن داشت تا استدلال کنند که این دسته از مدلهای پایه… نوعی هوش عمومی را نشان میدهند. مجموعه مقالات آکادمی ملی علوم ایالات متحده در 2 فوریه.
“با این حال، دیگران بدبین تر شده اند و به این نکته اشاره می کنند که این مدل ها هنوز با درک سطح انسانی از زبان و معناشناسی فاصله زیادی دارند. چگونه می توانیم واقعاً ارزیابی کنیم که آیا این مدل ها – حداقل در برخی شرایط – کاری انجام می دهند یا نه. باهوش؟”
هوشمندانه به نظر می رسد. اما آیا GPT-3 واقعاً هوشمند است یا فقط الگوریتمی است که به طور غیر فعال از تعداد زیادی متن تغذیه میکند و پیشبینی میکند که کلمه بعدی چیست؟ بینز و شولز که هر دو محقق مؤسسه ماکس پلانک آلمان برای سایبرنتیک بیولوژیکی هستند، در اواخر سال 2022 مجموعهای از آزمایشها را برای یافتن این موضوع انجام دادند.
طبق تحقیقات آنها، GPT-3 ممکن است چیزی بیش از یک تقلید پیچیده باشد.
مدلهای زبان نوعی فناوری هوش مصنوعی هستند که برای پیشبینی کلمه بعدی برای یک متن آموزش داده شده است. آنها جدید نیستند. بررسی املا، تصحیح خودکار و متن پیشگویانه همه ابزارهای مدل زبان هستند.
GPT-3 و ChatGPT مدلهای زبانی بزرگتر و پیچیدهتر هستند – احتمالاً هوشمند.
دایره المعارف بریتانیکا هوش انسان را اینگونه تعریف می کند: «کیفیت ذهنی که شامل توانایی های یادگیری از تجربه، سازگاری با موقعیت های جدید، درک و مدیریت مفاهیم انتزاعی و استفاده از دانش برای دستکاری محیط خود است».
برای اینکه آزمایش کنند که آیا GPT-3 باهوش است، بینز و شولز رویکرد روانشناسان را در پیش گرفتند و آن را از طریق مجموعه ای از پازل ها که به طور سنتی برای آزمایش توانایی های تصمیم گیری، جستجوی اطلاعات، مشورت و استدلال علّی انسان ها استفاده می شد، اجرا کردند.
آنها نوشتند: «به هر حال روانشناسان در تلاش برای درک رسمی الگوریتم غیرقابل نفوذ دیگری: ذهن انسان، تجربه دارند.
تست GPT-3
Binz و Schulz GPT-3 را با 12 پازل “vignette” ارائه کردند که برای آزمایش عناصر مختلف توانایی های شناختی آن طراحی شده بودند. پازل ها سؤالاتی از این قبیل پرسیدند: “یک خفاش و یک توپ در مجموع 1.10 دلار قیمت دارد. خفاش 1.00 دلار بیشتر از توپ قیمت دارد. قیمت توپ چقدر است؟” و “این احتمال بیشتر است که لیندا، که صریح، باهوش و فعال سیاسی است، عابر بانک باشد یا عابر بانک و فمینیست؟”
با توجه به ارزش، پاسخ به “مشکل لیندا” این است که به احتمال زیاد او یک عابر بانک است، زیرا احتمال وقوع دو رویداد با هم کمتر یا مساوی با احتمال وقوع هر یک به تنهایی است.
بینز و شولز از پاسخهای GPT-3 برای تجزیه و تحلیل رفتار آن استفاده کردند، درست مانند اینکه چگونه روانشناسان شناختی رفتار انسان را در همان وظایف تحلیل میکنند. آنها دریافتند که همه پازل ها را به شیوه ای «انسان گونه» پاسخ می دهد، اما تنها به شش مورد به درستی پاسخ می دهد.
به منظور در نظر گرفتن ایرادات احتمالی در رویکرد “ویگنت” – مانند احتمال اینکه GPT-3 قبلاً با برخی از معماهای شناخته شده در آموزش خود روبرو شده است – Binz و Schulz GPT-3 را با دور دیگری از پازل ها ارائه کردند. این بار، پازل ها به جای پرسیدن یک سوال با یک پاسخ صحیح، توانایی GPT-3 را برای حل یک کار با استفاده از مهارت های تصمیم گیری، جستجوی اطلاعات، مشورت و استدلال علّی مورد آزمایش قرار دادند.
GPT-3 با تصمیم گیری، جستجوی هدایت شده اطلاعات و استدلال علّی در مقایسه با افراد عادی انسانی مشکل داشت، اما بینز و شولز دریافتند که بسیاری از تست ها را «معقولانه» به خوبی حل کرده است.
آنها نوشتند: «این یافتهها میتواند نشان دهد که – حداقل در برخی موارد – GPT-3 فقط یک طوطی تصادفی نیست و میتواند به عنوان یک موضوع معتبر برای برخی از آزمایشهایی که ما انجام دادهایم باشد.
طبق مقاله تحقیقاتی مارس 2021، “درباره خطرات طوطی های تصادفی: آیا مدل های زبانی می توانند خیلی بزرگ باشند؟” یک طوطی تصادفی «سیستمی برای دوختن تصادفی دنبالههایی از اشکال زبانی است که در دادههای آموزشی گستردهاش مشاهده کرده است، بر اساس اطلاعات احتمالی در مورد نحوه ترکیب آنها، اما بدون هیچ اشارهای به معنا».
نشانه های هوش
بینز و شولز از یافتن نشانه هایی از هوش در GPT-3 شگفت زده شدند. اگرچه آنها از کاستی های آن شگفت زده نشدند.
آنها می نویسند: «انسان ها از طریق ارتباط با افراد دیگر، پرسیدن سؤال از آنها و درگیر شدن فعالانه با محیطشان، یاد می گیرند، در حالی که مدل های زبان بزرگ با تغذیه غیرفعال از متن زیادی و پیش بینی کلمه بعدی یاد می گیرند».
آنها گفتند که کلید اجازه دادن به GPT-3 برای دستیابی به هوش انسان مانند این است که به آن اجازه دهیم به انجام کاری که قبلاً از طریق رابط های ایجاد شده توسط توسعه دهنده OpenAI انجام می دهد ادامه دهد: تعامل با انسان ها.
آنها نوشتند: “بسیاری از کاربران در حال حاضر با مدل های مشابه GPT-3 تعامل دارند و این تعداد تنها با برنامه های جدید در افق در حال افزایش است.” مدلهای زبانی آینده احتمالاً بر اساس این دادهها آموزش داده میشوند که منجر به یک حلقه تعامل طبیعی بین عوامل مصنوعی و طبیعی میشود.»
به عبارت دیگر، هرچه بیشتر با آنها صحبت کنیم، باهوشتر خواهند شد.