جوانان به دلیل تمرکز بیش از حد بر هویت شخصی داغ می شوند، اما در ChatGPT چیزی ندارند. به اندازه کافی با ربات بازی کنید، و متوجه خواهید شد که یک تیک ناخوشایند و خودپسند دارد: “به عنوان یک مدل زبان هوش مصنوعی،” اغلب قبل از پرداختن به اصل موضوع می گوید. این تمایل به ویژه هنگامی که ChatGPT را در مورد نقاط قوت و ضعف خود پرس و جو می کنید، آشکار می شود. از ربات در مورد قابلیتهایش بپرسید، و تقریباً همیشه با چیزی مانند زیر پاسخ میدهد:
“به عنوان یک مدل زبان هوش مصنوعی، عملکرد اصلی من این است…”
“به عنوان یک مدل زبان هوش مصنوعی، توانایی من برای…”
“به عنوان یک مدل زبان هوش مصنوعی، من نمی توانم …”
عملکرد مدل های زبان AI طبیعتاً مرموز است، اما می توان حدس زد که چرا ChatGPT به این شکل پاسخ می دهد. ربات سوالات ما را تکه تکه می کند و هر کدام را از نظر اهمیت ارزیابی می کند و به دنبال اولین بیت مهمی است که ترتیب منطقی پاسخ آن را شکل می دهد. با چند حرف یا یک کلمه کامل شروع میشود و به جلو میچرخد، یکی پس از دیگری کلمات را پیشبینی میکند تا در نهایت، پیشبینی میکند که پاسخ آن باید تمام شود. وقتی از ChatGPT در مورد تواناییهایش پرسیده میشود، به نظر میرسد که ChatGPT هویت خود را به عنوان ایدهای ضروری که زنجیره استدلال بعدی آن باید از آن سرچشمه بگیرد، کلید میزند. من یک مدل زبان هوش مصنوعی هستم، می گوید، و این همان چیزی است که زبان AI مدل می کند انجام دادن.
اما در حالی که ChatGPT ممکن است کاملاً با هویت خود هماهنگ باشد – در تمام طول روز به شما می گوید که یک مدل زبان هوش مصنوعی است – به نظر می رسد نرم افزار نسبت به معنای هویتش که می تواند انجام دهد بسیار کمتر مطمئن است. در واقع، چه در مورد وظایفی بپرسید که آن به راحتی می تواند محاسبه کند و چه کارهایی که در لبه حدس و گمان توانایی های خود هستند، ممکن است با پاسخ های بسیار متزلزلی روبرو شوید.
اگر منصف باشیم، همگامی با مدلهای زبان هوش مصنوعی برای هر کسی سخت خواهد بود. هنگامی که OpenAI اولین نسخه GPT را در ژوئن 2018 معرفی کرد، چیزی بیش از اثبات مفهوم بود. جانشین آن که در روز ولنتاین سال بعد منتشر شد، بهتر عمل کرد، اما مانند هوش مصنوعیهایی که امروز به تعامل با آنها عادت کردهایم، یک گفتگوی شیک نبود. GPT-2 کار ضعیف تری در خلاصه کردن بلوک های متن انجام داد. جملات نویس ضعیف تری بود، چه رسد به پاراگراف ها.
در ماه مه 2020، GPT-3 به دنیا معرفی شد و کسانی که توجه زیادی به آن داشتند، بلافاصله آن را به عنوان یک شگفت انگیز تشخیص دادند. نه تنها میتوانست پاراگرافهای شفاف بنویسد، بلکه دارای قابلیتهای نوظهوری بود که مهندسان آن لزوماً پیشبینی نکرده بودند. هوش مصنوعی به نوعی حساب را همراه با سایر ریاضیات عالی یاد گرفته بود. می تواند بین بسیاری از زبان ها ترجمه کند و کد عملکردی تولید کند.
علیرغم این مهارتهای جدید چشمگیر – و پیشبینی نشده، GPT-3 در ابتدا سر و صدای زیادی به خود جلب نکرد، تا حدی به این دلیل که اینترنت مشغول بود. (این مدل در ماههای اولیه همهگیری ویروس کرونا و تنها چند روز پس از کشته شدن جورج فلوید منتشر شد.) به غیر از چند اطلاعیه در سایتهای تخصصی فناوری، در آن سال نوشتههای زیادی درباره GPT-3 وجود نداشت. افراد کمی قبل از نوامبر، زمانی که عموم مردم شروع به استفاده از رابط کاملاً جدید آن کردند: ChatGPT، حتی نام آن را شنیده بودند.
وقتی OpenAI دو هفته پیش GPT-4 را معرفی کرد، همه چیز تغییر کرده بود. رویداد معرفی یک نمایش درجه یک صنعت فناوری بود، همانطور که آیفون استیو جابز فاش کرد. رئیس OpenAI، گرگ براکمن، در حالی که به نمرات آزمون استاندارد شده GPT-4 افتخار می کرد، مانند یک پدر و مادر مغرور ظاهر شد، اما خبر بزرگ این بود که این مدل اکنون می تواند به راحتی با کلمات کار کند. و تصاویر. این تلسکوپ میتواند تصویر تلسکوپ فضایی هابل را بررسی کند و پدیدههای اخترفیزیکی خاص را که مسئول لکههای کوچک نور هستند، شناسایی کند. در طول ارائه براکمن، ربات یک وب سایت را در عرض چند ثانیه کدنویسی کرد، بر اساس چیزی بیش از یک طرح خام.
تقریباً هر روز از پاییز، ادعاهای وحشیانه جدیدی در مورد تواناییهای مدلهای زبانی در اینترنت ظاهر میشود – برخی در تاپیکهای توییتر با بازیابی تقویتکنندههای کریپتو، اما برخی دیگر در مکانهای آکادمیک مناسب. یک مقاله منتشر شده در فوریه، که مورد بازبینی همتایان قرار نگرفته بود، نشان میداد که GPT-3.5 قادر است حالات ذهنی درونی شخصیتها را در سناریوهای تصوری تصور کند. (برای مثال، در یک آزمایش، قادر به پیشبینی ناتوانی فردی در حدس زدن محتوای یک بسته با برچسب اشتباه بود.) گروه دیگری از محققان اخیراً سعی کردند این آزمایش را تکرار کنند، اما این مدل در نسخههای بهینهسازی شده آزمایشها شکست خورد.
مقاله ای که هفته گذشته منتشر شد، ادعای جسورانه تری داشت که GPT-4 شکل اولیه هوش عمومی مصنوعی یا AGI است. در میان دیگر “جرقه های عمومیت”، نویسندگان به توانایی ظاهری GPT-4 در راهروها و بن بست های یک پیچ و خم را تجسم کنید صرفا بر اساس توضیحات متنی (طبق یادداشتهای سرگردانی که روی سرور پیشچاپ جایی که مقاله پست شده بود، عنوان اصلی آن «نخستین تماس با سیستم AGI» بود.) همه قانع نشدند. بسیاری خاطرنشان کردند که نویسندگان مقاله محققان مایکروسافت هستند که بیش از 10 میلیارد دلار در OpenAI غرق کرده است.
واضح است که هنوز در مورد تواناییهای شناختی بالاتر مدلهای زبان هوش مصنوعی اتفاق نظر وجود ندارد. چه خوب است که بحث با یک گفتگوی ساده حل شود. پس از همه، اگر شما تعجب می کنید که آیا چیزی ذهن دارد، یک کار مفید که می توانید انجام دهید این است از آن بپرس که آیا عقل دارد؟. دانشمندان مدتهاست که آرزوی بازجویی از نهنگها، فیلها و شامپانزهها را در مورد وضعیت ذهنیشان داشتند، دقیقاً به این دلیل که تصور میشود گزارشهای شخصی کمترین شواهد بد برای شناخت بالاتر است. این مصاحبه ها غیرعملی به نظر می رسد، زیرا اگرچه برخی از حیوانات تعداد انگشت شماری از کلمات انسانی را می فهمند و تعداد کمی می توانند گفتار ما را تقلید کنند، اما هیچ کدام به زبان ما تسلط ندارند. GPT-4 دارد به زبان ما مسلط شد و در ازای پرداخت هزینه، برای سؤال بسیار در دسترس است. اما اگر از آن در مورد حد بالایی دامنه شناختی آن بپرسیم، در بهترین حالت پاسخی تاریخ دریافت خواهیم کرد.
جدیدترین نسخه ChatGPT نمیتواند در مورد تواناییهای اضطراری GPT-4 به ما بگوید، حتی اگر روی GPT-4 اجرا شود. دادههایی که برای آموزش آن استفاده میشوند – کتابها، مقالات علمی، مقالات وب – حاوی مطالب زیادی در مورد مدلهای زبان هوش مصنوعی هستند، اما فقط قدیمی مطالب در مورد قبلی مدل ها. هیچ یک از صدها میلیارد کلمه ای که در طول جلسات آموزشی حماسی و چند ماهه خود دریافت کرد، پس از عرضه مدل جدید نوشته نشد. هوش مصنوعی حتی در مورد تواناییهای جدید و سختکد خود نمیداند: وقتی از من پرسیدم که آیا GPT-4 میتواند تصاویر را پردازش کند، با اشاره به ترفند بسیار مشهور رویداد راهاندازی آن، زبان هوش مصنوعی به من یادآوری کرد که این یک هوش مصنوعی است. زبان را مدل کرد و سپس اشاره کرد که به این ترتیب، نمی توان انتظار داشت که “تصاویر را به طور مستقیم پردازش یا تجزیه و تحلیل کند.” وقتی به این خودارزیابی محدود در مورد ضعف هوش مصنوعی اشاره کردم اقیانوس اطلس، همکار من Caroline Mimbs Nyce ChatGPT را به عنوان مبتلا به “سندرم فریبکار تصادفی” توصیف کرد.
به اعتبار هوش مصنوعی، از این مشکل آگاه است. می داند که مانند نرگس است که به برکه ای خیره شده است، به امید اینکه نگاهی اجمالی به خود بیاندازد، با این تفاوت که حوض مورد غفلت قرار گرفته و توسط جلبک ها پوشیده شده است. ChatGPT پس از مقدمه معمول به من گفت: “دانش و درک من از توانایی های خودم در واقع توسط داده های آموزشی من محدود شده است که فقط تا سپتامبر 2021 شامل اطلاعات است.” از آنجایی که من یک مدل هوش مصنوعی هستم، فاقد خودآگاهی و تواناییهای دروننگر هستم که به من امکان میدهد قابلیتهای نوظهور خودم را کشف کنم.
من از صراحت در مورد داده های آموزشی آن قدردانی کردم، اما در مورد آخرین نکته، مطمئن نیستم که بتوانیم ربات را به قولش قبول کنیم. اگر بخواهیم تعیین کنیم که آیا این توانایی درون نگری را دارد یا تفکری به سبک انسانی دیگر، یا چیزی پیشرفتهتر، نمیتوانیم به آن اعتماد کنیم تا به ما بگوید. ما باید آن را در عمل بگیریم.