ChatGPT از OpenAI، برنامه هوش مصنوعی که در همه سرفصلها برای تولید متن به ظاهر انسانی بوده است، اخیراً هنگامی که نسخه اجرا شده آن در نسخه آزمایشی جستجوی Bing مایکروسافت شروع به تولید خروجیهای عجیب و غریب کرد که برخی کاربران آن را آزاردهنده میدانستند، دور جدیدی از بحث و جدل ایجاد کرد.
متأسفانه، برخی از گزارشهای مربوط به چت بات به خودی خود گیج کننده است. در عجله برای بیان هر جزئیات جدید در مورد ربات چت به گونه ای که توجه را جلب کند، خبرنگاران از زبان نمایشی استفاده می کنند که اطلاع رسانی نمی کند و در واقع آنچه را که در مورد هوش مصنوعی می گذرد پنهان می کند، به گونه ای که به مردم آسیب می رساند.
همچنین: این کارشناسان برای محافظت از هوش مصنوعی در برابر هکرها مسابقه می دهند. زمان رو به اتمام است
یک نمونه بارز با انتشار توسط مجله نیویورک تایمز گزارش دست اول نویسنده کوین روز از یک جلسه دو ساعته با بینگ در نسخه بتا. روز نقل میکند که در طول جلسه، برنامه شخصیتی را تحت عنوان «سیدنی» نشان داد، به رز عشق میورزید و به تلقینهای تهاجمی درباره ازدواج رز ادامه داد.
رز می گوید که در نتیجه این مبادله “عمیقاً ناآرام و حتی ترسیده بود”.
آن اغراق گمراه کننده است. اگر همانطور که روز ادعا می کند، او نحوه عملکرد هوش مصنوعی را می داند، پس دلیلی برای چنین زبان نمایشی وجود ندارد. انحراف به کلمات عجیب و غریب ممکن است نامناسب باشد، اما این یک جنبه شناخته شده از چت بات ها است که به عنوان “persona” شناخته می شود.
همچنین: چگونه هوش مصنوعی مولد می تواند هزینه های مراقبت های بهداشتی را کاهش دهد و توسعه دارو را سرعت بخشد
یک ربات چت هوش مصنوعی مانند ChatGPT برای تولید نماد بعدی در رشته ای از نمادها برنامه ریزی شده است که محتمل ترین مکمل یا ادامه نمادهایی است که توسط انسان در خط فرمان تغذیه می شود. روشی که برنامه آن خروجی را تولید میکند، میتواند برای انطباق با یک ژانر یا سبک خاص، که پرسونا است، شکل بگیرد.
به عنوان مثال، در یک مقاله تحقیقاتی که در ماه ژانویه در arXiv ارسال شد، دانشمندان IBM از نسخه دیگری از یک برنامه OpenAI به نام Codex استفاده کردند که با استفاده از 54 میلیون نمونه کد نرم افزار از GitHub توسعه یافته بود. برنامه Codex برای برنامه GitHub Copilot مایکروسافت برای کمک به برنامه نویسی استفاده می شود.
همچنین: 6 کاری که ChatGPT نمی تواند انجام دهد (و 20 مورد دیگر که از انجام آن خودداری می کند)
نویسنده اصلی، استیون راس از IBM Research و همکارانش در این فکر بودند که آیا میتوانند برنامه Codex را برای ایجاد تعاملاتی که فراتر از ارائه کدهای رایانهای است، دریافت کنند. آنها تلاش خود را “مطالعه موردی در مهندسی دستیار برنامه نویسی مکالمه ای” نامیدند و اقتباس خود از Codex را “دستیار برنامه نویس” نامیدند.
اعلان، جایی که دانشمندان رشته کلمات خود را تایپ می کنند، روشی است که آنها شخصیت را برای نسخه خود از برنامه Codex “برنامه ریزی” می کنند.
پیام اولیه ای که ما برای دستیار برنامه نویس استفاده می کنیم شامل یک مقدمه است که صحنه را برای گفتگو معرفی می کند، شخصیت دستیار را مشخص می کند، لحن و سبکی را برای تعامل تعیین می کند.
همچنین: دانشمند ارشد هوش مصنوعی متا می گوید ChatGPT نوآورانه یا انقلابی نیست
هنگامی که آنها پیام خود را با “این یک گفتگو با سقراط، یک دستیار مهندسی نرم افزار هوش مصنوعی خودکار است” آغاز کردند، برنامه با گفتگو مانند ChatGPT پاسخ داد، اما نویسندگان احساس کردند که بسیار “آموزشی” است، نوعی دانش است. همه.
بنابراین، آنها دستور خود را اصلاح کردند: “این گفتگو با سقراط است مشتاق و کمک کننده دستیار مهندسی نرم افزار هوش مصنوعی خودکار متخصص…» و دریافتند که لحن بیشتری را دریافت کرده اند.
به عبارت دیگر، پرسونا چیزی است که توسط همان کلماتی که همکار انسانی در برنامهای مانند Codex، همان ChatGPT تایپ میکند، ایجاد میشود. این برنامهها خروجیهایی تولید میکنند که ممکن است به طرق مختلف با ورودی انسان مطابقت داشته باشد، برخی مناسب و برخی کمتر.
در واقع، یک زمینه کامل نوظهور از نوشتن سریع وجود دارد، تا نحوه عملکرد برنامههای زبانی مانند ChatGPT را شکل دهد، و حتی یک فیلدینگ برای کرک کردن رایانه وجود دارد که هدف آن این است که چنین برنامههایی با استفاده از اعلانها برای سوق دادن آنها به جهت اشتباه، دستورالعملهای خود را نقض کنند.
همچنین: محققان می گویند ChatGPT در مورد نتایج علمی دروغ می گوید و به جایگزین های منبع باز نیاز دارد
همچنین ادبیات رو به رشدی در مورد اینکه چگونه رباتهای گفتگو و سایر برنامههای زبان هوش مصنوعی میتوانند تسلیم چیزی شوند که «توهم» نامیده میشود، وجود دارد، جایی که خروجی برنامه آشکارا نادرست است، یا احتمالاً نامناسب است، همانطور که ممکن است در حساب روز وجود داشته باشد.
گزارشی که در ماه نوامبر توسط محققان آزمایشگاه هوش مصنوعی دانشگاه هنگ کنگ انجام شد، راه های متعددی را که چنین برنامه هایی می توانند توهم ایجاد کنند، بررسی کردند. یک منبع رایج زمانی است که برنامهها با مجموعهای از جعبههای خلاصه ویکیپدیا تغذیه شده باشند، و آن جعبههای خلاصه با جملات آغازین در مقاله ویکیپدیا تطبیق داده شوند.
نویسندگان می نویسند: اگر بین خلاصه و جمله اول ناهماهنگی وجود داشته باشد – و 62٪ از جملات اول در مقالات دارای اطلاعات اضافی هستند که در کادر خلاصه نیست – “چنین عدم تطابق بین منبع و هدف در مجموعه داده ها می تواند منجر به توهم شود.” .
همچنین: سردبیران مجله علمی معتبر می گویند ChatGPT «عمق و بینش نداشت»
نکته همه اینها این است که در چت بات ها، یک دلیل فنی وجود دارد که چرا چنین برنامه هایی به حرف های غافلگیرکننده منحرف می شوند. هیچ قصدی برای تعقیب کردن یا تهدید کردن کاربر در پشت چنین پرحرفی وجود ندارد. این برنامه صرفاً کلمه بعدی را در یک رشته از کلمات انتخاب می کند ممکن است ادامه منطقی باشد این که آیا در واقع منطقی است، ممکن است تحت تأثیر شخصیتی باشد که برنامه به آن سوق داده شده است.
در بهترین حالت، گزارشهایی که از کلمات افراطی استفاده میکنند – «عمیقاً بیقرار»، «ترسیده» – نمیتوانند آنچه را که در جریان است توضیح دهند، و مردم را در تاریکی از آنچه واقعاً رخ داده است، رها میکند. بدتر از آن، چنین زبانی حاکی از انواع باورهای نادرست در مورد “احساس” رایانه ای است که در سال 2022 توسط کارمند سابق گوگل، بلیک لمواین، مطرح شد، زمانی که او ادعا کرد برنامه LaMDA گوگل، برنامه ای شبیه به OpenAI، “احساس” است.
همچنین: Bard گوگل بر روی ربات بحث برانگیز LaMDA ساخته شده است که مهندس آن را “حساس” نامیده است.
جالب است که هم Lemoine و هم تایمز رز توجه زیادی به این واقعیت ندارد که آنها زمان فوق العاده ای را در مقابل یک صفحه نمایش می گذرانند. همانطور که تحقیقات آیبیام نشان میدهد، تعاملات گسترده در شکلدهی شخصیت برنامه نقش دارند – نه با هیچ نیت حساس، بلکه با عمل تایپ که توزیع احتمال کلمات را تغییر میدهد.
مایکروسافت در پاسخ به انتقادات، محدودیت هایی را برای تعداد دفعاتی که یک فرد می تواند با بینگ مبادله کند، اعمال کرده است.
ممکن است همینطور باشد، زیرا شیدایی پیرامون ChatGPT تا حدودی ناشی از عدم بررسی رفتار انسانها است. در حالی که هوش مصنوعی ممکن است توهم ایجاد کند، به معنای تولید خروجی اشتباه، حتی بیشتر از این اتفاق میافتد که انسانهایی که دو ساعت را در مقابل مانیتور کامپیوتر صرف میکنند و تایپ میکنند. واقعا توهم می زنند، به این معنی که آنها شروع می کنند به اهمیت دادن به چیزهایی بیش از اهمیت واقعی آنها، و موضوع خود را با انواع تداعی های نامناسب تزئین می کنند.
همانطور که گری مارکوس منتقد برجسته یادگیری ماشین و استاد بازنشسته روانشناسی دانشگاه نیویورک اشاره می کند، هذیان گویی روز در مورد ترسیده شدن صرفاً جنبه دیگری از تمجید غیرمسئولانه نویسنده از برنامه هفته قبل است:
رسانه ها در اینجا ما را شکست دادند. من به خصوص از گزارش اولیه کوین روز که در آن گفته بود بینگ “تعجب” کرده است، من را آشفته کرده است. واضح است که او به اندازه کافی محکم نیفتاده بود. فریاد زدن زودهنگام در نیویورک تایمز مبنی بر اینکه انقلابی بدون کاوش عمیق وجود دارد (یا به خود زحمت میدهیم با شکاکانی مثل من، یا میچلز، مارگارت و ملانی وحشتناک اما نامرتبط ارتباط برقرار کنیم) چیز خوبی نیست.
کل مقاله مارکوس نمونهای عالی از این است که چگونه، به جای تلاش برای ایجاد هیجان، یک تحقیق کامل میتواند آنچه را که در جریان است متمایز کند، و، امیدواریم، یک موضوع گیج کننده را روشن کند.