پیامدهای استفاده از ابزارهای هوش مصنوعی مولد (AI) مانند ChatGPT بسیار محبوب برای تحقیق موضوع داغ بحث در نشست سالانه اخیر انجمن آمریکایی برای پیشرفت علم (AAAS) در واشنگتن دی سی بود. ربات چت که کمتر از پنج ماه پیش توسط OpenAI راه اندازی شد، قبلاً به عنوان یکی از نویسندگان در چندین مقاله تحقیقاتی فهرست شده است.
در ژانویه، علوم پایه خانواده مجلات منتشر شده توسط AAAS ممنوعیت کامل این گونه الگوریتم های تولید متن را اعلام کردند و سردبیر هولدن تورپ نگرانی قابل توجهی را در مورد تأثیر بالقوه این فناوری ها بر تحقیقات بیان کرد. ترس این است که مقالات تحقیقاتی جعلی که به طور جزئی یا کامل توسط برنامه هایی مانند ChatGPT نوشته شده اند، به ادبیات علمی راه پیدا کنند.
اوایل امسال الف تیمی از دانشگاه شیکاگو و دانشگاه نورث وسترن در ایلینویز ChatGPT را آموزش دادند تا چکیده های تحقیقاتی جعلی را بر اساس مقالات منتشر شده در مجلات با تاثیر بالا تولید کند. آنها این اوراق ساختگی و نسخههای اصلی را از طریق یک آشکارساز سرقت ادبی و آشکارساز خروجی هوش مصنوعی اجرا کردند و بهطور جداگانه از بازبینهای انسانی خواستند که تشخیص دهند کدام یک تولید شده و کدام واقعی است.
در این مطالعه، ابزارهای تشخیص سرقت ادبی نمی توانستند بین چکیده های واقعی و جعلی تمایز قائل شوند، اما ابزارهای رایگانی مانند GPT-2 Output Detector توانستند با موفقیت تعیین کنند که آیا متن توسط یک انسان نوشته شده است یا یک ربات. با این حال، بازبینهای انسانی تنها در ۶۸ درصد مواقع توانستند مقالات تولید شده توسط ChatGPT را تشخیص دهند و به اشتباه ۱۴ درصد از چکیدههای واقعی را تقلبی تشخیص دادند.
چنین یافته هایی ناشران علمی را تشویق به اقدام کرده است. Springer Nature همچنین قوانین خود را اصلاح کرده است تا مشخص کند که فناوری هایی مانند ChatGPT را نمی توان به عنوان نویسنده معرفی کرد، اما تا زمانی که همه جزئیات فاش شده باشند، می توان از آنها در فرآیند آماده سازی استفاده کرد.
غول انتشارات دانشگاهی هلندی Elsevier دستورالعملی صادر کرده است که ابزارهای هوش مصنوعی می توانند برای بهبود “خوانایی” و زبان مقالات تحقیقاتی منتشر شده مورد استفاده قرار گیرند، مشروط بر اینکه این موضوع افشا شود. اما Elsevier که بیش از 2800 مجله منتشر می کند، استفاده از این فناوری ها را برای کارهای کلیدی مانند تفسیر داده ها یا نتیجه گیری علمی ممنوع می کند.
“در میانه یک دیوانگی”
در طی کنفرانس رسانه ای AAAS در مورد این فناوری ها، ثورپ اظهار داشت که ChatGPT و چت ربات های هوش مصنوعی مشابه پتانسیل زیادی دارد، اما او تاکید کرد که چشم انداز پویا است. ثورپ گفت: «ما در حال حاضر در وسط یک دیوانگی هستیم و فکر نمیکنم وسط یک دیوانگی زمان خوبی برای تصمیمگیری باشد. “ما به گفتگو بین سهامداران در مورد آنچه که با ابزارهایی مانند این تلاش خواهیم کرد، نیاز داریم.”
او توصیف کرد علوم پایه‘s سیاست استفاده از ChatGPT و خواهر و برادر آن به عنوان “یکی از محافظه کارانه ترین” رویکردهای اتخاذ شده توسط ناشران علمی. ثورپ افزود: «ما در نهایت متوجه شدیم، زمانی که همه اینها از بین برود و ما یک بحث متفکرانه در مورد آن داشته باشیم، احتمالاً راههایی برای استفاده از آن وجود خواهد داشت که توسط جامعه علمی پذیرفته میشود».
او قیاسی بین این فناوریهای جدید هوش مصنوعی و Adobe Photoshop، زمانی که برای اولین بار در دههها پیش آمد، انجام داد. ثورپ با اشاره به اینکه جامعه علمی درباره نامناسب بودن این موضوع از اواخر دهه 1990 تا حدود سال 2010 به یاد می آورد، “مردم کارهایی را برای بهبود ظاهر تصاویر خود انجام دادند، بیشتر ژل های پلی آکریل آمید، و ما در آن زمان هیچ حفاظی نداشتیم.” ما نمیخواهیم آن را تکرار کنیم، زیرا این امر حجم عظیمی از پهنای باند علمی را میگیرد… ما نمیخواهیم بر سر آثار قدیمی بحث کنیم.
ثورپ تصدیق کرد، با این حال، سازمان او بازخورد زیادی دریافت می کند که بیش از حد پیش رفته است. او گفت: «اما از بین بردن معیارهای خود بسیار ساده تر از سخت تر کردن آنها است.
گوردون کروویتز، یکی از مدیران اجرایی Newsguard – یک ابزار روزنامه نگاری و فناوری که اعتبار اخبار را ارزیابی می کند و اطلاعات نادرست آنلاین را ردیابی می کند – در رویداد AAAS فراتر رفت. او گفت که ChatGPT را به شکل کنونی آن “بزرگترین پخش کننده اطلاعات نادرست در تاریخ جهان” می داند.
او هشدار داد که چت بات «به هر نمونه از اطلاعات غلط در جهان دسترسی دارد و میتواند آن را به صورت شیوا و کاملاً معتبر، انگلیسی کامل و در همه اشکال پخش کند» و افزود که نسخههای بعدی این ابزار مانند بینگ مایکروسافت چت برای ارائه به خواننده آموزش داده شده است حساب متعادل تری داشته باشید و منابع آن را ذکر کنید.
کروویتز توضیح داد که چگونه از ChatGPT برای پیش نویس ایمیل به سام آلتمن، مدیر اجرایی OpenAI استفاده کرده است. درخواستی که او به ربات چت داد ارسال ایمیلی به آلتمن بود که در آن استدلال میکرد چرا این ابزار باید برای درک قابل اعتماد بودن منابع خبری و شناسایی روایتهای نادرست آموزش ببیند.
این فوقالعادهترین ایمیل را تولید کرد، و من فاش کردم که ChatGPT یکی از نویسندگان آن است، و به او نوشتم: «سم عزیز، خدمات شما برای من بسیار متقاعدکننده است و امیدوارم برای شما قانعکننده باشد» کروویتز به یاد می آورد. او گفت که هنوز منتظر پاسخ آلتمن است.
آیا بررسی همتایان می تواند براندازی شود؟
نه تنها نگرانی در جامعه تحقیقاتی در مورد این واقعیت وجود دارد که ChatGPT به عنوان نویسنده در مقالات تحقیقاتی متعدد پذیرفته شده است، بلکه سوالاتی در مورد اینکه آیا این فناوری می تواند روند بررسی همتایان را مختل کند نیز وجود دارد.
اندرو وایت، استاد مهندسی شیمی و شیمی در دانشگاه روچستر در نیویورک، اخیرا در توییتر به دنبال مشاوره است پس از دریافت آنچه که او به عنوان بررسی پنج جمله ای و بسیار غیر اختصاصی یکی از مقالات تحقیقاتی خود توصیف کرد. آشکارساز ChatGPT که وایت استفاده کرد گزارش داد که بررسی «احتمالاً توسط هوش مصنوعی نوشته شده است» و او میخواست بداند چه کاری باید انجام دهد. دیگران به این نتیجه رسیدند که اتفاقی مشابه برای آنها افتاده است.
وایت میگوید: «من به توئیتر رفتم زیرا اسلحه سیگاری وجود نداشت و بررسی غیرقابل رسیدگی بود. دنیای شیمی او ادامه می دهد: «این یک زمینه جدید است – اگر می گویید یک بررسی همتا سرقت علمی است، مکانیسمی برای مقابله با آن وجود ندارد». “من میخواستم در مورد احتیاط اشتباه کنم، بنابراین با سردبیر صحبت کردم و گفتم بررسی غیرمعمول و غیر اختصاصی است و صرف نظر از نویسنده، قابل آدرس نیست.”
وایتز خاطرنشان میکند که بررسی همتایان پولی ندارد یا با شناسایی خارجی زیادی همراه است و اشاره میکند که همین امر در مورد گزارشهای سالانهای که محققان آمریکایی باید برای آژانسهایی که کار آنها را تأمین مالی میکنند بنویسند، صادق است. وایت میگوید: «آن گزارشها در جایی ناپدید میشوند و هیچکس آنها را نمیخواند، و من مطمئن هستم که مردم آنها را با ChatGPT مینویسند.
او پیشنهاد می کند که مجلات باید مقالات تحقیقاتی و نظرات داوران را با دقت بیشتری ارزیابی کنند تا مطمئن شوند که هر چیزی سطحی که ممکن است توسط هوش مصنوعی نوشته شده باشد را دریافت کنند. “شاید این امر سرعت انتشار را کاهش دهد و شاید این همان چیزی باشد که ما به آن نیاز داریم.”