یک چت ربات هوش مصنوعی (AI) میتواند چنان چکیدههای مقاله تحقیقاتی جعلی قانعکننده بنویسد که دانشمندان اغلب نمیتوانند آنها را شناسایی کنند. محققان در مورد پیامدهای علم اختلاف نظر دارند.
ربات چت، ChatGPT، متنی واقع بینانه و با صدای هوشمند در پاسخ به درخواست های کاربر ایجاد می کند. این یک «مدل زبان بزرگ» است، سیستمی مبتنی بر شبکههای عصبی که یاد میگیرند با هضم مقادیر عظیمی از متنهای تولید شده توسط انسان، یک کار را انجام دهند.
…
آشکارساز خروجی هوش مصنوعی 66 درصد از چکیده های تولید شده را شناسایی کرد. اما بازبینان انسانی خیلی بهتر عمل نکردند: آنها تنها 68 درصد از چکیده های تولید شده و 86 درصد از چکیده های واقعی را به درستی شناسایی کردند. آنها به اشتباه 32 درصد از چکیده های تولید شده را واقعی و 14 درصد از چکیده های واقعی را به عنوان تولید شده شناسایی کردند.
گفت: «ChatGPT چکیده های علمی باورپذیری می نویسد [Catherine] گائو و همکارانش در پیش چاپ. “مرزهای استفاده اخلاقی و قابل قبول از مدل های زبانی بزرگ برای کمک به نوشتن علمی هنوز مشخص نیست.”
[Expert Sandra] واچر میگوید که اگر دانشمندان نتوانند صحت تحقیق را تعیین کنند، ممکن است «عواقب ناگواری» در پی داشته باشد. علاوه بر مشکلساز بودن برای محققان، که میتوانند مسیرهای ناقص تحقیق را کنار بگذارند، زیرا تحقیقاتی که آنها میخوانند ساختگی است، «پیامدهایی برای جامعه در کل وجود دارد، زیرا تحقیقات علمی نقش بزرگی در جامعه ما ایفا میکند».
این یک گزیده است. متن کامل مقاله را در اینجا مطالعه کنید