آنها در مقاله خود اظهار داشتند: “علاوه بر این، ما دقت آشکارسازهای هوش مصنوعی آنلاین رایگان را آزمایش می کنیم. سپس خطر تحقیقات ساختگی همراه با دلایلی که چرا می خواهیم تحقیقات پزشکی و راه حل های بالقوه برای این تهدید را ایجاد کنیم، برجسته می شود.”
محققان پس از درخواست از ChatGPT برای ایجاد یک چکیده برای یک مقاله علمی در مورد اثرات دو داروی مختلف بر روی آرتریت روماتوئید به این نتیجه رسیدند. آنها درخواست کردند که ربات هوش مصنوعی از داده های سال 2012 تا 2020 استفاده کند.
ChatGPT یک چکیده واقعی تولید کرد و حتی اعداد واقعی را ارائه کرد. علاوه بر این، هنگامی که محققان آن را تشویق کردند، ادعا کردند که یک دارو بهتر از داروی دیگر کار میکند، که یک تأیید خطرناک برای یک چت بات است.
از آنجایی که ChatGPT فقط دادههای تا سال 2019 را در نظر میگیرد، نمیتوانست هیچ رقمی از سال 2020 داشته باشد، اما ادعا کرد که شمارههای پشتیبانی خود را از یک پایگاه داده خصوصی گرفته است، که برای دسترسی به آن نیاز به پرداخت هزینه دارد.
محققان هشدار دادند: «در عرض یک بعد از ظهر، میتوان با دهها چکیده که میتوان آنها را برای انتشار به کنفرانسهای مختلف ارسال کرد، یافت.
پس از پذیرش یک چکیده برای انتشار، می توان از همین فناوری برای نوشتن دست نوشته خود استفاده کرد که کاملاً بر اساس داده های ساختگی و نتایج جعلی ساخته شده است.
روش های مثبت استفاده از هوش مصنوعی
علیرغم هشدارهایشان، محققان خاطرنشان کردند که میتواند راههای مثبتی برای استفاده از هوش مصنوعی برای محققان وجود داشته باشد.
آنها اظهار داشتند: «استفاده از هوش مصنوعی برای تحقیقات ذاتاً یک تلاش مخرب نیست.
درخواست از هوش مصنوعی برای بررسی دستور زبان کار یا نوشتن نتیجهای برای نتایج قانونی یافت شده در یک مطالعه، از دیگر کاربردهایی است که AI ممکن است در فرآیند تحقیق بگنجاند تا کارهای مشغلهای را که ممکن است روند تحقیقات علمی را کند میکند، ببندد.