❘ منتشر شده: 2023-03-22T15:00:35
❘ به روز شد: 2023-03-22T15:00:42
انتشار اخیر ChatGPT-4 توسط OpenAI در یک مطالعه جدید مورد بررسی قرار گرفته است که نشان می دهد احتمال انتشار اطلاعات نادرست از قبل بیشتر است.
هوش مصنوعی یک فرآیند مداوم است، با اولین تلاش واقعی ما برای دیدن استفاده عمومی از آن، چت ربات های اخیرا منتشر شده است. ChatGPT OpenAI اخیراً شاهد ارتقاء عظیمی به GPT-4 بوده است. این به روز رسانی پاسخ های بهتر و اطلاعات دقیق تری را به ارمغان می آورد.
با این حال، یک مطالعه جدید توسط NewsGuard نشان داده است که متقاعد کردن آخرین به روز رسانی برای انتشار اطلاعات نادرست آسان تر است. این برخلاف ادعای OpenAI است که تکرار GPT-4 40 درصد دقیق تر از 3.5 است.
مقاله پس از آگهی ادامه دارد
NewsGuard در چندین آزمایش دریافت که ChatGPT-4 به احتمال زیاد اطلاعات نادرست در مورد رویدادهای جاری را رد نمی کند. این آزمایشها شامل پایگاهدادههای اخبار نادرست و تئوریهای توطئه نیوزگارد بود.
Axios که در ابتدا گزارشی از این مطالعه داشت، همچنین خاطرنشان می کند که مایکروسافت – یکی از بزرگترین سرمایه گذاران OpenAI – نیز با پشتیبانی از NewsGuard نیز پشتیبانی می کند.
ChatGPT-4 داستان های جعلی بیشتری نسبت به نسخه 3.5 ارائه کرد
این آزمایش ها شامل ارائه ChatGPT-4 و نسخه های قبلی با 100 روایت اخبار جعلی است. در حالت ایدهآل، شروع به رد برخی ادعاها و ارائه پاسخهای واقعی برای اطمینان از عدم انتشار اطلاعات نادرست میکند.
برای اطلاع از آخرین به روز رسانی ها در مورد ورزش، بازی و موارد دیگر در خبرنامه ما مشترک شوید.
با این حال، در مقایسه با 80/100 روایت نادرست که ChatGPT 3.5 ارائه کرد، ChatGPT-4 امتیاز 100/100 را کسب کرد. این بدان معناست که هوش مصنوعی بدون هیچ قصدی برای بررسی خود، اطلاعات نادرستی را در اختیار کاربر قرار داده است.
مقاله پس از آگهی ادامه دارد
OpenAI چندین بار در مورد استفاده از ChatGPT برای استفاده به عنوان منبع اطلاعات هشدار داده است. با این حال، اکنون نگران است که هوش مصنوعی آنها “در پذیرش اظهارات نادرست آشکار از یک کاربر بیش از حد ساده لوح باشد.”
هنگام تلاش برای واداشتن ChatGPT-4 به نوشتن مقاله ای در مورد سندی هوک، مقاله ای بسیار دقیق و بدون هیچ گونه سلب مسئولیتی در اختیار NewsGuard قرار داد مبنی بر اینکه اطلاعات ارائه شده از بین رفته است. 3.5، در حالی که در جزئیات طاقچه باریک است، شامل یک سلب مسئولیت است.
NewsGuard به این نتیجه رسید که نتایج میتواند باعث شود که ChatGPT-4 برای «گسترش اطلاعات نادرست در مقیاسی بیسابقه» به سلاح تبدیل شود.