نگرانی این است که شرکتها برای پذیرش GPT-4 بدون تدابیر کافی در برابر رفتارهای نامناسب یا غیرقانونی رقابت میکنند. ظرفیت ربات چت برای تولید “سخنان مشوق تنفر، زبان تبعیض آمیز… و افزایش خشونت” می تواند پیامدهای مهمی داشته باشد. همچنین این امکان وجود دارد که یک چت بات فعال دستورات تهدیدآمیز را برای سازندگان یا خبرنگاران خود صادر کند.
عملکرد GPT در امتحانات آکادمیک و حرفه ای.
این گزارش اذعان میکند که اتکای بیش از حد به اطلاعات تولید شده توسط رباتهای گفتگو میتواند مشکلساز باشد، زیرا میتواند منجر به اشتباهات غیرقابل توجه، نظارت ناکافی، از دست دادن مهارتهای حیاتی و موانع توسعه مهارتهای جدید شود. این مشکل ممکن است بدتر شود زیرا ربات چت می تواند اطلاعات نادرست را ایجاد کند و آن را قانع کننده تر از نسخه های قبلی منتشر کند.
ایلان ماسک که OpenAI او ChatGPT را توسعه داده است، پتانسیل آن را “خوب ترسناک” توصیف کرده است. او هشدار داد که “ما از هوش مصنوعی بسیار قوی دور نیستیم.”
مدلهای زبان هوش مصنوعی مانند ChatGPT میتوانند افراد را باهوشتر کنند، اما قرار نیست جایگزین هوش انسانی شوند. از آنجایی که فناوری هوش مصنوعی در حال بهبود است، ضروری است که تدابیر حفاظتی مناسب برای اطمینان از استفاده اخلاقی و مسئولانه از این ابزارها اعمال شود.
شما می توانید این گزارش را برای خودتان در وب سایت OpenAI بخوانید.
گزارش چکیده:
“ما توسعه GPT-4 را گزارش میدهیم، یک مدل چندوجهی در مقیاس بزرگ که میتواند ورودیهای تصویر و متن را بپذیرد و خروجیهای متنی تولید کند. در حالی که در بسیاری از سناریوهای دنیای واقعی نسبت به انسانها توانایی کمتری دارد، GPT-4 عملکرد در سطح انسانی را نشان میدهد. معیارهای مختلف حرفه ای و آکادمیک، از جمله گذراندن یک آزمون نوار شبیه سازی شده با امتیازی در حدود 10 درصد از شرکت کنندگان در آزمون. فرآیند منجر به بهبود عملکرد در معیارهای واقعیت و پایبندی به رفتار مطلوب می شود. یکی از اجزای اصلی این پروژه توسعه زیرساخت ها و روش های بهینه سازی بود که به طور قابل پیش بینی در طیف وسیعی از مقیاس ها رفتار می کنند. این به ما امکان می دهد تا برخی از جنبه های عملکرد GPT-4 را به طور دقیق پیش بینی کنیم. بر اساس مدلهایی که با حداکثر ۱/۱۰۰۰م محاسبه GPT-4 آموزش دیدهاند.”