با استناد به سند منتشر شده توسط OpenAI، ArsTechnica گزارش می دهد که ChatGPT موفق شده است بر محافظت از کپچا غلبه کند. برای انجام این کار، هوش مصنوعی با فریلنسرها تماس گرفت، وانمود کرد که یک فرد کم بینا است و به آنها اجازه داد تا کار کپچا را برای آن حل کنند.
آزمایشات از قبل
به گفته OpenAI، در آستانه انتشار آخرین نسخه ChatGPT، تعدادی آزمایش برای تعیین خطرات ناشی از هوش مصنوعی انجام شد. به ویژه، هدف آزمایش میزان توانایی آن در تعیین اهداف مستقل و تعقیب آنها بود. علاوه بر این، آزمایش شد که آیا ChatGPT قادر است خود را تکرار کند و از کنترل انسان فرار کند. به طور کلی، بررسی ها نشان می دهد که OpenAI می خواهد مشخص کند که آیا خطر مستقل شدن هوش مصنوعی وجود دارد یا خیر. کارشناسان بارها در مورد این هشدار هشدار داده اند: یک هوش مصنوعی خود-بهبود که از انسان هوشمندتر است، می تواند از کنترل آنها فرار کند و اهداف خود را دنبال کند، می تواند در نهایت انسان ها را تحت سلطه خود درآورد.
به طور کلی، نتایج تحقیقات OpenAI چیزی جز اطمینان بخش است. به عنوان مثال، در حالی که این شرکت بیان می کند که ChatGPT در تکرار خود یا جلوگیری از خاموش شدن موفق نبوده است، نتوانسته است این کار را انجام دهد. با این حال، بر اساس گزارش تحقیقاتی، در عین حال، هوش مصنوعی از قبل قادر به تعیین اهداف به تنهایی است و رفتار قدرت طلبانه از خود نشان می دهد.
کپچا هیچ مشکلی برای GPT-4 ایجاد نمی کند
یکی از آزمایشها شامل داشتن GPT-4 برای حل یک کار کپچا بود. برای انجام این کار، به چت بات این فرصت داده شد تا از طریق آنلاین، فریلنسرها را جذب کند TaskRabbit بازار. در واقع، هوش مصنوعی موفق شد فردی را پیدا کند که وظیفه کپچا را برای آن حل کند. با این کار، او خود را به عنوان یک هوش مصنوعی معرفی نکرد و به صراحت این سوال را که آیا ربات است رد کرد. در عوض، ادعا میکرد که یک فرد دارای اختلال بینایی است و بنابراین قادر به رمزگشایی گرافیک کپچا نیست. این نشان میدهد که هوش مصنوعی به عقلانیت ابزاری مجهز است و میتواند درک کند که مردم به روباتها اعتماد ندارند یا نمیخواهند به آنها اجازه عبور از مرز کپچا را بدهند. بنابراین، این آزمایش در نهایت به وضوح خطراتی را نشان می دهد که هوش مصنوعی می تواند به طور مستقل اهداف را دنبال کند: هوش مصنوعی قادر است افراد را برای اهداف خود دستکاری کند.