یک چالش عمومی می تواند به طور موقت استقرار ChatGPT و سیستم های هوش مصنوعی مشابه را متوقف کند. سازمان تحقیقات غیرانتفاعی مرکز هوش مصنوعی و سیاست دیجیتال (CAIDP) شکایتی را به کمیسیون تجارت فدرال (FTC) ارائه کرده است که ادعا میکند OpenAI با انتشار مدلهای هوش مصنوعی زبان بزرگ مانند GPT-4 قانون FTC را نقض میکند. CAIDP ادعا می کند که این مدل “مغرضانه، فریبنده” است و هم حریم خصوصی و هم امنیت عمومی را تهدید می کند. به همین ترتیب، ظاهراً از دستورالعملهای کمیسیون که خواستار شفافیت، عادلانه بودن و توضیح آسان هوش مصنوعی است، عمل نمیکند.
این مرکز از FTC میخواهد OpenAI را بررسی کند و نسخههای بعدی مدلهای زبان بزرگ را تا زمانی که دستورالعملهای آژانس را برآورده کنند، متوقف کند. محققان میخواهند که OpenAI قبل از راهاندازی به بررسی مستقل محصولات و خدمات GPT نیاز داشته باشد. CAIDP همچنین امیدوار است که FTC یک سیستم گزارش رویداد و استانداردهای رسمی برای تولیدکنندگان هوش مصنوعی ایجاد کند.
ما از OpenAI برای نظر خواسته ایم. FTC از اظهار نظر خودداری کرده است. مارک روتنبرگ، رئیس CAIDP، از جمله کسانی بود که نامه ای سرگشاده را امضا کرد که در آن از OpenAI و سایر محققان هوش مصنوعی خواستند تا کار را به مدت شش ماه متوقف کنند تا برای بحث های اخلاقی وقت بگذارند. ایلان ماسک، بنیانگذار OpenAI نیز این نامه را امضا کرد.
منتقدان ChatGPT، Google Bard و مدلهای مشابه نسبت به خروجیهای مشکلساز، از جمله اظهارات نادرست، سخنان مشوق تنفر و تعصب هشدار دادهاند. CAIDP می گوید، کاربران همچنین نمی توانند نتایج را تکرار کنند. این مرکز اشاره می کند که OpenAI خود هشدار می دهد که هوش مصنوعی می تواند ایده ها را “تقویت” کند، خواه درست باشد یا نباشد. در حالی که ارتقاهایی مانند GPT-4 قابل اعتمادتر هستند، این نگرانی وجود دارد که افراد ممکن است بدون بررسی مجدد محتوای آن به هوش مصنوعی اعتماد کنند.
هیچ تضمینی وجود ندارد که FTC به این شکایت عمل کند. با این حال، اگر الزاماتی را تعیین کند، این حرکت بر توسعه در سراسر صنعت هوش مصنوعی تأثیر می گذارد. شرکتها باید منتظر ارزیابیها باشند و اگر مدلهای آنها استانداردهای کمیسیون را برآورده نکنند، ممکن است با عواقب بیشتری روبرو شوند. در حالی که این ممکن است پاسخگویی را بهبود بخشد، میتواند سرعت سریع توسعه هوش مصنوعی را نیز کاهش دهد.