گروه های جامعه مدنی در واکنش هماهنگ علیه گسترش سریع این فناوری تاکید کرده اند که مقامات ایالات متحده و اروپا باید به سرعت برای محافظت از مردم در برابر تهدیدات ناشی از مدل های هوش مصنوعی GPT و ChatGPT OpenAI اقدام کنند.
روز پنجشنبه، مرکز هوش مصنوعی و سیاست دیجیتال ایالات متحده (CAIDP) شکایتی رسمی به کمیسیون تجارت فدرال ارائه کرد و از آژانس خواست تا «استقرار تجاری GPT توسط OpenAI را متوقف کند» تا زمانی که اقدامات حفاظتی برای جلوگیری از فریب ChatGPT اعمال شود. مردم و تداوم تعصبات
شکایت CAIDP تنها یک روز پس از انتشار یک نامه سرگشاده منتشر شد که خواستار توقف شش ماهه توسعه نسل بعدی مدلهای هوش مصنوعی شده بود. اگرچه در شکایت به آن نامه اشاره شده است، اما این گروه 10 روز پیش سیگنال داده است که از FTC میخواهد OpenAI و ChatGPT را بررسی کند و «تا زمانی که اقدامات حفاظتی مناسب ایجاد شود، انتشار نسخههای تجاری بیشتر GPT متوقف شود».
همزمان با ارسال شکایت CAIDP به FTC، سازمان مصرف کننده اروپا (BEUC) فراخوانی را از تنظیم کننده های اروپایی – هم در سطح اتحادیه اروپا و هم در سطح ملی – برای شروع تحقیقات در مورد ChatGPT صادر کرد.
اورسولا پاچل، معاون مدیر کل BEUC گفت: “با وجود تمام مزایایی که هوش مصنوعی می تواند برای جامعه ما به ارمغان بیاورد، ما در حال حاضر به اندازه کافی از آسیب هایی که می تواند به مردم وارد کند محافظت نشده ایم.” “فقط در چند ماه، ما شاهد استفاده گسترده از ChatGPT بودیم و این تنها شروع است.”
CAIDP که از گسترش عادلانه هوش مصنوعی در جامعه حمایت می کند، همچنین از FTC خواسته است که OpenAI را مجبور کند تا قبل و بعد از راه اندازی محصولات GPT خود را به ارزیابی های مستقل از محصولات GPT خود برساند و گزارش حوادث را برای افراد در تعامل خود با GPT آسان تر کند. -4، آخرین نسخه از مدل زبان بزرگ OpenAI.
مارک روتنبرگ، رئیس CAIDP در بیانیه ای گفت: “FTC مسئولیت روشنی برای بررسی و منع اقدامات تجاری ناعادلانه و فریبنده دارد.” ما معتقدیم که FTC باید OpenAI و GPT-4 را از نزدیک بررسی کند.
نگرانیها در مورد ChatGPT و دیگر رابطهای چت مانند Bing مایکروسافت با OpenAI و Bard Google، شامل تمایل سیستمها به ساختن اطلاعات است – پدیدهای که در صنعت هوش مصنوعی به عنوان “توهم” شناخته میشود – و تشدید سوگیریهای موجود در موادی که این مدل های زبان بزرگ بر روی آن آموزش دیده اند.
قانونگذاران اتحادیه اروپا در حال برنامه ریزی برای تنظیم صنعت هوش مصنوعی از طریق قانون هوش مصنوعی هستند که کمیسیون اروپا برای اولین بار تقریباً دو سال پیش پیشنهاد کرد. با این حال، برخی از اقدامات پیشنهادی با توجه به پیشرفتهای سریع در این زمینه و عرضه بسیار رقابتی خدمات جدید، قدیمی به نظر میرسند، و موسسات اتحادیه اروپا اکنون در تلاش هستند تا این لایحه را مدرنسازی کنند تا بهاندازه کافی با خدماتی مانند ChatGPT مقابله کند.
Pachl گفت: «انتظار برای تصویب قانون هوش مصنوعی و اجرایی شدن آن، که سالها بعد اتفاق خواهد افتاد، به اندازه کافی خوب نیست، زیرا نگرانیهای جدی در مورد اینکه چگونه ChatGPT و چتباتهای مشابه ممکن است مردم را فریب دهند و دستکاری کنند، وجود دارد.
یک سخنگوی BEUC گفت ثروت این سازمان امیدوار بود که شاهد به کارگیری مقامات مختلفی باشد، از جمله مواردی که ایمنی محصول، حفاظت از داده ها و حمایت از مصرف کننده را تنظیم می کنند.
با این حال، نیکو هرتینگ، وکیل فناوری برلین، گفت: «هیچ شانسی» وجود ندارد که تنظیمکنندههای سطح اتحادیه اروپا علیه OpenAI و ChatGPT اقدام کنند، در حالی که قانون هوش مصنوعی هنوز در حال مذاکره بود.
OpenAI در زمان انتشار به یک درخواست برای اظهار نظر پاسخ نداده بود. با این حال، برخی به نامه سرگشاده روز چهارشنبه – که توسط بیش از 1000 نفر از جمله ایلان ماسک و استیو وزنیاک، بنیانگذار اپل امضا شد – پاسخ دادند و گفتند که ترس در مورد هوش مصنوعی بسیار زیاد است و توسعه نباید متوقف شود.
دیگران با درخواست نامه از دولت ها برای اقدام سریع برای تنظیم این فناوری موافقت کردند، اما با منطق چنین مقرراتی که در نامه سرگشاده بیان شده بود، مخالفت کردند، که بیشتر بر پتانسیل سیستم های هوش مصنوعی آینده برای فراتر رفتن از هوش انسانی و کمتر بر پتانسیل تمرکز داشت. آسیبهای ناشی از سیستمهای موجود امروزی در زمینههایی مانند اطلاعات نادرست، سوگیری، امنیت سایبری، و هزینههای زیستمحیطی بزرگ ناشی از حجم عظیم قدرت محاسباتی و برق مورد نیاز برای آموزش و اجرای چنین سیستمهایی.
دانیل کاسترو و امیلی تاونر، از مرکز بزرگ فناوری برای اندیشکده نوآوری داده، روز چهارشنبه نوشتند: “آسمان در حال سقوط نیست و Skynet در افق نیست.”
سام آلتمن، مدیرعامل خود OpenAI، اخیراً استدلال کرد که شرکت او محدودیتهای ایمنی را برای مدلهای هوش مصنوعی خود قائل است که رقبای آن را رعایت نمیکنند، و گفت نگران است که چنین مدلهایی برای «اطلاعات نادرست در مقیاس بزرگ» و «حملات سایبری توهینآمیز» استفاده شوند. او همچنین گفته است که بدترین سناریو برای مسیر آینده هوش مصنوعی «خاموش شدن چراغ برای همه ما» است.
این مقاله در 30 مارس به روز شد تا نظر هرتینگ را نیز در بر گیرد.
این داستان در ابتدا در سایت Fortune.com منتشر شد
اطلاعات بیشتر از Fortune: