پس از مدتی استفاده از یک مدل زبان بزرگ، مانند ChatGPT، به تصویر کشیدن مجموعه ای از سناریوهای کابوس وار که این برنامه های هوش مصنوعی مولد (AI) می توانند ایجاد کنند، کار سختی نیست. در حالی که ChatGPT و رقبای نوظهور آن در حال حاضر «حفاظهایی» دارند – محدودیتهای اخلاقی در مورد کاری که در پاسخ به یک درخواست انجام میدهد – حدود آن به خوبی درک نشده است. از طریق اعلان هوشمندانه، متقاعد کردن تکرار فعلی ChatGPT برای از بین بردن برخی از نردههای محافظ گهگاه سخت نیست. علاوه بر این، شرکتهای پشت این مدلها وسعت نردههای محافظ را تعریف نکردهاند، در حالی که ساختارهای زیربنایی مدلها به خوبی شناخته شدهاند که به روشهای غیرقابل پیشبینی رفتار میکنند. ناگفته نماند که اگر یک مدل زبان بزرگ “جیل بریک شده” برای عموم منتشر شود چه اتفاقی می افتد.
به عنوان مثال، یک کاربر ممکن است از مدل بخواهد که بردارهای حمله تروریستی را توصیف کند که هیچ انسانی قبلاً تصور نکرده است. یا، یک مدل ممکن است کد نرم افزاری تولید کند و یک کاربر ساده لوح را متقاعد کند که آن را در رایانه خود دانلود و اجرا کند و در نتیجه اطلاعات مالی شخصی به شخص ثالث ارسال شود.
شاید یکی از مهمترین خطرات مدلهای زبان بزرگ این باشد که پس از پیادهسازی و استقرار آنها، هزینه نهایی ایجاد اطلاعات نادرست نزدیک به صفر میشود. اگر یک کمپین سیاسی، گروه ذینفع یا دولت بخواهد رسانههای اجتماعی را با پستهای گمراهکننده درباره یک شخصیت عمومی، یک سیاست یا یک قانون غرق کند، میتواند این کار را بدون نیاز به استخدام یک اتاق پر از انسان انجام دهد.
در سال 2021، کمیسیون اروپا اتحادیه اروپا (EU) قوانین هماهنگی را برای تنظیم هوش مصنوعی پیشنهاد کرد. کمیسیون هم خطرات و هم مزایای هوش مصنوعی را به رسمیت شناخت و تلاش کرد چارچوبی برای مقررات ارائه دهد که نظارت را متناسب با خطرات خاص ذاتی استفاده های خاص از هوش مصنوعی به کار گیرد. قوانین حاصله که توسط کشورهای عضو وضع میشوند، به طور بالقوه اثر بروکسل را خواهند داشت، زیرا مقررات اتحادیه اروپا در مورد بازارهای خود به یک استاندارد عملی برای بقیه جهان تبدیل میشود. این تا حد زیادی برای قوانین حفاظت از داده های عمومی اتحادیه اروپا (GDPR) اتفاق افتاده است.
اما تعداد کمی از مردم شاهد آمدن هوش مصنوعی مولد یا افزایش شهابی ChatGPT در پایان سال 2022 بودند. بنابراین، کمیسیون در حال ارزیابی مجدد قوانین خود با توجه به این فناوریهای پارادایمشکنی است.
پیشنهاد کمیسیون همه سیستمهای هوش مصنوعی را در یکی از سه سطح ریسک قرار میدهد: (1) ریسک غیرقابل قبول، (2) ریسک بالا و (iii) ریسک کم یا حداقل. مقدار تنظیم برای دسته (i) بیشترین و کمترین (به عنوان مثال.، هیچکدام) برای دسته (iii).
موارد استفاده از هوش مصنوعی که خطری غیرقابل قبول ایجاد میکند شامل مواردی است که حقوق اساسی را نقض میکند، افراد را به طور ناخودآگاه دستکاری میکند، از گروههای آسیبپذیر خاص بهرهبرداری میکند.به عنوان مثال.، کودکان و افراد دارای معلولیت)، مشارکت در امتیازدهی اجتماعی (ارزیابی قابل اعتماد بودن افراد بر اساس رفتار اجتماعی آنها) و تسهیل تشخیص بیومتریک در زمان واقعی برای اهداف اجرای قانون. این استفاده ها ممنوع خواهد بود.
یک هوش مصنوعی پرخطر ممکن است بر اساس هدف مورد نظر و روش های استفاده به عنوان آن طبقه بندی شود. دو نوع اصلی از سیستم های پرخطر وجود دارد: (1) سیستم هایی که به عنوان جزء ایمنی محصولات مورد استفاده قرار می گیرند.به عنوان مثال.، در ماشین آلات، اسباب بازی ها، تجهیزات رادیویی، وسایل نقلیه تفریحی و تجهیزات پزشکی، و (ii) سایر سیستم هایی که به صراحت فهرست شده اند (به عنوان مثال.، شامل بیومتریک، زیرساخت های حیاتی، آموزش، اشتغال، اجرای قانون، و مهاجرت). این دسته بندی ها بسیار گسترده هستند و بر بسیاری از صنایع مختلف تأثیر می گذارند. این پیشنهاد الزامات قانونی دقیقی را برای چنین سیستم هایی در رابطه با حاکمیت داده ها، مستندسازی و نگهداری ثبت، شفافیت و ارائه اطلاعات به کاربران، نظارت انسانی، استحکام، دقت، و امنیت و همچنین رویه های ارزیابی انطباق بیان می کند.
با توجه به سیستم های هوش مصنوعی کم خطر یا کم خطر، استفاده از آنها بدون محدودیت مجاز است. با این حال، کمیسیون پیش بینی می کند که این سیستم ها به طور بالقوه به کدهای رفتار داوطلبانه مربوط به نگرانی های شفافیت پایبند باشند.
در این پیشنهاد همچنین آمده است که “[t]تعهدات شفافیت برای سیستمهایی اعمال میشود که (1) با انسانها تعامل دارند، (2) برای تشخیص احساسات یا تعیین ارتباط با دستههای (اجتماعی) بر اساس دادههای بیومتریک، یا (iii) تولید یا دستکاری محتوا («جعلی عمیق») استفاده میشوند. “در این شرایط، تعهد به افشای اینکه محتوا توسط ماشین تولید شده است وجود دارد تا به کاربران امکان انتخاب آگاهانه داده شود.
در حال حاضر، کمیسیون در حال بررسی این است که آیا ChatGPT و امثال آن را در رده خطر بالا قرار دهد یا خیر، بنابراین آن را تحت مقررات قابل توجهی قرار می دهد. با این حال، طرفهایی که معتقدند قوانین باید بین استفادههای مضر این مدلها تمایز قائل شوند، مخالفت کردهاند.به عنوان مثال.، انتشار اطلاعات نادرست) و استفاده های کم خطر (به عنوان مثال، با دستور العمل های جدید ، سرودن اشعار خنده دار). به عبارت دیگر، میزان مقرراتی که برای ChatGPT اعمال میشود باید بر اساس استفاده از آن متفاوت باشد – و هدف زیباییشناختی آن، اما به دلیل گستره وسیع و کاربرد کلی مدل، اجرای آن در عمل دشوار است.
اینکه آیا این منجر به تأخیر و/یا بازنویسی مقررات پیشنهادی میشود باید دید. کمیسیون موضوع را بررسی خواهد کرد.