لندن/ استکهلم، 22 مه (رویترز) – با سرعت گرفتن رقابت برای توسعه سرویسهای هوش مصنوعی قدرتمندتر مانند ChatGPT، برخی از تنظیمکنندهها برای کنترل فناوریای که میتواند شیوه عملکرد جوامع و کسبوکارها را تغییر دهد، بر قوانین قدیمی تکیه میکنند.
اتحادیه اروپا در پیشنویس قوانین جدید هوش مصنوعی پیشرو است که میتواند معیاری جهانی برای رسیدگی به نگرانیهای مربوط به حریم خصوصی و ایمنی باشد که با پیشرفتهای سریع در فناوری هوش مصنوعی مولد پشت ChatGPT OpenAI ایجاد شده است.
اما چند سال طول می کشد تا این قانون اجرا شود.
Massimiliano Cimnaghi، کارشناس حاکمیت داده اروپایی در مشاوره BIP گفت: «در غیاب مقررات، تنها کاری که دولت ها می توانند انجام دهند اعمال قوانین موجود است.
“اگر در مورد محافظت از داده های شخصی باشد، آنها قوانین حفاظت از داده ها را اعمال می کنند، اگر تهدیدی برای ایمنی افراد باشد، مقرراتی وجود دارد که به طور خاص برای هوش مصنوعی تعریف نشده اند، اما همچنان قابل اجرا هستند.”
در ماه آوریل، پس از اینکه رگولاتور ایتالیایی Garante این سرویس را آفلاین کرد، ناظران ملی حریم خصوصی اروپا یک کارگروه را برای رسیدگی به مشکلات ChatGPT تشکیل دادند و OpenAI را به نقض GDPR اتحادیه اروپا، یک رژیم حریم خصوصی گسترده که در سال 2018 تصویب شد، متهم کرد.
ChatGPT پس از موافقت شرکت آمریکایی با نصب ویژگیهای تأیید سن و اجازه به کاربران اروپایی برای جلوگیری از استفاده از اطلاعات آنها برای آموزش مدل هوش مصنوعی دوباره برقرار شد.
یک منبع نزدیک به Garante به رویترز گفت که این آژانس بررسی گستردهتر سایر ابزارهای هوش مصنوعی مولد را آغاز خواهد کرد. مقامات حفاظت از داده ها در فرانسه و اسپانیا نیز در ماه آوریل تحقیقاتی را در مورد انطباق OpenAI با قوانین حفظ حریم خصوصی آغاز کردند.
کارشناسان را بیاورید
مدلهای هوش مصنوعی مولد به دلیل اشتباهات یا «توهمات» که اطلاعات نادرست را با اطمینان عجیبی منتشر میکنند، به خوبی شناخته شدهاند.
چنین اشتباهاتی می تواند عواقب جدی داشته باشد. اگر یک بانک یا اداره دولتی از هوش مصنوعی برای تسریع تصمیمگیری استفاده کند، افراد ممکن است بهطور ناعادلانه برای پرداخت وام یا مزایا رد شوند. شرکتهای بزرگ فناوری از جمله گوگل (GOOGL.O) آلفابت و شرکت مایکروسافت (MSFT.O) استفاده از محصولات هوش مصنوعی را که از نظر اخلاقی مضحک تلقی میشوند، مانند محصولات مالی، متوقف کردهاند.
به گفته شش تنظیم کننده و کارشناس در ایالات متحده و اروپا، تنظیم کنندگان قصد دارند قوانین موجود را اعمال کنند که همه چیز را از حق نسخه برداری و حریم خصوصی داده ها گرفته تا دو موضوع کلیدی شامل می شود: داده های وارد شده به مدل ها و محتوایی که آنها تولید می کنند.
سورش ونکاتاسوبرامانیان، مشاور سابق فناوری در کاخ سفید، گفت که آژانسها در این دو منطقه تشویق میشوند تا “تفسیر و تفسیر مجدد دستورات خود را انجام دهند.” او به تحقیقات کمیسیون تجارت فدرال ایالات متحده (FTC) در مورد الگوریتم های اعمال تبعیض آمیز تحت اختیارات نظارتی موجود اشاره کرد.
در اتحادیه اروپا، طرحهای پیشنهادی برای قانون هوش مصنوعی این اتحادیه، شرکتهایی مانند OpenAI را مجبور میکند تا هرگونه مطالب دارای حق چاپ – مانند کتاب یا عکس – را که برای آموزش مدلهایشان استفاده میشود، افشا کنند و آنها را در برابر چالشهای قانونی آسیبپذیر کند.
به گفته سرگئی لاگودینسکی، یکی از چندین سیاستمدار دخیل در تهیه پیش نویس پیشنهادهای اتحادیه اروپا، اثبات نقض حق چاپ کار ساده ای نخواهد بود.
او گفت: «مثل این است که صدها رمان را قبل از نوشتن رمان خود بخوانید. “اگر واقعاً چیزی را کپی کرده و منتشر کنید، این یک چیز است. اما اگر مستقیماً مطالب دیگران را سرقت علمی نکنید، مهم نیست که خود را در چه موردی آموزش داده اید.
“خلاقانه فکر کردن”
به گفته Bertrand Pailhes، رهبر فناوری این شرکت، تنظیم کننده داده فرانسوی CNIL شروع به “تفکر خلاقانه” در مورد چگونگی اعمال قوانین موجود در هوش مصنوعی کرده است.
به عنوان مثال، در فرانسه دعاوی تبعیض معمولاً توسط Defenceur des Droits (مدافع حقوق) رسیدگی می شود. او گفت، با این حال، فقدان تخصص آن در زمینه تعصب هوش مصنوعی، CNIL را بر آن داشت تا در این موضوع رهبری کند.
او به رویترز گفت: “ما در حال بررسی طیف کامل اثرات هستیم، اگرچه تمرکز ما بر حفاظت از داده ها و حریم خصوصی است.”
این سازمان در حال بررسی استفاده از مقررات GDPR است که از افراد در برابر تصمیم گیری خودکار محافظت می کند.
پیلهس گفت: «در این مرحله، نمی توانم بگویم که از نظر قانونی کافی است یا خیر. ایجاد یک نظر زمان می برد و این خطر وجود دارد که تنظیم کننده های مختلف دیدگاه های متفاوتی داشته باشند.
در بریتانیا، اداره رفتار مالی یکی از چندین تنظیم کننده ایالتی است که وظیفه تدوین دستورالعمل های جدیدی را بر روی هوش مصنوعی بر عهده دارد. یکی از سخنگویان به رویترز گفت که این موسسه در حال رایزنی با موسسه آلن تورینگ در لندن، در کنار سایر موسسات حقوقی و دانشگاهی، برای بهبود درک خود از این فناوری است.
در حالی که تنظیمکنندهها خود را با سرعت پیشرفتهای فناوری وفق میدهند، برخی از خودیهای صنعت خواستار تعامل بیشتر با رهبران شرکتها شدهاند.
هری بورویک، مشاور کل در Luminance، استارت آپی که از هوش مصنوعی برای پردازش اسناد قانونی استفاده می کند، به رویترز گفت که گفت و گو بین تنظیم کننده ها و شرکت ها تاکنون “محدود” بوده است.
او گفت: «این به ویژه از نظر آینده خوب نیست. به نظر میرسد که تنظیمکنندهها یا کند هستند یا تمایلی به اجرای رویکردهایی ندارند که تعادل مناسب بین حمایت از مصرفکننده و رشد کسبوکار را ممکن میسازد.»
گزارش مارتین کولتر در لندن، سوپانتا موکرجی در استکهلم، کانتارو کومیا در توکیو، و الویرا پولینا در میلان. ویرایش توسط Kenneth Li، Matt Scuffham و Emelia Sithole-Matarise
استانداردهای ما: اصول اعتماد تامسون رویترز.