آژانس حفاظت از داده های ایتالیا (DPA) پس از اینکه OpenAI، تامین کننده سیستم هوش مصنوعی مولد، با اعمال یک سری تغییرات در اعلامیه های آنلاین و سیاست حفظ حریم خصوصی خود با تمرکز بر شفافیت، اختیاری و امنیت موافقت کرد، ممنوعیت موقت عملیات ChatGPT در ایتالیا را لغو کرد. همانطور که در وبلاگ قبلی مورد بحث قرار گرفت، تنظیمکنندهها در سرتاسر جهان بر روی فناوریهای مولد هوش مصنوعی تمرکز کردهاند و چندین نهاد نظارتی را هدایت میکنند تا اقداماتی را برای تنظیم این فناوری آغاز کنند. ایتالیا اولین کشور غربی بود که ChatGPT را به طور کامل ممنوع کرد، زمانی که DPA این کشور خواستار توقف موقت پردازش داده های کاربران ایتالیایی به دلیل نگرانی در مورد نقض مشکوک به قوانین حریم خصوصی در اروپا شد. به طور مشابه، چین اخیراً پیش نویس «اقدامات مدیریت خدمات هوش مصنوعی مولد» را منتشر کرده است که در یک پست وبلاگ آینده با جزئیات بیشتر درباره آن صحبت خواهیم کرد.
شرایط نظارتی برای از سرگیری هوش مصنوعی تولیدی در ایتالیا
OpenAI با ایجاد یک سری تغییرات در سیاستها و پروتکلهای ChatGPT، افشای اطلاعات اضافی درباره نحوه جمعآوری و پردازش دادهها و اجرای پروتکلها برای افزایش امنیت ابزار هوش مصنوعی، به نگرانیهای DPA ایتالیا پاسخ داد. اقدامات این شرکت، از جمله تغییرات اساسی در نحوه ثبت نام افراد برای استفاده از ChatGPT و افشای مشتریان جدید و حقوق مربوط به نحوه جمعآوری و پردازش دادههای شخصی توسط سیستم، بدین معناست که DPA ایتالیا اکنون به طور مؤثر اولین مجموعه قوانین حاکم بر استفاده از سیستم های هوش مصنوعی مولد
تغییرات اتخاذ شده توسط شرکت در پاسخ به خواسته های DPA ایتالیا عبارتند از:
- ارائه اخطار به کاربران در مورد اینکه چه دادههای شخصی ممکن است هنگام آموزش مدلهای آن پردازش شوند؛
- اعطای حق انتخاب به همه افراد در اروپا، از جمله غیرکاربران، برای انصراف از پردازش دادههای خود برای آموزش مدلهای شرکت، و ارائه یک فرآیند آنلاین برای انجام چنین انتخاباتی؛
- معرفی مکانیسمهای جدیدی که به افراد دادهها امکان میدهد اطلاعاتی را که نادرست تلقی میشوند پاک کنند (“با بیان اینکه اصلاح نادرستیها از نظر فنی از هم اکنون غیرممکن است”).
- با توضیح اینکه پردازش برخی از دادههای شخصی بر اساس تعهدات قراردادی ادامه خواهد داشت و در عین حال خاطرنشان میکند که شرکت دادههای شخصی کاربران را برای الگوریتمهای آموزشی بر اساس مبنای حقوقی منافع مشروع خود پردازش میکند، بدون اینکه به حق کاربران برای انصراف از این پردازش لطمه وارد شود؛
- به روز رسانی صفحه ثبت نام دسترسی کاربران زیر 13 سال را مسدود می کند و
- درخواست رضایت والدین برای کاربران بین 13 تا 18 سال.
نشست تنظیمکننده در وسط دری را برای ادامه عملیات باز میکند
علیرغم تغییرات قابلتوجه در خطمشیها و رویههای ChatGPT، همه موارد موجود در مجموعه اصلی «اقدامات مورد نیاز» DPA ایتالیا پذیرفته نشد یا بر اساس آن عمل کرد. برای مثال، DPA ایتالیا در ابتدا خواستار راه اندازی یک “کمپین اطلاعاتی” بود که “روش ها و منطق” زیربنای روش پردازش داده ChatGPT را فاش می کرد. علاوه بر این، DPA ایتالیا خواستار حذف هرگونه اشاره به “اجرای قرارداد” به عنوان مبنای قانونی لازم برای پردازش اطلاعات شخصی کاربران شد. در عوض، DPA ایتالیا خواستار اتکای انحصاری به رضایت یا منافع مشروع کاربر به منظور جمع آوری و پردازش داده های شخصی کاربر توسط شرکت شد.
با این وجود، معدل ایتالیا اقدامات انجام شده توسط OpenAI را تصدیق کرد و آنها را “گامی رو به جلو” در تطبیق “پیشرفت های فناوری با احترام به حقوق افراد” توصیف کرد. از این نظر، پاسخ به خواستههای DPA ایتالیا را میتوان به عنوان یک «میانه» معقول و یک الگوی احتمالی برای اینکه چگونه سایر شرکتهایی که ابزارهای مولد هوش مصنوعی را به کار میگیرند میتوانند به تنظیمکنندههای داده بینالمللی پاسخ دهند، تلقی شود.
DPA ایتالیا همچنین تأیید کرد که “فعالیت های حقیقت یاب” خود را تحت “چتر کارگروه ویژه ای که توسط هیئت حفاظت از داده های اروپا راه اندازی شده است” ادامه خواهد داد.
بعد چه است
پاسخ OpenAI ممکن است نقشه راه احتمالی برای تعاملات آتی بین تنظیم کننده ها و شرکت کنندگان در صنعت هوش مصنوعی ارائه دهد. موضوع بزرگتر در افق، تشدید نظارتهای نظارتی برای شرکتهایی است که از فناوریهای هوش مصنوعی استفاده میکنند یا استقرارهای جدید هوش مصنوعی را در نظر میگیرند. برای مثال، سازمان رقابت و بازار بریتانیا (CMA) از راهاندازی «بررسی اولیه» «مدلهای بنیادی هوش مصنوعی» خبر داد تا شامل مدلهای زبان بزرگی شود که زیربنای ChatGPT و خدمات مشابه مبتنی بر هوش مصنوعی هستند. اعلامیه CMA نشان داد که بررسی آنها «مشاورههای رقابت و حمایت از مصرفکننده» را در نحوه توسعه و استفاده از مدلهای پایه هوش مصنوعی بررسی میکند. هدف اعلام شده CMA دستیابی به درک بهتری از “چگونگی توسعه مدل های پایه و تولید ارزیابی از شرایط و اصولی است که به بهترین شکل توسعه مدل های پایه و استفاده از آنها را در آینده راهنمایی می کند.”
برای شرکتهایی که محصولات و خدمات مبتنی بر هوش مصنوعی را ارائه میدهند یا توسعه میدهند، مهم است که احتیاط کرده و اقدامات پیشگیرانه را برای پیروی از دستورالعملهای صادر شده توسط کمیسیون تجارت فدرال ایالات متحده، همراه با سایر مقامات نظارتی داخلی و بینالمللی انجام دهند.