اعتبار تصویر: ناتاشا لوماس / TechCrunch / تحت مجوز.
چند روز پس از اینکه OpenAI مجموعهای از کنترلهای حریم خصوصی را برای چت ربات هوش مصنوعی مولد خود، ChatGPT اعلام کرد، این سرویس دوباره در اختیار کاربران ایتالیا قرار گرفت – در حال حاضر یک تعلیق نظارتی اولیه در یکی از 27 کشور عضو اتحادیه اروپا حل شده است. حتی زمانی که تحقیقات محلی در مورد انطباق آن با قوانین حفاظت از داده های منطقه ادامه دارد.
در زمان نگارش این مقاله، کاربران وب که از یک آدرس IP ایتالیایی به ChatGPT میگردند، دیگر با اعلانی مواجه نمیشوند که به آنها دستور میدهد سرویس «برای کاربران در ایتالیا غیرفعال است». در عوض با یادداشتی روبرو میشوند که میگوید OpenAI «خوشحال است که ارائه ChatGPT در ایتالیا را از سر بگیرد».
پاپ آپ در ادامه تصریح می کند که کاربران باید با رضایت والدین یا قیم برای استفاده از این سرویس، تایید کنند که 18+ یا 13 سال دارند – با کلیک بر روی دکمه ای که در آن نوشته شده است «من شرایط سنی OpenAI را برآورده می کنم».
متن این اطلاعیه همچنین توجه را به خط مشی رازداری OpenAI جلب می کند و به مقاله مرکز راهنمایی پیوند می دهد که در آن شرکت می گوید اطلاعاتی در مورد “چگونه ما ChatGPT را توسعه و آموزش می دهیم” ارائه می دهد.
تغییرات در نحوه ارائه ChatGPT OpenAI به کاربران در ایتالیا برای برآوردن مجموعه اولیه از شرایط تعیین شده توسط مرجع حفاظت از داده های محلی (DPA) به منظور از سرگیری خدمات با ریسک نظارتی مدیریت شده در نظر گرفته شده است.
خلاصه سریع داستان در اینجا: اواخر ماه گذشته، ایتالیا گارانتی دستور توقف موقت پردازش در ChatGPT را صادر کرد و گفت که نگران این است که سرویسها قوانین حفاظت از داده اتحادیه اروپا را نقض میکنند. همچنین تحقیقاتی را در مورد نقض مشکوک مقررات عمومی حفاظت از داده ها (GDPR) آغاز کرد.
OpenAI به سرعت به مداخله با مسدود کردن جغرافیایی کاربران با آدرس IP ایتالیایی در آغاز این ماه پاسخ داد.
این حرکت، چند هفته بعد، توسط گروه دنبال شد گارانتی با انتشار فهرستی از اقداماتی که اعلام کرد OpenAI باید اجرا کند تا دستور تعلیق تا پایان آوریل لغو شود – از جمله افزودن سن برای جلوگیری از دسترسی افراد خردسال به این سرویس و اصلاح مبنای قانونی ادعا شده برای پردازش دادههای کاربران محلی.
رگولاتور برای مداخله در ایتالیا و سایر نقاط اروپا با برخی انحرافات سیاسی مواجه شد. اگرچه این تنها مرجع حفاظت از دادهها نیست که نگرانیهایی را مطرح میکند – و در اوایل این ماه، تنظیمکنندههای بلوک موافقت کردند که یک کارگروه متمرکز بر ChatGPT را با هدف حمایت از تحقیقات و همکاری در مورد هرگونه اجرا راهاندازی کنند.
در بیانیه مطبوعاتی که امروز منتشر شد، از از سرگیری خدمات در ایتالیا خبر داد گارانتی او گفت که OpenAI نامهای را ارسال کرده است که جزئیات اقدامات انجام شده در پاسخ به دستور قبلی را توضیح میدهد – نوشته است: «OpenAI توضیح داد که اطلاعات را به کاربران اروپایی و غیرکاربران گسترش داده است، چندین مکانیسم را اصلاح و شفافسازی کرده و راهحلهای قابل قبولی را برای فعالسازی به کار گرفته است. کاربران و غیر استفاده کنندگان از حقوق خود استفاده کنند. بر اساس این بهبودها، OpenAI دسترسی به ChatGPT را برای کاربران ایتالیایی بازگرداند.
با گسترش جزئیات بیشتر مراحل برداشته شده توسط OpenAI، DPA می گوید OpenAI سیاست حفظ حریم خصوصی خود را گسترش داده و به کاربران و غیرکاربران اطلاعات بیشتری در مورد داده های شخصی که برای آموزش الگوریتم هایش پردازش می شود، ارائه می دهد، از جمله تصریح می کند که همه حق انصراف دارند. از چنین پردازشهایی – که نشان میدهد شرکت اکنون بر ادعای منافع مشروع به عنوان مبنای قانونی برای پردازش دادهها برای آموزش الگوریتمهای خود تکیه میکند (زیرا این مبنای مستلزم ارائه یک انصراف است).
علاوه بر این، گارانتی فاش میکند که OpenAI گامهایی برداشته است تا راهی را برای اروپاییها فراهم کند تا از دادههایشان برای آموزش هوش مصنوعی استفاده نکنند (درخواستها را میتوان از طریق یک فرم آنلاین از آن درخواست کرد) – و «مکانیسمهایی» را برای آنها فراهم کرد تا دادههایشان را داشته باشند. حذف شده.
همچنین به رگولاتور گفته است که در حال حاضر نمیتواند نقص چتباتهایی را که اطلاعات نادرست درباره افراد نامگذاری شده را درست میکنند، برطرف کند. از این رو، «مکانیسمهایی را معرفی میکند که افراد دادهها را قادر میسازد تا اطلاعاتی را که نادرست تلقی میشوند پاک کنند».
کاربران اروپایی که مایل به انصراف از پردازش داده های شخصی خود برای آموزش هوش مصنوعی هستند نیز می توانند این کار را از طریق فرمی که OpenAI در دسترس قرار داده است انجام دهند که DPA می گوید “بنابراین چت ها و تاریخچه چت آنها را از داده های مورد استفاده برای آموزش فیلتر می کند. الگوریتم ها».
بنابراین مداخله DPA ایتالیا منجر به تغییرات قابل توجهی در سطح کنترلی که ChatGPT به اروپایی ها ارائه می دهد، شده است.
با این حال، هنوز مشخص نیست که آیا ترفندهایی که OpenAI برای پیادهسازی عجله کرده است (یا میتواند) به اندازهای پیش برود تا همه نگرانیهای GDPR را برطرف کند.
برای مثال، مشخص نیست که آیا دادههای شخصی ایتالیاییها که برای آموزش مدل GPT آن بهطور تاریخی استفاده میشد، یعنی زمانی که دادههای عمومی را از اینترنت حذف میکرد، با یک مبنای قانونی معتبر پردازش شده است یا در واقع، آیا دادههای مورد استفاده برای آموزش مدلها قبلاً حذف خواهد شد یا می توان در صورتی که کاربران درخواست کنند داده های خود اکنون حذف شوند.
سوال بزرگ این است که OpenAI در وهله اول چه مبنای قانونی داشت تا اطلاعات افراد را پردازش کند، در زمانی که این شرکت در مورد دادههایی که استفاده میکرد چندان شفاف نبود.
به نظر میرسد که شرکت آمریکایی امیدوار است با ارائه کنترلهای محدودی که اکنون بر روی دادههای شخصی جدید اعمال میشود، مخالفتهای مطرحشده در مورد آنچه را که درباره اطلاعات اروپاییها انجام میدهد، رفع کند، به این امید که این موضوع کل اطلاعات شخصی منطقهای را مبهم کند. پردازش آن به صورت تاریخی انجام شده است.
یکی از سخنگویان OpenAI در پاسخ به سوالی درباره تغییرات اعمال شده، این بیانیه خلاصه را به TechCrunch ایمیل کرد:
ChatGPT دوباره برای کاربران ما در ایتالیا در دسترس است. ما از بازگشت آنها خوشحالیم و به حفظ حریم خصوصی آنها متعهد هستیم. ما به مسائل مطرح شده توسط این سازمان پرداخته و یا شفاف سازی کرده ایم گارانتی، شامل:
ما از Garante به دلیل مشارکتی بودن قدردانی می کنیم و مشتاقانه منتظر بحث های سازنده مداوم هستیم.
در مقاله مرکز راهنمایی OpenAI اذعان میکند که دادههای شخصی را برای آموزش ChatGPT پردازش کرده است، در حالی که تلاش میکند ادعا کند که واقعاً قصد انجام این کار را نداشته است، اما چیزها فقط در اینترنت وجود داشته است – یا همانطور که میگوید:حجم زیادی از داده ها در اینترنت به افراد مربوط می شود، بنابراین اطلاعات آموزشی ما اتفاقاً شامل اطلاعات شخصی نیز می شود. ما به طور فعال به دنبال اطلاعات شخصی برای آموزش مدل های خود نیستیم.
به نظر می رسد تلاش خوبی برای طفره رفتن از الزامات GDPR مبنی بر داشتن مبنای قانونی معتبر برای پردازش این داده های شخصی که اتفاقاً پیدا شده است.
OpenAI در بخش (به طور مثبت) با عنوان “چگونه توسعه ChatGPT با قوانین حفظ حریم خصوصی مطابقت دارد؟” دفاع خود را بیشتر گسترش می دهد. – که در آن نشان می دهد از داده های افراد به طور قانونی استفاده کرده است زیرا الف) قصد داشته است ربات چت خود مفید باشد. ب) چاره ای نداشت زیرا برای ساخت فناوری هوش مصنوعی به داده های زیادی نیاز بود. و ج) ادعا می کند که به معنای تأثیر منفی بر افراد نبوده است.
همچنین می نویسد: «به این دلایل، ما جمع آوری و استفاده از اطلاعات شخصی خود را که در اطلاعات آموزشی گنجانده شده است بر اساس منافع مشروع طبق قوانین حفظ حریم خصوصی مانند GDPR قرار می دهیم. ارزیابی تأثیر حفاظت از دادهها برای کمک به اطمینان از جمعآوری و استفاده از این اطلاعات بهطور قانونی و مسئولانه.»
بنابراین، مجدداً، دفاع OpenAI از اتهام نقض قانون حفاظت از دادهها اساساً به این خلاصه میشود: “اما ما هیچ افسر بدی نداشتیم!”
توضیحدهنده آن همچنین برای تأکید بر این ادعا که از این دادهها برای ساختن نمایههایی درباره افراد استفاده نمیکند، متنی پررنگ ارائه میکند. با آنها تماس بگیرید یا برای آنها تبلیغ کنید. یا سعی کنید هر چیزی را به آنها بفروشید. هیچ کدام به این سوال که آیا فعالیت های پردازش داده آن GDPR را نقض کرده است یا خیر مرتبط نیست.
DPA ایتالیا به ما تأیید کرد که تحقیقاتش در مورد آن موضوع برجسته ادامه دارد.
در به روز رسانی خود، گارانتی همچنین خاطرنشان میکند که انتظار دارد OpenAI با درخواستهای اضافی که در دستور ۱۱ آوریل خود تعیین شده است، مطابقت داشته باشد – الزامی برای پیادهسازی سیستم تأیید سن (برای جلوگیری قویتر از دسترسی خردسالان به این سرویس) و برای اطلاع رسانی به ایتالیایی ها از نحوه پردازش داده های آنها و حق آنها برای انصراف از پردازش داده های شخصی خود برای آموزش الگوریتم های آن، یک کمپین اطلاعاتی محلی انجام دهد.
«SA ایتالیا [supervisory authority] گامهای رو به جلو توسط OpenAI برای تطبیق پیشرفتهای فناوری با احترام به حقوق افراد را تصدیق میکند و امیدوار است که این شرکت به تلاشهای خود برای پیروی از قوانین حفاظت از دادههای اروپا ادامه دهد.” در این رقص تنظیمی
بنابراین، همه ادعاهای مختلف OpenAI 100٪ هستند باحسن نیت باقی مانده است که به طور قوی مورد آزمایش قرار گیرد.