اعتبار تصویر: استفانی رینولدز/ خبرگزاری فرانسه / گتی ایماژ
دو روز پس از نامه سرگشاده ای که خواستار توقف توسعه مدل های هوش مصنوعی مولد قوی تر شد تا تنظیم کننده ها بتوانند با مواردی مانند ChatGPT مقابله کنند، مقام حفاظت از داده های ایتالیا به تازگی یادآوری به موقع ارائه کرده است که برخی از کشورها انجام دادن قوانینی دارند که قبلاً در مورد هوش مصنوعی پیشرفته اعمال می شود – با دستور OpenAI برای توقف پردازش داده های افراد به صورت محلی با اثر فوری.
DPA ایتالیا اعلام کرد که نگران است سازنده ChatGPT مقررات عمومی حفاظت از داده های اتحادیه اروپا (GDPR) را نقض کند.
به طور خاص، گارانتی گفت که دستور مسدود کردن ChatGPT را به دلیل نگرانی هایی که OpenAI به طور غیرقانونی داده های افراد را پردازش کرده است – و همچنین به دلیل فقدان سیستمی برای جلوگیری از دسترسی خردسالان به این فناوری صادر کرده است.
این شرکت مستقر در سانفرانسیسکو 20 روز فرصت دارد تا به این دستور پاسخ دهد – با تهدید برخی از مجازاتهای گوشتی در صورت عدم رعایت آن. (یادآوری: جریمه برای نقض رژیم حفاظت از داده اتحادیه اروپا می تواند تا 4٪ از گردش مالی سالانه یا 20 میلیون یورو، هر کدام بیشتر باشد.)
شایان ذکر است که از آنجایی که OpenAI یک نهاد حقوقی مستقر در اتحادیه اروپا ندارد، هر مرجع حفاظت از داده این اختیار را دارد که در صورت مشاهده خطرات برای کاربران محلی، تحت GDPR، مداخله کند. (بنابراین جایی که ایتالیا وارد عمل می شود، دیگران ممکن است دنبال کنند.)
مجموعه ای از مسائل GDPR
GDPR هر زمان که داده های شخصی کاربران اتحادیه اروپا پردازش شود اعمال می شود. و واضح است که مدل زبان بزرگ OpenAI این نوع اطلاعات را به دست آورده است – از آنجایی که برای مثال میتواند زندگینامه افراد نامگذاری شده در منطقه را بر حسب تقاضا تولید کند (میدانیم؛ ما آن را امتحان کردهایم). اگرچه OpenAI از ارائه جزئیات داده های آموزشی استفاده شده برای آخرین تکرار این فناوری، GPT-4 خودداری کرده است. اما فاش کرده است که مدل های قبلی بر روی داده های خراشیده شده از اینترنت، از جمله انجمن هایی مانند Reddit، آموزش دیده اند. بنابراین اگر به طور منطقی آنلاین هستید، به احتمال زیاد ربات نام شما را می داند.
به آن اضافه کنید، نشان داده شده است که ChatGPT اطلاعات کاملاً نادرستی درباره افراد نامگذاری شده تولید میکند – ظاهراً جزئیاتی را که دادههای آموزشی آن وجود ندارد را ایجاد میکند. که به طور بالقوه نگرانی های بیشتری را در مورد GDPR ایجاد می کند – زیرا این مقررات مجموعه ای از حقوق را در مورد داده های اروپایی ها از جمله حق اصلاح خطاها را در اختیار اروپایی ها قرار می دهد. و مشخص نیست که چگونه/آیا مردم میتوانند از OpenAI بخواهند که اظهارات اشتباهی را که در مورد آنها ایجاد شده توسط ربات، فقط در یک سناریوی نمونه اصلاح کند.
را گارانتیاین بیانیه همچنین نشان میدهد که سرویس در اوایل این ماه دچار نقض اطلاعات شده است – زمانی که OpenAI اعتراف کرد که یک ویژگی سابقه مکالمه چتهای کاربران را فاش میکرد و گفت ممکن است اطلاعات پرداخت برخی از کاربران را افشا کند.
نقض داده ها حوزه دیگری است که GDPR تنظیم می کند – با تمرکز بر حصول اطمینان از اینکه نهادهایی که داده های شخصی را پردازش می کنند به اندازه کافی از اطلاعات محافظت می کنند. قانون سراسری اتحادیه اروپا همچنین شامل الزاماتی برای اطلاع مقامات نظارتی مربوطه از نقض های مهم در بازه های زمانی محدود است.
فراتر از همه اینها، سؤال بزرگ این است که OpenAI در وهله اول بر چه مبنای قانونی برای پردازش داده های اروپایی ها تکیه کرده است؟ آکا، قانونی بودن این پردازش.
GDPR برای تعدادی از احتمالات – از رضایت گرفته تا منافع عمومی – اجازه می دهد، اما مقیاس پردازش برای آموزش این مدل های زبانی بزرگ، مسئله قانونی را پیچیده می کند. گارانتی یادداشت ها (اشاره به “جمع آوری و ذخیره انبوه داده های شخصی”)، با به حداقل رساندن داده ها یکی دیگر از تمرکز اصلی در مقررات – که همچنین شامل اصولی است که به شفافیت و انصاف نیاز دارد. با این حال، حداقل، به نظر نمی رسد که شرکت انتفاعی (اکنون) پشت ChatGPT به افرادی که داده هایشان را برای آموزش هوش مصنوعی تجاری خود تغییر داده است، آگاه نکرده باشد. که می تواند یک مشکل بسیار چسبنده برای آن باشد.
اگر OpenAI دادههای اروپاییها را غیرقانونی پردازش کرده باشد، DPAها در سراسر بلوک میتوانند دستور حذف دادهها را بدهند – هرچند که آیا این امر باعث میشود مدلهای آموزشدیدهشده بر روی دادههای بهطور غیرقانونی بهدستآمده را مجدداً آموزش دهد، یک سوال باز است زیرا یک قانون موجود با فناوری پیشرفته دست و پنجه نرم میکند.
از طرف دیگر، ایتالیا ممکن است تمام یادگیری ماشینی را به طور تصادفی ممنوع کرده باشد…
“[T]او ضامن حریم خصوصی به کمبود اطلاعات برای کاربران و همه طرفهای ذینفع اشاره میکند که دادههای آنها توسط OpenAI جمعآوری شده است، اما مهمتر از همه، فقدان مبنای قانونی که جمعآوری و ذخیرهسازی انبوه دادههای شخصی را توجیه میکند، به منظور «آموزش» الگوریتمهای زیربنایی. DPA در بیانیه امروز خود می نویسد [which we’ve translated from Italian using AI].
همانطور که با بررسی های انجام شده مشخص شد، اطلاعات ارائه شده توسط ChatGPT همیشه با داده های واقعی مطابقت ندارد، بنابراین پردازش نادرست داده های شخصی را مشخص می کند.
این مقام اضافه کرد که نگران خطر پردازش دادههای خردسالان توسط OpenAI است – زیرا این شرکت فعالانه از ثبت نام افراد زیر 13 سال برای استفاده از ربات چت، مانند استفاده از فناوری تأیید سن، جلوگیری نمیکند.
خطرات برای دادههای کودکان حوزهای است که تنظیمکننده در آن بسیار فعال بوده است – اخیراً به دلیل نگرانیهای مربوط به ایمنی کودکان، دستور ممنوعیت مشابهی را در ربات چت هوش مصنوعی دوستی مجازی، Replika داده است. در سالهای اخیر، TikTok را به دلیل استفاده افراد زیر سن قانونی نیز دنبال کرده است – شرکت را مجبور به پاکسازی بیش از نیم میلیون حساب کاربری که نمیتوانست تایید کند متعلق به بچهها نیست، انجام داده است.
بنابراین اگر OpenAI نتواند به طور قطعی سن کاربرانی را که در ایتالیا ثبتنام کردهاند تأیید کند، حداقل میتواند مجبور شود حسابهای آنها را حذف کند و دوباره با فرآیند ثبت نام قویتر شروع کند.
OpenAI برای پاسخ به این تماس گرفته شد گارانتیسفارش