چه چیزی باعث شد گارانتیتحقیق؟
این گارانتیتحقیقات در مورد ChatGPT، همانطور که برخی ممکن است فکر کنند، به عنوان یک تحقیق کلی در مورد انطباق این سرویس با GDPR آغاز نشده است. در عوض، با نقض اطلاعات شخصی که به آن اطلاع داده شده بود، ایجاد شد گارانتی در 20 مارس 2023، مکالمات کاربران ChatGPT و اطلاعات مربوط به پرداخت های مشترکین این سرویس را تحت تاثیر قرار داد. این گارانتی با این حال، از اعلان نقض به عنوان فرصتی برای ارزیابی انطباق OpenAI با GDPR، به ویژه در مورد پردازش داده های شخصی با ChatGPT استفاده کرد.
محتوای آن چه بود گارانتیتصمیم؟
این گارانتیتصمیم 30 مارس چندین نگرانی در مورد انطباق با GDPR پیدا کرد.
اول، گارانتی دریافت که اطلاعات مورد نیاز طبق مواد 13 (اطلاعاتی که باید در مواردی که دادههای شخصی از موضوع داده جمعآوری میشود) و 14 (اطلاعاتی که باید ارائه شود در مواردی که دادههای شخصی از موضوع دادهها به دست نیامده است) GDPR به افراد موضوع داده ارائه شود. که داده های آن توسط OpenAI از طریق ChatGPT جمع آوری و پردازش می شود.
در مرحله بعد، سرویس ChatGPT که بیان می کند برای کاربران 13 ساله و بالاتر محفوظ است، مکانیسم تأیید سن را در روند ثبت نام خود لحاظ نمی کند. این گارانتی بنابراین، ChatGPT ممکن است کودکانی را که از این سرویس استفاده میکنند، با در نظر گرفتن میزان رشد و خودآگاهی آن کودکان در معرض پاسخهای نامناسب قرار دهد.
علاوه بر این، گارانتی اظهار داشت که داده های شخصی پردازش شده توسط ChatGPT احتمالاً الزامات صحت GDPR را مطابق با ماده 5(1)(d) برآورده نمی کند. این ماده مستلزم دقیق بودن دادههای شخصی و در صورت لزوم بهروز نگهداشتن آنها و همچنین نیاز به انجام هر اقدام معقولی برای اطمینان از اینکه دادههای شخصی نادرست هستند، با توجه به اهدافی که برای آن پردازش میشوند، پاک میشوند یا باید انجام شود. بدون تأخیر اصلاح شد، زیرا اطلاعات ارائه شده توسط سرویس همیشه با شرایط واقعی مطابقت ندارد.
در نهایت، گارانتی مشخص کرد که مبنای قانونی که OpenAI دادههای شخصی را با هدف آموزش الگوریتمهای زیربنایی جمعآوری و پردازش میکند، به اندازه کافی و به وضوح مشخص نشده است.
این گارانتیاین تصمیم شامل تمام نگرانیهایی که دیگران درباره این نوع فناوریها مطرح کردهاند، مربوط به رعایت GDPR نمیشود. برای مثال، فعالان حریم خصوصی همچنین این سوال را مطرح کردهاند که آیا OpenAI با حقوق موضوع دادههای GDPR مانند حق فراموش شدن، حق اصلاح و حق دسترسی مطابقت خواهد داشت یا خیر. هر دو DPA فرانسه و اسپانیا اعلام کرده اند که تحقیق خواهند کرد. به منظور هماهنگی، هیئت حفاظت از داده اروپا اخیراً اعلام کرده است که یک کارگروه برای بررسی انطباق با GDPR ChatGPT تشکیل داده است.
بود گارانتیاقدام و تصمیم قابل پیش بینی است؟
شاید. از آنجا که Schrems II دیوان دادگستری اتحادیه اروپا با صدور حکم در ژوئیه 2020، نقش اجرایی DPAهای کشورهای عضو اتحادیه اروپا را که به طور فزاینده ای در جریمه کردن فعال بوده اند برجسته کرده است. فی نفسه نقض GDPR و قرار دادن فنآوریهای دیجیتالی رایج و در حال توسعه تحت نظارت شدید برای تأیید همسویی آنها با اصول ضروری حریم خصوصی داده اتحادیه اروپا.
در واقع، مطابق با جریمه های قابل توجه صادر شده توسط DPAهای یونان، فرانسه و بریتانیا، در می 2022، گارانتی Clearview AI مستقر در ایالات متحده به دلیل استخراج غیرقانونی تصاویر چهره از منابع وب عمومی و تطبیق آنها با پایگاه داده بیومتریک خود، 20،000،000 یورو جریمه شد. ماهها بعد، در جولای 2022، گارانتی – مطابق با DPA اسپانیا – پس از اینکه شبکه اجتماعی مستقر در چین قصد خود را برای ارائه تبلیغات به کاربران 18 ساله و بالاتر بر اساس منافع قانونی به جای رضایت آگاهانه اعلام کرد، هشداری به TikTok در مورد مدیریت داده های شخصی مورد استفاده برای تبلیغات هدفمند صادر کرد. .
آیا گارانتیتصمیم او در پذیرش ChatGPT، ایتالیا و در نهایت اتحادیه اروپا را در مضیقه قرار می دهد؟
به نظر می رسد که انطباق GDPR ChatGPT در ایتالیا و احتمالاً در سایر کشورهای اتحادیه اروپا مبهم است، به نظر می رسد اتحادیه اروپا را در مضیقه قرار می دهد. در حالی که اتحادیه اروپا در مورد این مسئله حریم خصوصی متوقف می شود، سایر کشورها به کاوش در پتانسیل های این فناوری ادامه خواهند داد و ممکن است فراتر از اتحادیه اروپا پیشرفت کنند.
این امر باعث ایجاد ملاحظات فوری برای اتحادیه اروپا می شود. این گارانتیاقدام اتحادیه اروپا را وادار میکند تا فوراً به این نکته توجه کند که چگونه این فناوریها میتوانند الزامات GDPR را برآورده کنند و چه چیزی باید تغییر کند تا اطمینان حاصل شود که GDPR در آینده مطابقت دارد. این اقدام همچنین ممکن است هیئت حفاظت از داده اروپا را وادار کند تا کارگروه ChatGPT خود را تشکیل دهد تا نگرانی های GDPR در سراسر اتحادیه اروپا در نظر گرفته شود و قبل از اینکه این فناوری شروع به کار کند (بیش از آنچه که قبلا داشته است) و بیش از حد در تجارت و جامعه اروپایی یکپارچه شود. پارلمان اروپا در حال حاضر در حال بحث درباره مقررات مربوط به هوش مصنوعی است که ممکن است تا چندین سال اجرایی نشود. دوباره، گارانتیاین اقدام همچنین ممکن است پارلمان اروپا را مجبور به تسریع تلاش های نظارتی هوش مصنوعی خود کند. به طور کلی، به نظر می رسد که گارانتیاین اقدام بررسی کلی اتحادیه اروپا از فناوریهای هوش مصنوعی را سرعت بخشیده است. این ممکن است به این معنی باشد که اتحادیه اروپا از نظر مقررات در این بخش رهبری می کند. در همین حال، کشورهای دیگر پیشنهادهایی درباره نحوه تنظیم هوش مصنوعی ارائه کردهاند، بهطوریکه بریتانیا سند سیاست خود را «مقررات هوش مصنوعی: رویکرد حامی نوآوری» در 29 مارس 2023 و DPA بریتانیا دستورالعملهای حفاظت از دادهها را در اوایل مارس 2023 صادر کرد. با این حال، بسیاری از کشورها هنوز این فناوریها را از منظر حفاظت از دادهها یا دیگر منظر قانونی در نظر نگرفتهاند و ممکن است مجبور باشند برای تعیین اینکه چگونه این بخش را تنظیم میکنند، عقبنشینی کنند.
بعد چه اتفاقی می افتد؟
در تصمیم خود، گارانتی OpenAI فرصتی را برای رسیدگی و اصلاح نقض های شناسایی شده GDPR در عرض 20 روز فراهم کرد. در میان گزینههای خود، OpenAI میتوانست درخواستی را در دادگاه مدنی عادی رم ارسال کند و روندی را برای تلاش برای لغو ممنوعیت موقت آغاز کند. در عوض، OpenAI برای همکاری با این شرکت حرکت کرد گارانتی و دغدغه های آن را برطرف کند. نمایندگان OpenAI و گارانتی در 5 آوریل (تقریباً) ملاقات کردند. پس از آن جلسه مکاتبات دیگری انجام شد که نشان دهنده علاقه OpenAI به همکاری با گارانتی. رویکرد مشترک OpenAI به Garante این امکان را داده است که به دنبال یک مسیر مطابقت با GDPR برای ChatGPT باشد.
در 11 آوریل، گارانتی تصمیم دوم خود را صادر کرد – همچنین یک تصمیم موقت – با الزامات خاصی که OpenAI باید تا 30 آوریل 2023 رعایت کند. این شامل الزامات اضافی مانند یک کمپین اطلاعاتی است که باید در ماه مه 2023 رعایت شود (“تصمیم دوم”). تصمیم دوم مقرر میدارد که اگر OpenAI الزامات را برآورده کند، گارانتی دستور را لغو خواهد کرد، اگرچه اذعان داشت که مسائل آینده یا عدم رعایت الزامات تصمیم دوم ممکن است حکم به اعمال مجدد دستور را بدهد.
این گارانتی تحقیقات خود را در مورد انطباق ChatGPT با GDPR ادامه خواهد داد. با این وجود، گارانتیارائه مسیری برای لغو حکم، یک نکته مثبت قوی برای ChatGPT و فناوریهای مشابهی است که با این مسائل مربوط به انطباق مواجه هستند.
این گارانتی احتمالاً تنها DPA یا تنظیمکنندهای نخواهد بود که انطباق ChatGPT با قانون حفاظت از دادهها را، چه در اتحادیه اروپا و چه در جاهای دیگر، بررسی میکند. اسپانیا به تازگی یک تحقیق در مورد ChatGPT را اعلام کرده است. ما درک می کنیم که OpenAI به نگرانی های مطرح شده توسط تنظیم کننده ها در بریتانیا، کانادا، هنگ کنگ، نیوزیلند و فرانسه رسیدگی می کند.
چه کار می کنند گارانتیاقدامات ‘s در ChatGPT برای شرکت هایی که از ChatGPT استفاده می کنند معنی دارد؟
OpenAI احتمالاً در آینده قابل پیشبینی به صورت عمومی در دسترس خواهد بود. تصمیم دوم به شرکت ها اطمینان می دهد که ChatGPT به زودی (دوباره) در ایتالیا در دسترس خواهد بود و ممکن است مسیری برای انطباق با GDPR داشته باشد.
با این حال، ما گمان میبریم که تنظیمکنندههای دیگر (چه در اتحادیه اروپا یا هر جای دیگر) ممکن است به همین دلایل در دسترس بودن ChatGPT را محدود کنند. گارانتی یا به دلایل احتمالی دیگر، مانند چالش های ذکر شده در مورد رعایت حقوق موضوع داده ها. اگر OpenAI بتواند با الزامات تصمیم دوم مطابقت داشته باشد، ممکن است بسیاری از رگولاتورها را تحت تأثیر قرار دهد. رویکرد اتخاذ شده توسط تنظیم کننده ها ممکن است بسته به رویکرد اتخاذ شده در مورد حقوق موضوع داده ها و پذیرش نوآوری و فناوری متفاوت باشد. برخی از تنظیمکنندهها ممکن است تهاجمی باشند – انتظار میرود برخی دیگر رویکرد عملگرایانهتری داشته باشند.
ماهیت چندمنظوره و چندمنظوره ChatGPT احتمالاً به این معنی است که مقررات جهانی اعمال شده برای فناوری های آن پیچیده و پراکنده است، به ویژه به این دلیل که استفاده از ChatGPT ممکن است اشکال مختلفی داشته باشد. برای مثال، شرکتها ممکن است از APIهای موجود برای ادغام فناوری در پیشنهادات خود استفاده کنند. یا ممکن است به سادگی امکان دسترسی کارمندان به ChatGPT را از طریق شبکه های شرکت فراهم کنند. همچنین ممکن است موارد استفاده پیچیده تری وجود داشته باشد، برای مثال، توسعه نسخه هایی که علاوه بر منابع در دسترس عموم، از منابع و پایگاه های داده غیرعمومی کار می کنند. در نتیجه، این فناوریها ممکن است مجبور باشند الزامات ویژه و جزئی تنظیمکنندههای حفاظت از داده در سراسر جهان را مورد توجه قرار دهند و با آنها مطابقت داشته باشند.
در حال حاضر، به نظر میرسد که تنظیمکنندهها عمدتاً روی ChatGPT و فناوریهای مرتبط متمرکز شدهاند. در حالی که برخی از شرکت ها قبلاً قصد خود را برای تجاری سازی خدمات و فناوری هایی که ChatGPT را ادغام می کنند، اعلام کرده اند.به عنوان مثال، Copilot امنیتی مایکروسافت)، ما فقط از ChatGPT (فناوری اصلی، نه استفاده های مشتق از آن) اطلاع داریم که توسط تنظیم کننده ها برای بررسی ذکر یا شناسایی شده است.
بسیاری از شرکت ها در سراسر جهان به سرعت در حال بررسی موارد استفاده بالقوه برای هوش مصنوعی هستند. مطمئناً برای شرکت مناسب و مورد استفاده مناسب، ChatGPT و فناوریهای مشابه ممکن است یک فرصت تجاری قابل توجه باشد. مشاور عمومی شرکتهایی که این مسائل را بررسی میکنند، باید بخش مهمی از بحث تجاری در مورد نحوه استفاده از ChatGPT باشد. به عنوان بخشی از بررسی خود، تیمهای حقوقی میخواهند تعهدات حفظ حریم خصوصی دادهها را با دقت در نظر بگیرند، اما در مورد مناطق حساس نیز هوشیار باشند، که ممکن است شامل استفاده از فناوری برای غربالگری کارمندان یا تصمیمگیریهای استخدامی باشد.
این مسائل برای هیئتها نیز موضوعات داغ هستند و از نظر رعایت حریم خصوصی، شرکتها باید بهطور فعال سیاستهای حفظ حریم خصوصی خود را بهروزرسانی کنند، ارزیابیهای تأثیر را انجام دهند، سوابق فعالیتهای پردازشی خود را بهروزرسانی کنند و سایر اقدامات لازم را برای برآورده کردن الزامات حریم خصوصی قابل اجرا انجام دهند. اگر ChatGPT در کشورهای خاصی ممنوع یا محدود شود، شرکتها باید آماده باشند تا سیاستها و عملیاتها را رعایت کنند و آنها را تنظیم کنند، احتمالاً در کوتاهمدت. بر این اساس، شرکت ها باید چابک باشند و برای اقدام سریع آماده باشند. با این حال، در حال حاضر، ممکن است شرکتها به احتمال زیاد موارد استفاده زیادی را ادامه دهند، در حالی که برای برآورده کردن الزامات قانونی در حال تحول هوشیار هستند.
نتیجه
مردم ChatGPT را از منظرهای مختلف می بینند. برخی آن را به عنوان یک تغییر دهنده بازی شرکتی، ارائه فرصت های تجاری جدید می دانند. با این حال، برخی در مورد پتانسیل ChatGPT نگران هستند و این نگرانی را دارند که می تواند با سرعتی تکامل یابد که از توانایی حریم خصوصی و سایر تنظیم کننده ها برای کنترل استفاده و توسعه آن فرار کند. در حال حاضر، کسبوکارها احتمالاً میتوانند به کشف این فناوری ادامه دهند، در حالی که مراقب تحولات قانونی هستند.