انتظار حفظ حریم خصوصی در فضای وب امروزی تقریباً ایدهآلانه به نظر میرسد، و شیوههای جمعآوری دادههای OpenAI این مفهوم را نفی نمیکند. شرکت امنیت سایبری Surfshark اخیراً یک تجزیه و تحلیل حریم خصوصی انجام داده است که نشان میدهد OpenAI ChatBot خود را با تعداد زیادی از دادههای کاربران آموزش داده است که مجوز قانونی مناسبی برای آنها ندارند.
این ادعا این است که OpenAI ممکن است اطلاعات کاربران را بدون اجازه آنها جمع آوری کرده باشد که این امر نقض مقررات حفاظت از داده های عمومی (GDPR) است. علاوه بر این، به نظر میرسد ChatGPT به افرادی که از دادههایشان برای آموزش ابزار هوش مصنوعی استفاده شده، هشدار نداده است، که یکی دیگر از موارد نقض GDPR است. کنترلکنندگان دادهها طبق قانون موظفند اطلاعاتی در مورد جمعآوری و استفاده از دادههای شخصی در اختیار کاربران قرار دهند تا آنها حق انتخاب انصراف را داشته باشند.
این همان نقض است که منجر به ممنوعیت موقت ChatGPT در ایتالیا شد، اگرچه OpenAI این مشکل را با فرمی برطرف کرده است که به کاربران در اتحادیه اروپا اجازه می دهد از استفاده از داده های خود برای اهداف آموزشی انصراف دهند. به طور عجیبی، این گزینه برای کاربران مناطق دیگر در دسترس نیست، به این معنی که ChatGPT ممکن است همچنان اطلاعات شخصی را از درخواستها/اعلامها، آپلود دادهها و هر بازخوردی که ارائه میدهید جمعآوری و ذخیره کند، اگر از اتحادیه اروپا نیستید. همچنین میتواند هر یک از این اطلاعات را بدون اطلاع شما با اشخاص ثالث به اشتراک بگذارد، همانطور که در خطمشی رازداری آن ذکر شده است.
موارد دیگری از نقض حریم خصوصی نیز وجود داشته است. در مارس 2023، یک اشکال به برخی از کاربران ChatGPT اجازه داد مکالمات را از تاریخچه چت سایر کاربران فعال و همچنین اطلاعات پرداخت برخی از مشترکین Premium را مشاهده کنند. در ماه بعد، Gizmodo گزارش داد که کارمندان سامسونگ ناخواسته اطلاعات محرمانه شرکت را از طریق ChatGPT افشا کردند. پس از این حادثه هیچ تغییری در سیاست حفظ حریم خصوصی OpenAI ایجاد نشده است، بنابراین به نظر نمی رسد که این مشکلات به این زودی برطرف شود.