به نظر می رسد فشار طرفداران حریم خصوصی و تنظیم کننده های دولتی (به ویژه ممنوعیت در ایتالیا) باعث بهبود ChatGPT شده است، به طوری که این شرکت اکنون به کاربران اجازه می دهد تاریخچه چت را غیرفعال کنند. با این حال، هرگونه مکالمه قبلی ثبت شده و در دسترس مدلهای هوش مصنوعی این شرکت است، و چتها همچنان به مدت 30 روز قبل از حذف به منظور «مبارزه با سوءاستفاده» حفظ میشوند.
توانایی محدود برای غیرفعال کردن سابقه چت به ChatGPT اضافه شده است
کاربران باید از ثبت سابقه چت از طریق منوی تنظیمات انصراف دهند و این فقط برای مکالماتی اعمال می شود که پس از تغییر تنظیمات انجام شده است. مکالمات قبلی برای مدلهای هوش مصنوعی این شرکت (که ممکن است به محصولاتی غیر از ChatGPT گسترش یابد) برای آموزش در دسترس است.
ثبت مکالمات نیز دقیقاً به معنای دقیق کلمه “غیرفعال” نیست، زیرا ChatGPT بدون توجه به تنظیمات کاربر، به ضبط و حفظ تعاملات به مدت 30 روز ادامه می دهد. این شرکت میگوید که این فقط برای اسکن موقعیتهایی است که مشکوک به سوء استفاده هستند و گزارشها در پایان این دوره برای همیشه حذف خواهند شد.
کاربران ChatGPT میتوانند با استفاده از گزینه «export data» که فایلی (از طریق ایمیل) حاوی تمام اطلاعاتی که مدلهای هوش مصنوعی این شرکت در اختیار آنها قرار میدهند، آنچه را که تا این لحظه ثبت شده است، مشاهده کنند. کسانی که می خواهند توانایی ثبت سابقه چت را حفظ کنند اما استفاده از آن را برای آموزش انصراف دهند، به زودی این گزینه را در اختیار خواهند داشت، اما باید برای دسترسی به بسته کسب و کار برتر ChatGPT مشترک شوند. OpenAI می گوید که این گزینه در “ماه های آینده” در دسترس خواهد بود، اما هنوز مشخص نیست که قیمت آن چقدر خواهد بود یا مجموعه ویژگی های کامل چگونه با اشتراک ممتاز ChatGPT Plus موجود (که 20 دلار در ماه هزینه دارد) یا متفاوت است. دسترسی به API کسب و کار (که تقریباً 0.002 دلار به ازای هر 750 کلمه ورودی هزینه دارد، اما در حال حاضر محدود به نسخه 3.5 نرم افزار است مگر اینکه یکی از تعداد محدودی از دعوت نامه ها به نسخه 4 دریافت شود).
مدلهای هوش مصنوعی مجبور به رسیدگی به مسائل حقوقی در حال چرخش هستند
تعدادی دیگر از مدلهای هوش مصنوعی در حال حاضر در دسترس هستند، اما ChatGPT به دلیل اولین (و به نظر میرسد هنوز هم در مجموع شایستهترین و همهکارهترین) به «نام خانگی» این دسته تبدیل شده است. بنابراین، بیشترین سهم را از سوی فعالان و قانونگذاران مورد بررسی قرار داده است و اشتباهات آن موادی را برای پایه و اساس مقررات هوش مصنوعی مولد فراهم می کند.
بزرگترین مشکل تا کنون نقض داده در اواسط ماه مارس بود که در آن شکست یک سیستم حافظه پنهان عناوین سابقه چت کاربر را به صورت تصادفی در معرض دیگران قرار داد و حدود 1٪ از مشترکان ChatGPT Plus اطلاعات حساس صورتحساب خود را به شخص اشتباهی ایمیل کردند. این امر باعث شد تا ایتالیا چت بات را تا زمانی که تغییرات امنیتی و شفافیت تجویز شده را انجام ندهد ممنوع کند و بحثی را در مورد ممنوعیت های مشابه در حداقل چندین کشور دیگر به راه انداخت.
سایر مشکلات ناشی از عدم توجه کاربران به اقدامات احتیاطی در مورد آنچه که باید و نباید به سیستم متصل شود. سامسونگ زمانی این خبر را منتشر کرد که چند تن از کارمندانش کد اختصاصی و اطلاعات جلسات داخلی را برای بررسی و قالب بندی مجدد کد به ChatGPT وصل کردند، ظاهراً غافل از اینکه چت بات همه این ورودی ها را ثبت می کرد و از آن به عنوان ماده ای برای آموزش مدل های هوش مصنوعی شرکت مادر استفاده می کرد. نگرانی هایی از این قبیل باعث شده است که برخی از شرکت های بزرگ، از جمله بخش بزرگی از صنعت مالی، ChatGPT و مدل های مشابه هوش مصنوعی را در محل کار ممنوع کنند.
ChatGPT و سایر مدلهای هوش مصنوعی نیز در حال حاضر با شکایتهای مختلفی روبرو هستند، خیلی قبل از اینکه حتی از مراحل آزمایشی رسمی خود خارج شوند. Getty Images، یکی از بزرگترین ارائه دهندگان عکاسی استوک برای رسانه ها، از سازنده Stable Diffusion به دلیل استفاده از تصاویر محافظت شده در داده های آموزشی خود شکایت کرده است. به طور مشابه، پروژه Github Copilot توسط بسیاری از توسعه دهندگان منبع باز به دلیل استفاده از کد آنها به عنوان مواد آموزشی مورد شکایت قرار گرفته است. و پس از اینکه ChatGPT به دروغ ادعا کرد که مدتی را در زندان به عنوان بخشی از رسوایی رشوه خواری خارجی سپری کرده است، یک شهردار در استرالیا از OpenAI به دلیل افترا شکایت کرده است.
مدلهای هوش مصنوعی همچنین با یک معضل ذاتی روبرو هستند که جذابیت آنها این است که الگوریتم یادگیری قرار است انعطافپذیر و پاسخگو باشد و قابلیتهای جدیدی را هرچه پیش میرود توسعه میدهد، اما نگرانیهای مقررات و ایمنی نیز قرار دادن «حفاظها» را مجبور میکند تا از درخواستهای خاص جلوگیری کند. مردم به طور مداوم راههایی برای لغزش نردههای محافظ ChatGPT از طریق اعلانهای هوشمندانه پیدا کردهاند، یکی از معروفترین آنها این بود که به سادگی به چتبات گفتن نقشآفرینی کند، گویی یک سیستم نامحدود به نام «DAN» است و از این منظر به سؤال پاسخ میدهد.
بسیاری از مدلهای هوش مصنوعی با دقت آنچه را که برای ChatGPT اتفاق میافتد، تماشا میکنند، زیرا هنوز حتی ویژگیهایی مانند تاریخچه چت را پیادهسازی نکردهاند. این گزینه به تازگی به چت ربات بینگ خود مایکروسافت اضافه شده است. دیگران، مانند اسنپ چت، محصول را با توانایی فوری حذف تاریخچه چت عرضه کردند.