OpenAI اکنون به کاربران ChatGPT این امکان را می دهد که تصمیم بگیرند از کدام مکالمه برای آموزش مدل زبان بزرگ محبوب استفاده کنند.
در 25 آوریل، آزمایشگاه تحقیقاتی هوش مصنوعی روش جدیدی را برای کاربران برای مدیریت داده های خود معرفی کرد که به آنها امکان می داد تاریخچه چت را خاموش کنند. مکالماتی که با غیرفعال شدن سابقه چت شروع می شوند برای آموزش یا بهبود ChatGPT استفاده نمی شوند. در عوض، آن مکالمات به مدت 30 روز نگه داشته و برای همیشه حذف خواهند شد.
مسئله حریم خصوصی
مایکل بنت، مدیر برنامه درسی آموزشی و مدیر تجاری هوش مصنوعی مسئول در دانشگاه نورث ایسترن، گفت: تغییر OpenAI برای سازمانهای خاصی که قبلاً در مورد سوء استفاده از دادههایشان توسط آزمایشگاه تحقیقاتی هوش مصنوعی و چت ربات مولد هوش مصنوعی محتاط بودند، جذاب خواهد بود.
او گفت که برای برخی، این نوع کنترل خبر خوبی است. برای منتقدانی که به دلیل نداشتن چنین گزینه ای ناراحت بودند، اکنون باید احساس بهتری داشته باشند. اما این تنها یکی از مشکلاتی است که منتقدان دارند.”
منتقدان ChatGPT OpenAI همچنین نگران عدم قابلیت اطمینان چت ربات هوش مصنوعی، به ویژه تعداد “توهمات” یا مواردی از ChatGPT هستند که اطلاعات نادرست یا غیرمنطقی تولید می کند.
به گفته برن الیوت، تحلیلگر گارتنر، دادن کنترل به افراد بر روی داده هایشان گامی در مسیر درست است، اما OpenAI باید کارهای بیشتری انجام دهد.
الیوت گفت: «حریم خصوصی چیزی بیشتر از این است که بگوییم ما حریم خصوصی داریم. همچنین در حال ارائه به آن است. شما باید یک سری رویه ها و کنترل ها را اجرا کنید و حسابرسی داشته باشید.
بسیاری از سازمانها که هنوز نگران مسائل مربوط به دادهها و حریم خصوصی هستند، احتمالاً نسخه ChatGPT مایکروسافت را در نظر خواهند گرفت. الیوت گفت، اگرچه مایکروسافت سرمایهگذار اصلی OpenAI است، با 10 میلیارد دلار متعهد به آزمایشگاه تحقیقاتی، نسخه خود مایکروسافت از ChatGPT درجه سازمانی بیشتری دارد.
الیوت افزود، این غول فناوری تلاش کرده است تا امنیت، انطباق، محرمانه بودن و حفظ حریم خصوصی را در نسخه ChatGPT که منتشر کرده است، بگنجاند. اما در مقایسه، OpenAI باید در مورد خطرات مربوط به افشای دادههای فرد هنگام استفاده از نسخه ChatGPT خود صریحتر میبود.
الیوت با اشاره به این واقعیت که OpenAI در ابتدا خطرات مربوط به استفاده از ChatGPT را پنهان نمی کرد، اما نتوانست به کاربران در مورد آنها هشدار دهد، گفت: “آنها آن را پنهان نکردند.”
با این حال، او ادامه داد که برنامه OpenAI برای انتشار به زودی نسخه تجاری ChatGPT ایده خوبی است. “آنها باید مایل باشند که به مردم اجازه دهند بفهمند چه کاری انجام می دهند تا آن را متفاوت کنند.”
برن الیوتتحلیلگر، گارتنر
بنت گفت، با این حال، نسخه تجاری ChatGPT باید نگرانی کسانی را که با اطلاعات حساس کار می کنند – مانند اسناد مالی و پزشکی – کاهش دهد که داده های آنها توسط مدل هوش مصنوعی مولد جمع آوری می شود.
او افزود که در مجموع، تغییرات OpenAI ممکن است ناشی از چالشهایی باشد که اخیراً پس از ممنوعیت ChatGPT ایتالیا با آن مواجه شده است.
ماه گذشته، ایتالیا ChatGPT را به دلیل نگرانی در مورد نحوه سوء استفاده OpenAI از دادههای افراد ممنوع کرد. ایتالیا OpenAI را متهم کرد که احتمالاً مقررات حفاظت از داده های عمومی اتحادیه اروپا را نقض کرده است.
این امر باعث شد که کشورهای همسایه اتحادیه اروپا نیز استفاده از داده های OpenAI را بررسی کنند. اگرچه ایتالیا این ممنوعیت را لغو کرد، اما به شرطی بود که OpenAI رویه های داده خود را تغییر دهد. بنت گفت که این تغییر جدید می تواند OpenAI به آن شرایط پاسخ دهد.
او گفت که اگر اینطور باشد، نه تنها کاربران اتحادیه اروپا، بلکه همه کاربران نیز سود می برند.
استر آجائو یک نویسنده خبری است که نرم افزارها و سیستم های هوش مصنوعی را پوشش می دهد.