اد. توجه داشته باشید: این جدیدترین مقاله از سری مقالات است، امنیت سایبری: نکاتی از سنگرها، توسط دوستان ما در Sensei Enterprises، ارائه دهنده بوتیک خدمات فناوری اطلاعات، امنیت سایبری و پزشکی قانونی دیجیتال.
یک مانع اخلاقی بزرگ برای استفاده از ChatGPT از بین رفته است
از آنجایی که ChatGPT پذیرفته شده ترین هوش مصنوعی مولد برای استفاده وکلا است، ناراحت کننده بود که امنیت سایبری و نگرانی های اخلاقی را ارائه می کرد. حفاظت از محرمانه بودن داده های مشتری یک دستور اخلاقی است که باعث شده بسیاری از وکلا و شرکت ها از استفاده از ChatGPT اجتناب کنند.
خوشبختانه، اکنون می توانید تاریخچه چت را برای ChatGPT خاموش کنید. OpenAI، خالق ChatGPT، در 25 آوریل اعلام کرد که گزینه ای را برای غیرفعال کردن سابقه چت برای ChatGPT اضافه کرده است، که همچنین مانع از استفاده OpenAI از درخواست های شما برای بهبود برنامه می شود.
OpenAI در یک پست وبلاگی گفت: «مکالماتی که با غیرفعال شدن سابقه چت شروع میشوند، برای آموزش و بهبود مدلهای ما استفاده نمیشوند و در نوار کناری تاریخ ظاهر نمیشوند.»
این پست همچنین خاطرنشان میکند: «وقتی سابقه چت غیرفعال است، مکالمات جدید را به مدت 30 روز حفظ میکنیم و قبل از حذف دائمی، فقط در صورت نیاز برای نظارت بر سوء استفاده، آنها را بررسی میکنیم.» بسیاری از وکلا پرسیدهاند که آیا این موضوع ما را آزار میدهد – و پاسخ خیلی زیاد نیست، اگرچه اذعان میکنیم که در 20 مارس 2023 دچار قطع و نشت داده شده است. مشکل به سرعت اصلاح شد. به طور کلی، OpenAI یک شرکت معتبر با امنیت عالی است – و حفظ امنیت دادههای نگهداری شده به مدت 30 روز یا حذف خودکار آنها پس از انقضای 30 روز کار چندان سختی نیست.
بنابراین – چگونه تاریخچه چت را برای ChatGPT خاموش کنید
کاملا ساده است. برای غیرفعال کردن سابقه چت، روی سه نقطه کنار آدرس ایمیل خود در گوشه سمت چپ پایین در پایین صفحه کلیک کنید. Settings را انتخاب کنید و سپس در قسمت Data Controls نمایش داده شود. نوار لغزنده تاریخچه چت و آموزش را تغییر دهید. از همان صفحه تنظیمات، شما همچنین می توانید داده های خود را صادر کنید.
اگر میخواهید در برخی موارد سابقه چت را ذخیره کنید، فقط میتوانید نوار لغزنده تاریخچه و آموزش چت را تغییر دهید. فقط به یاد داشته باشید که اگر داده های محرمانه را وارد می کنید، دوباره آن را خاموش کنید.
همانطور که ما دوست داریم بگوییم، نقطه شکست معمولاً انسان پشت صفحه کلید است.
چرا این افزایش امنیت برای حرفه حقوقی بسیار مهم است؟
OpenAI اکنون در حال کار بر روی اشتراک جدید ChatGPT Business برای حرفه ای هایی است که به کنترل بیشتری بر روی داده های خود و همچنین شرکت هایی که به دنبال مدیریت کاربران نهایی خود هستند نیاز دارند. در اطلاعیه آن آمده است: «ChatGPT Business از خطمشیهای استفاده از داده API ما پیروی میکند، به این معنی که دادههای کاربران نهایی برای آموزش مدلهای ما بهطور پیشفرض استفاده نمیشوند. ما قصد داریم ChatGPT Business را در ماه های آینده در دسترس قرار دهیم.”
دیدن پیشرفت OpenAI در زمینه حفظ حریم خصوصی واقعاً خوب است. هزینه اشتراک چقدر خواهد بود؟ ظاهراً این شرکت هنوز تصمیم نگرفته است زیرا هیچ اشاره ای به قیمت نشده است. نیازی به گفتن نیست، هر چه قیمت بالاتر باشد، ممکن است بهبودها کمتر احساس شیرینی داشته باشند!
افزایش علاقه به استفاده از هوش مصنوعی در حرفه حقوقی
ما با علاقه زیادی به نظرسنجی تامسون رویترز در 23 مارس از وکلا توجه کردیم. آمار به سرعت در حال تغییر است. هنگامی که از او پرسیده شد که آیا ChatGPT/هوش مصنوعی مولد می تواند در کارهای قانونی اعمال شود، 82 درصد فوق العاده پاسخ مثبت دادند.
سوال را کمی به “آیا ChatGPT/هوش مصنوعی مولد باید برای کارهای قانونی اعمال کرد؟” تغییر دهید؟ و 51٪ اکنون می گویند “بله”. این یک جهش بزرگ نسبت به روزهای اولیه است – و در نگرانی های مربوط به حریم خصوصی که در بالا به آن اشاره شد منعکس شده است.
در حالی که این نظرسنجی نشان داد که اکنون تنها 3 درصد از پاسخ دهندگان از هوش مصنوعی مولد استفاده می کنند، ما فقط بر اساس همه همکارانی که از ChatGPT با آنها صحبت کرده ایم، کمی در مورد این تعداد شک داریم.
با این حال، 34 درصد از شرکت ها گفتند که در حال بررسی استفاده از آن هستند. هنوز یک ائتلاف grinch وجود دارد – شش شرکت آن را کاملاً ممنوع کرده اند. در حالی که 15٪ به کارمندان در مورد استفاده از آن هشدار داده اند، اگر آنها فقط به کارمندان توصیه می کردند که از آن استفاده کنند، ممکن است منطقی باشد.
تقریباً 80٪ از شرکا/شرکای مدیریتی نگران دقت و امنیت بودند – که کاملاً منطقی است – و یکی از دلایلی که ما این مقاله را نوشتیم تا برخی از نگرانی های قبلی به ویژه در مورد امنیت را برطرف کنیم. از نقطه نظر اخلاقی، ChatGPT مطمئناً در مسیر درستی حرکت می کند.
کلمات پایانی
“به نظر من، هم برای خدمات حقوقی و هم برای جامعه به یک نقطه عطف بزرگ رسیده ایم. برای حقوقدانان، من فکر میکنم که این فناوری حداقل به اندازه اینترنت و احتمالاً بیشتر دگرگونکننده است.اندرو پرلمن، رئیس دانشکده حقوق دانشگاه سافولک
شارون دی. نلسون (snelson@senseient.com) یک وکیل دادگستری و رئیس شرکت Sensei Enterprises, Inc است. او یکی از نویسندگان 18 کتاب منتشر شده توسط ABA است.
جان دبلیو سیمک (jsimek@senseient.com) معاون Sensei Enterprises, Inc است. او یک متخصص امنیت سیستم های اطلاعاتی (CISSP)، هکر اخلاقی معتبر (CEH) و یک متخصص شناخته شده ملی در زمینه پزشکی قانونی دیجیتال است. او و شارون خدمات حقوقی، امنیت سایبری و پزشکی قانونی دیجیتال را از شرکت فیرفکس، ویرجینیا ارائه می کنند.
مایکل سی ماسکه (mmaschke@senseient.com) مدیر عامل/مدیر امنیت سایبری و پزشکی قانونی دیجیتال Sensei Enterprises, Inc است. او یک بازرس تایید شده EnCase، یک بازرس کامپیوتر تایید شده (CCE #744)، یک هکر اخلاقی تایید شده، و یک بازرس تایید شده AccessData است. . او همچنین یک متخصص امنیت سیستم های اطلاعاتی معتبر است.