TikTok، چه کسی؟ براساس تحلیل بانک سوئیس UBS، ChatGPT – یک چت ربات هوش مصنوعی (AI) که توسط OpenAI توسعه یافته است، سریعترین برنامه در حال رشد در تمام دوران است. ChatGPT یک ابزار پردازش زبان طبیعی است که به مکالمات انسانمانند در تعداد بینهایت سوژه اجازه میدهد، ChatGPT برای پیروی از یک دستور و ارائه پاسخ سریع و دقیق آموزش داده شده است، و برنامههای نرمافزاری مولد هوش مصنوعی متعددی در کنار آن ظهور میکنند. اما با این قابلیت خطرات، محدودیتها و ملاحظات اخلاقی قابل توجه در صنعت حقوقی است.
قواعد اخلاقی مدل، وکلای دادگستری را ملزم به حفظ «صلاحیت فنآوری» میکند، به این معنی که آنها باید در جریان تغییرات در قانون و عملکرد آن باشند. از جمله مزایا و خطرات مرتبط با فناوری مربوطه. بنابراین، وقتی صحبت از ChatGPT می شود، وکلا نمی توانند سر خود را در شن فرو کنند، زیرا در واقع، همکاران و مشتریان آنها در حال حاضر از آن و سایر برنامه های مشابه آن استفاده می کنند، بنابراین ضروری است که هر وکیلی خطرات و مزایای آن را درک کند.
ظهور ChatGPT و برنامههای هوش مصنوعی مولد مشابه فرصتهایی برای اتوماسیون و کارایی ایجاد میکند، اما این فناوری هنوز در حال توسعه است و نمیتوان کورکورانه به آن اعتماد کرد بدون اینکه یک وکیل قضاوت خود را انجام دهد. ChatGPT اطلاعات بهدستآمده از اینترنت را جمعآوری میکند، اما همیشه مرتبطترین دادهها را در تولید پاسخها ارائه نمیکند و منبع مکرر اطلاعات نادرست در پاسخهای خود به پرسشها بوده است. به عنوان مثال، تلاشهای اولیه برای استعلام ChatGPT برای رویه قضایی اغلب مواردی را به دست میآورد که توسط ChatGPT اختراع شدهاند، که شاید این پرسشها را بهعنوان درخواستهای نوشتن خلاقانه بهعنوان درخواستهای تحقیقاتی قانونی درک میکرد. این نرم افزار اکنون از ارائه قوانین قضایی به طور کلی اجتناب می کند، که با توجه به اینکه ChatGPT برای ارزیابی ویژه سوالات حقوقی یا استخراج و ارزیابی داده های خاص آنها طراحی نشده است، عاقلانه به نظر می رسد.
در حالی که ChatGPT هنوز میتواند پاسخها را در مورد تعداد تقریباً نامتناهی از موضوعات آماده کند، وظیفه اخلاقی صلاحیت یک وکیل باید همیشه بر راحتی اولویت داشته باشد. وکلای دادگستری باید با بررسی هر گونه پاسخی که از ChatGPT میآید، آنها را با دانش خود مقایسه کنند یا تحقیقات خود را از منابع معتبر انجام دهند. مهمتر از همه، ChatGPT همچنین در توانایی خود برای ارائه منابع یا شواهدی برای پشتیبانی از جایی که پاسخ های خود را دریافت کرده است، محدود است، بنابراین ضروری است که به طور مستقل پاسخ های ایجاد شده توسط ChatGPT را تأیید کنید.
مکالمات در مورد ChatGPT و اخلاقیات نیز باید بر وظیفه حفظ محرمانه بودن مشتری متمرکز باشد. شرایط استفاده از ChatGPT صراحتاً بیان می کند که هر محتوایی که با استفاده از ChatGPT به اشتراک گذاشته می شود، ممکن است بازبینی شود و خصوصی نیست. بنابراین، وکلای دادگستری باید اطمینان حاصل کنند که ورودی ارائه شده به ChatGPT حاوی اطلاعات محرمانه یا ممتاز یا اطلاعاتی نیست که از آن اطلاعات موکل استنباط شود، زیرا انجام این کار میتواند مسئولیت اخلاقی وکیل را برای محرمانه نگه داشتن اطلاعات مربوط به نمایندگی مشتری نقض کند. .
شایان ذکر است، شرایط استفاده ChatGPT مسئولیت امنیت و حفظ حریم خصوصی داده ها را بر عهده کاربر قرار می دهد و کاربران را بیان می کند:باید اقدامات معقول و مناسبی را که برای کمک به ایمن کردن دسترسی و استفاده از خدمات طراحی شده است، اجرا کند.» اخیراً، کارمندان سامسونگ ناخواسته اطلاعات محرمانه خود را هنگام استفاده از ChatGPT فاش کردند تا به آنها کمک کند مشکلات کد منبع خود را برطرف کنند، از جمله وارد کردن کد منبع و داده های یادداشت های جلسه داخلی مربوط به سخت افزار آن. در پاسخ، ظاهراً سامسونگ در حال توسعه هوش مصنوعی داخلی خود برای استفاده داخلی توسط کارمندان است – راه حلی عالی برای سامسونگ، اما برای هر شرکتی امکان پذیر نیست. بنابراین، عاقلانه است که شرکت ها در آموزش کارمندان و مشتریان در مورد استفاده مناسب از هوش مصنوعی سرمایه گذاری کنند تا بتوانند از آن برای حمایت و پیشرفت کار خود به شیوه ای شفاف و مسئولانه استفاده کنند. سیاست ها و دستورالعمل های شرکت نیز باید با ظهور فناوری های جدید به روز شوند.
نگرانی دیگر در میان کاربران این است که داده ها پس از وارد شدن به ChatGPT قابل بازیابی یا حذف نیستند، زیرا در سرورهای متعلق به OpenAI ذخیره می شوند. هر بار که کاربران با هوش مصنوعی چت می کنند، مکالمات و ورودی های کاربر به عنوان یک رشته گفتگوی مداوم ذخیره می شوند تا به بهبود دقت هوش مصنوعی در طول زمان کمک کنند. با این حال، فرآیندی که در آن اطلاعات شخصی برای آموزش دادهها استفاده میشود ممکن است ChatGPT را با برخی از مقررات حفظ حریم خصوصی، مانند مقررات عمومی حفاظت از دادههای اتحادیه اروپا (GDPR) مطابقت نداشته باشد، زیرا یکی از اصول اصلی قانون بر نحوه شرکتها است. جمع آوری و استفاده از داده ها ایتالیا، در واقع، استفاده از ChatGPT را در مارس 2023 به طور موقت ممنوع کرده بود و دلیل آن نگرانی در مورد نقض حریم خصوصی، انتشار احتمالی اطلاعات نادرست، و فقدان یک سیستم تأیید سن برای جلوگیری از قرار گرفتن خردسالان در معرض مواد غیرقانونی بود. در زمان نگارش این مقاله، OpenAI میگوید که شرایطی را که ایتالیا میخواست تا مهلت 30 آوریل برای لغو ممنوعیت ChatGPT برآورده کرده است، از جمله افزودن اطلاعات به وبسایت خود درباره نحوه جمعآوری و استفاده از دادهها و افزودن ابزاری برای تأیید سن کاربران. هنگام ثبت نام OpenAI همچنین گزینه انصراف را ارائه می دهد اگر نمی خواهید از داده های شما برای آموزش استفاده شود، اما این یک فرآیند دستی است که شامل پر کردن یک فرم است.
یکی دیگر از زمینه های عدم اطمینان، خطر نقض مالکیت معنوی افراد در استفاده از پاسخ های تهیه شده توسط ChatGPT است. طبق ChatGPT، کاربر دارای حق چاپ در درخواست های کاربر و پاسخ های تولید شده توسط کاربر است. با این حال، مشخص نیست که ChatGPT چگونه و از کجا داده های خود را به دست می آورد. همانطور که در بالا ذکر شد، ChatGPT وب را برای جمع آوری اطلاعات از منابع داده باز در اینترنت اسکن می کند. هیچ راهی برای تأیید اینکه چیزی که تولید میشود حق نسخهبرداری شخص دیگری را نقض نمیکند وجود ندارد. بنابراین، شرکتها باید به وکلا و مشتریان خود توصیه کنند که با احتیاط از هر محتوایی که توسط ChatGPT ایجاد شده است استفاده کنند و عموماً باید از چنین محتوایی فقط برای اهداف اطلاعاتی یا آموزشی داخلی استفاده کنند.
با درک محدودیت های فناوری هوش مصنوعی و توجه به ملاحظات اخلاقی خلاصه شده در بالا، این پتانسیل وجود دارد که ابزار ChatGPT می تواند به روشی نوآورانه و اخلاقی مورد استفاده قرار گیرد. با این حال، در حال حاضر، وکلای دادگستری باید به ارزیابی انتقادی و اجرای مسئولانه این فناوری ادامه دهند تا اطمینان حاصل کنند که تعهدات اخلاقی خود را رعایت می کنند و از منافع مشتری محافظت می کنند.