نتایج بهدستآمده از ChatGPT اغلب مملو از خطاها و گاهی اوقات دروغهای آشکار است. علاوه بر این، کارمندان ممکن است اطلاعات اختصاصی، محرمانه یا محرمانه تجاری را در هنگام «مکالمه» با آن به اشتراک بگذارند.
—-
ساختگی هوش (AI) این پتانسیل را دارد که دنیایی را که ما در آن زندگی می کنیم تغییر دهد. اگر توجه کرده باشید، متوجه شده اید که این انقلاب فناوری از قبل شروع شده است و در صنایع مختلف بیشتر و بیشتر می شود. جای تعجب نیست که صنعت حقوقی نیز از این قاعده مستثنی نیست.
فناوریهای مبتنی بر هوش مصنوعی نقش بزرگی را در حرفههای حقوقی ایفا میکنند و به ایفای آن ادامه خواهند داد، که امکان اتوماسیون وظایف خستهکننده یا سادهسازی جریان کار را فراهم میکند و به کارفرمایان اجازه میدهد در زمان و هزینه صرفهجویی کنند. یکی از این فناوریها که قطعاً باید در رادار هر وکیلی باشد، آخرین تلاش آزمایشگاه تحقیقاتی هوش مصنوعی آمریکا OpenAI، ربات چت هوش مصنوعی ChatGPT است.
همچنین بخوانید: هوش مصنوعی: توضیحی برای مبتدیان
ChatGPT از زمان انتشار آن در نوامبر سال گذشته، موضوع بحث شهر بوده است، و دنیای فناوری را با طوفانی درآورد، و کسانی که در این بحث حضور داشتند، از جمله روسای شرکتهای فناوری چندملیتی آمریکایی گوگل، متا و مایکروسافت بودند، زیرا چت بات به سرعت سریعترین تبدیل شد. برنامه رو به رشد تمام دوران، حتی از سرویس میزبانی ویدیوی کوتاه TikTok پیشی گرفته است.
چگونه می توان از ChatGPT به عنوان یک ابزار حرفه ای توسط وکلا استفاده کرد؟
همانطور که امروزه وجود دارد، ChatGPT به عنوان یک ابزار مستقل ارزش زیادی برای وکلا فراهم می کند.
به عنوان مثال، نسخه فعلی ChatGPT میتواند با پیشنهاد بهبود زبان قرارداد و همچنین شناسایی مشکلات احتمالی در یک قرارداد، به بررسی قرارداد کمک کند. علاوه بر این، ChatGPT میتواند در طول تحقیقات حقوقی برای ارائه خلاصهای از پروندهها، قوانین یا حتی دادخواستهای ثبتشده با دوره و همچنین ایجاد اولین پیشنویسهای قابل اجرا از نامههای تقاضا، نامههای کشف، موافقتنامههای عدم افشا و قراردادهای استخدامی استفاده شود.
با این حال، از بسیاری جهات، این فناوری هوش مصنوعی هنوز در مرحله توسعه و مراحل اولیه خود است.
آیا ChatGPT اطلاعات دقیقی را ارائه می دهد؟
نتایج بهدستآمده از ChatGPT اغلب مملو از خطاها و گاهی اوقات دروغهای آشکار است. به عنوان مثال، نیکول بلک، نویسنده، وکیل و روزنامهنگار آمریکایی نوشته است که وقتی از ChatGPT خواست پیشنویسی در لینکدین درباره مقالهای که در آن از او نقلقول شده بود، تهیه کند، به سادگی یک نقل قول ایجاد کرد. در مورد دیگری، او اشاره کرد که هوش مصنوعی به یک ماده اخلاقی حقوقی کالیفرنیا اشاره کرده است.
ChatGPT می تواند با پیشنهاد بهبود زبان قرارداد و همچنین شناسایی مسائل احتمالی در یک قرارداد، به بررسی قرارداد کمک کند. علاوه بر این، میتوان از آن در طول تحقیقات حقوقی برای ارائه خلاصهای از پروندهها، قوانین یا حتی دادخواستهای ثبتشده با دوره و همچنین ایجاد اولین پیشنویسهای قابل اجرا از نامههای تقاضا، نامههای کشف، موافقتنامههای عدم افشا و قراردادهای استخدامی استفاده کرد.
این شکافها در دانش را میتوان تا حدی به این واقعیت نسبت داد که چت بات فقط در مورد دادههای موجود تا سپتامبر 2021 آموزش دیده است، و بنابراین پایگاه دادهای برای اطلاعات بعدی ندارد. مشکلاتی با توجه به این موضوع به وجود میآیند که برای پرسشهایی که قطعاً پس از سپتامبر 2021 به دانش نیاز دارند – دانشی که هوش مصنوعی مطمئناً برای مرجع ندارد، نباید قادر به پاسخگویی به سؤال باشد. اگر به وضوح اطلاعات دقیقی در مورد سؤال نداشت، مناسبترین پاسخ این است که از پاسخ دادن خودداری کنید. با این حال، هنوز هم دارد.
این پدیده به طور قابل توجهی در مقاله ای توسط جون وان روزنامه نگار آمریکایی در زمینه فناوری بیان شده است که پس از درخواست از ChatGPT برای بررسی آیفون 14 (که در سال 2022 عرضه شد)، یک مورد گمراه کننده داده شد. وان می نویسد، هر نویسنده یا محقق معقولی که با موضوعی ناآشنا به او محول می شود، به طور واقع بینانه، درخواست می کند که آن را توسط فرد دیگری و به روزتر پوشش دهد یا مدتی را صرف تحقیق در مورد آن می کند، به جای اینکه بدون هیچ گونه نگرانی در مورد صحت، سر به کار بپردازد. .
اگر کارمندان برای به دست آوردن اطلاعات برای کار بدون بررسی متقابل صحت آن صرفاً به ChatGPT متکی باشند، بسته به نحوه استفاده کارمندان از اطلاعات و مکان ارسال آن، ممکن است مشکلات و خطرات قانونی ایجاد شود.
برخی از محدودیت های دیگر اطلاعات تولید شده توسط ChatGPT چیست؟
علاوه بر این، وقتی در نظر بگیریم که اطلاعاتی که هوش مصنوعی ارائه میکند به اطلاعاتی که بر اساس آن آموزش داده شده است و همچنین به کسانی که درباره اطلاعاتی که چت ربات هوش مصنوعی دریافت میکند، بستگی دارد، در انواع اطلاعات ارائهشده در پاسخ، سوگیریهای ذاتی وجود دارد. به سوالاتی که در طول “مکالمات” پرسیده می شود.
این سوگیری ذاتی ممکن است با پیشرفتهای اخیر عمیقتر شود که به کاربران اجازه میدهد رفتار ChatGPT را از طریق بازتعریف «ارزشهای» ربات چت تغییر دهند، بنابراین به اطلاعاتی دسترسی پیدا میکنند که عمدتاً برای بزرگنمایی باورهای موجود به جای به چالش کشیدن آنها از طریق دسترسی به اطلاعات و دیدگاههای متنوع عمل میکنند. در زمینه حقوقی که حتی کوچکترین کلمات و نحوه انشاء آنها می تواند تفاوت بین دفاع حقوقی روحیه و یک مصیبت ناگوار حقوقی ایجاد کند، صحت اطلاعات از اهمیت بالایی برخوردار است.
همچنین بخوانید : تنظیم هوش مصنوعی در قوه قضاییه و افسانه استثناگرایی قضایی
خطرات حفظ حریم خصوصی و محرمانگی مرتبط با ChatGPT چیست؟
بزرگترین منطقه نگرانی نقض حریم خصوصی و محرمانه بودن خواهد بود.
این احتمال وجود دارد که کارمندان هنگام شرکت در “مکالمات” با ChatGPT اطلاعات اختصاصی، محرمانه یا محرمانه تجاری را به اشتراک بگذارند. این را می توان به راحتی انجام داد، مثلاً از طریق استفاده از هوش مصنوعی مولد برای تنظیم پیش نویس یک قرارداد یا سایر اسناد قانونی، یا با ارسال متن پیش نویس شده به هوش مصنوعی مولد برای بررسی و شناسایی شکاف هایی که ممکن است وجود داشته باشد. در اینجا، اگرچه ممکن است وکیل متوجه نشده باشد، اما متن قرارداد توسط برنامه هوش مصنوعی گرفته شده است – تا به عنوان نوعی پایگاه داده اضافی – به عنوان خوراک – برای تطبیق الگو و سایر “پیچیدگی های محاسباتی” استفاده شود.
اگرچه OpenAI بیان می کند که اطلاعات ارائه شده در مکالمات را حفظ نمی کند، اما “یاد می گیرد”. علاوه بر این، از آنجایی که کاربران در حال وارد کردن اطلاعات به مکالمات با ربات چت هوش مصنوعی از طریق اینترنت هستند، واقعاً هیچ تضمینی برای امنیت چنین ارتباطاتی وجود ندارد.
در تلاش برای تسریع در سرعت کار خود، ممکن است به طور تصادفی اطلاعات خصوصی یا محرمانه مشتریان را در اختیار شما قرار داده باشید.
کارفرمایان در نهایت باید استفاده از ChatGPT در محل کار خود را با تعیین تعادل بین کارایی که میتوان از طریق این هوش مصنوعی مولد از طریق اجازه دادن به آن برای انجام کارهای ساده مانند نوشتن نامهها و ایمیلهای معمول یا تولید گزارشهای ساده و سطح به دست آورد، بررسی کنند. بررسی و ویرایشی که باید برای اطمینان از صحت کلی، لحن و سایر نگرانی های قانونی انجام شود.
برخی ممکن است سعی کنند تخلفات خود را با این ادعا که گوروهای فناوری نیستند توجیه کنند و احتمالاً نمیدانستند که وارد کردن متون خاص به هوش مصنوعی مولد ممکن است نوعی نقض بوده باشد. اما، انجمن وکلای آمریکا به طور خاص روشن میکند که وکلا برای سطح معینی از صلاحیت فنآوری وظیفه دارند، که شامل بهروز بودن در زمینه هوش مصنوعی و فناوری است:برای حفظ دانش و مهارت لازم، یک وکیل باید از تغییرات قانون و عملکرد آن، از جمله مزایا و خطرات مرتبط با فناوری مربوطه مطلع باشد، به ادامه تحصیل و آموزش بپردازد و تمام الزامات آموزش حقوقی مستمر را که وکیل به آن نیاز دارد، رعایت کند. موضوع است“
استفاده از ChatGPT چه مسیری را طی خواهد کرد؟
همه اینها گفته شد، ChatGPT به این زودی ها از بین نمی رود. یک نسخه جدید و بهبود یافته باید در طول سال عرضه شود. و بنابراین، کارفرمایان در نهایت باید استفاده از آن را در محل کار خود با تعیین تعادل بین کارایی که میتوان از طریق این هوش مصنوعی مولد از طریق اجازه دادن به آن برای انجام کارهای ساده مانند نوشتن نامهها و ایمیلهای معمول یا تولید گزارشهای ساده و سطح بررسی و ویرایشی که باید برای اطمینان از صحت کلی، لحن و سایر نگرانی های قانونی انجام شود.
با وجود تمام خطرات آن، کارفرمایان هنوز می توانند از مزایای آن استفاده کنند. بحث طولانی تازه شروع شده است.