30 مه (رویترز) – یک وکیل نیویورکی به دلیل گزارش پر اشتباهی که با کمک ChatGPT تهیه کرده، با تحریم های احتمالی روبرو است.
این سناریویی است که کارشناسان اخلاق حقوقی از زمانی که ChatGPT در ماه نوامبر وارد صحنه شد، درباره آن هشدار دادهاند و دوره جدیدی را برای هوش مصنوعی رقم میزند که میتواند پاسخهای انسانمانند را بر اساس حجم وسیعی از دادهها ایجاد کند.
استیون شوارتز از Levidow, Levidow & Oberman پس از اعتراف به استفاده از ChatGPT برای گزارش مختصری در پرونده آسیب شخصی موکلش علیه خطوط هوایی Avianca، با یک جلسه استماع تحریم در 8 ژوئن در برابر قاضی ناحیه ایالات متحده P. Kevin Castel روبرو می شود. در این گزارش به شش تصمیم غیرموجود دادگاه اشاره شده است.
شوارتز در یک پرونده قضایی گفت که از اتکای خود به این فناوری “بسیار متأسف است” و “از احتمال نادرست بودن محتوای آن بی اطلاع است.”
وکلای مدافع آویانکا به دادگاه در مورد موارد غیرموجودی که توسط شوارتز استناد شده بود، هشدار دادند، او سه شنبه به درخواست اظهار نظر پاسخ نداد.
الگوی قوانین رفتار حرفه ای انجمن وکلای آمریکا به صراحت به هوش مصنوعی نمی پردازد. اما کارشناسان می گویند که چندین قانون اخلاقی موجود اعمال می شود.
دانیل مارتین کاتز، استاد کالج حقوق شیکاگو-کنت که مسئولیت حرفه ای را تدریس می کند و هوش مصنوعی را در قانون مطالعه می کند، می گوید: “شما در نهایت مسئول نمایندگی هایی هستید که انجام می دهید.” “این کارت نوار شماست.”
وظیفه صلاحیت
این قانون، وکلا را ملزم میکند که نمایندگی شایسته ارائه کنند و در مورد فناوری فعلی بهروز باشند. آنها باید اطمینان حاصل کنند که فناوری مورد استفاده آنها اطلاعات دقیقی را ارائه می دهد – یک نگرانی عمده با توجه به اینکه ابزارهایی مانند ChatGPT پیدا شده است که همه چیز را ایجاد می کند. و وکلا نباید خیلی بر ابزارها تکیه کنند تا مبادا اشتباهاتی را مطرح کنند.
اندرو پرلمن، رئیس حقوق دانشگاه سافولک، یکی از رهبران فناوری حقوقی و اخلاقیات، میگوید: «تکیه کورکورانه به هوش مصنوعی مولد برای دادن متنی که برای ارائه خدمات به مشتری خود استفاده میکنید، به نتیجه نمیرسد.
پرلمن قوانین مربوط به صلاحیت را پیش بینی می کند که در نهایت به سطحی از مهارت در فناوری هوش مصنوعی نیاز دارد. او گفت که هوش مصنوعی می تواند رویه های حقوقی را به طور قابل توجهی متحول کند که روزی استفاده نکردن از آن می تواند مانند عدم استفاده از رایانه برای تحقیق باشد.
وظیفه محرمانه بودن
این قانون وکلا را ملزم میکند که «تلاشهای معقولی برای جلوگیری از افشای سهوی یا غیرمجاز، یا دسترسی غیرمجاز به اطلاعات مربوط به نمایندگی مشتری انجام دهند». وکلایی که از برنامههایی مانند ChatGPT یا Bing Chat استفاده میکنند، این خطر را دارند که دادههای مشتریان خود را به شرکتهای هوش مصنوعی بدهند تا مدلهایشان را آموزش داده و بهبود بخشند و بهطور بالقوه قوانین رازداری را نقض میکنند.
جوزیاس دیویی، شریک هلند و نایت، که روی توسعه برنامههای هوش مصنوعی داخلی در شرکت خود کار میکند، گفت: این یکی از دلایلی است که برخی از شرکتهای حقوقی به صراحت به وکلا گفتهاند که از ChatGPT و برنامههای مشابه در امور مشتریان استفاده نکنند.
برخی از برنامههای هوش مصنوعی خاص قانون، از جمله CaseText’s CoCounsel و Harvey، مشکل محرمانگی را با حفظ دادههای خود از ارائهدهندگان خارج از هوش مصنوعی برطرف میکنند.
مسئولیت های مربوط به کمک غیر وکیل
بر اساس این قانون، وکلا باید بر وکلا و غیر وکلا نظارت کنند که به آنها کمک می کنند تا اطمینان حاصل کنند که رفتار آنها با قوانین رفتار حرفه ای مطابقت دارد. ABA در سال 2012 تصریح کرد که این قانون در مورد کمک های غیر انسانی نیز اعمال می شود.
این بدان معناست که وکلا باید بر کار برنامه های هوش مصنوعی نظارت داشته باشند و فناوری را به خوبی درک کنند تا مطمئن شوند که استانداردهای اخلاقی را که وکلا باید رعایت کنند مطابقت دارد.
پرلمن گفت: “شما باید تلاش های منطقی انجام دهید تا اطمینان حاصل کنید که فناوری مورد استفاده شما با مسئولیت اخلاقی شما در قبال مشتریان سازگار است.”
بیشتر بخوانید:
استارتاپ با پشتیبانی OpenAI فناوری چت بات را به اولین شرکت حقوقی بزرگ می آورد
آیا ChatGPT وکلا را منسوخ می کند؟ (نکته: بترسید)
برخی از اساتید حقوق از ظهور ChatGPT می ترسند زیرا دیگران فرصت را می بینند
گزارش کارن اسلون
استانداردهای ما: اصول اعتماد تامسون رویترز.