یک قاضی فدرال تگزاس شیوع قریب الوقوع هوش مصنوعی (AI) در قانون را تأیید کرد و در عین حال بر اهمیت پایدار وکلای انسانی تأکید کرد.
قاضی برانتلی استار از دادگاه منطقه ای ایالات متحده برای ناحیه شمالی تگزاس اخیراً الزامات خاص قاضی خود را به روز کرد تا بخشی با عنوان “گواهی نامه اجباری در رابطه با هوش مصنوعی مولد” را شامل شود. به طور خاص، استار به همه وکلای حاضر در دادگاه دستور میدهد که گواهی ارائه کنند که یا: (1) هیچ بخشی از هیچ پروندهای توسط هوش مصنوعی مولد تهیه نمیشود. یا (2) اینکه هر زبانی که توسط هوش مصنوعی مولد پیشنویس شده باشد توسط یک انسان از نظر صحت بررسی میشود. این گواهینامه اجباری سابقه دار یکی از آنهاست، اگر نه را، برای اولین بار در نوع خود استفاده مناسب از هوش مصنوعی را در مراحل قانونی ایجاد می کند – موضوعی که وکلا در حال حاضر در حال عیب یابی هستند.
در واقع، در دادگاه منطقه ای ایالات متحده برای ناحیه جنوبی نیویورک، وکلایی که از ChatGPT برای پیش نویس مخالفت با درخواست اخراج استفاده کردند، مجبور خواهند شد دلیلی نشان دهند که چرا دادگاه نباید علیه آنها و شرکتشان تحریم صادر کند. در مورد اکنون بدنام از روبرتو ماتا علیه Avianca, Inc. وکیل متهم در تاریخ 6 فروردین 1392 نامه ای به دادگاه نوشت و صحت چند پرونده مورد استناد وکیل شاکی در اعتراض خود را زیر سوال برد – یعنی ادعا کرد که این پرونده ها وجود ندارد. خود دادگاه دریافت که “[s]به نظر میرسد 6 پرونده از پروندههای ارسالی، تصمیمات قضایی جعلی با نقلقولهای جعلی و نقلقولهای جعلی داخلی باشد» و به این ترتیب دستور خود را برای نشان دادن علت صادر کرد. در پاسخ یکی از وکلای شاکی اعتراف کرد که «[i]در مشورت با وب سایت هوش مصنوعی مولد Chat GPT بود که وابسته شما موارد غیرموجود را پیدا کرده و به آنها اشاره کرد.
به عنوان آویانچی مورد فاش شد، و همانطور که قاضی استار اشاره می کند، هوش مصنوعی مولد – مانند Chat-GPT، Harvey.AI یا Google Bard – بدون خطر نیست. گواهینامه اجباری Starr تصدیق می کند که تمایل پلتفرم ها به توهم، یا تمایل به “ساختن چیزها”، مشکلی را در استفاده از آنها برای توجیه قانونی ایجاد می کند. علاوه بر این، استار بر موضوع قابلیت اطمینان یا سوگیری در تکیه بر هوش مصنوعی مولد تأکید می کند. به طور خاص، گواهی اجباری خاطرنشان می کند که “وکلا سوگند یاد می کنند که تعصبات، تعصبات و اعتقادات شخصی خود را کنار بگذارند تا صادقانه از قانون حمایت کنند و از موکلان خود نمایندگی کنند.” در مقابل، «هوش مصنوعی مولد محصول برنامهنویسی است که توسط انسانهایی ابداع شده است که مجبور نبودند چنین سوگند یاد کنند». به عبارت دیگر، هوش مصنوعی هیچ وفاداری ندارد، به هیچ احساس وظیفهای محدود نمیشود و پاسخهای خود را بر مبنای «کد رایانهای به جای اعتقاد» و «برنامهنویسی به جای اصول» قرار میدهد.
بدون شک، استفاده از هوش مصنوعی و فناوری اتوماسیون چندین تعهد وکلای حقوقی را که در قوانین مدل انجمن وکلای آمریکا نشان داده شده است، به خاطر می آورد. به عنوان مثال، وکلا موظفند اطمینان حاصل کنند که رفتار هر غیر وکیل مرتبط با آنها با تعهدات حرفه ای وکیل سازگار است. (قانون مدل 5.3.) استفاده از هوش مصنوعی همچنین مستلزم وظیفه وکیل در حفظ محرمانه بودن و ممنوعیت فعالیت غیرمجاز قانون است. (قوانین مدل 1.6، 5.5.) با این حال، یک وکیل همچنین موظف است صلاحیت فنی خود را حفظ کند و “از تغییرات در قانون و عملکرد آن، از جمله مزایا و خطرات مرتبط با فناوری مربوطه مطلع شود.” (قانون مدل 1.1.)
احتمالاً هوش مصنوعی نسل بعدی فناوری خودکار است که قبلاً به طور گسترده در قانون مورد استفاده قرار گرفته و پذیرفته شده است. برای مثال، وکلا به راحتی به الگوریتمها و توابع جستجوی Lexis و Westlaw برای یافتن قانون مورد مرتبط تکیه میکنند – که هر دو به دنبال توسعه بیشتر هوش مصنوعی برای کمک بهتر به جستجوی پرونده هستند. برای تهیه پیش نویس، انواع برنامه های خودکار، از BriefCatch گرفته تا خود مایکروسافت ورد، پیشنهاداتی را برای اطلاع رسانی بهتر ارائه می دهند. و مدتها قبل از رواج فناوری، وکلا برای کمک به تهیه پروندههای دادگاه به کار وکلا و دستیاران متکی بودند. بنابراین، با توجه به توسعه تاریخی کمکهای حقوقی و تعهدات وکلا برای حفظ صلاحیت فنی، استفاده از هوش مصنوعی مولد در اجرای قانون – اگرچه خطاناپذیر نیست – اجتنابناپذیر به نظر میرسد.
به طور کلی، گواهی اجباری استار تعادلی بین تشخیص اینکه هوش مصنوعی مولد فوق العاده قدرتمند است و کاربردهای فراوانی دارد ایجاد می کند، در حالی که بر نقش مهمی که وکلا هنوز در تضمین دقت، قابلیت اطمینان و – در اصل – انسانیت در اجرای قانون دارند، تاکید می کند. به عبارت دیگر، شغل وکلا در حال حاضر امن است.