اعتبار تصویر: PhonlamaiPhoto / Getty Images
تعداد کمی از وکلا به اندازه کافی احمق خواهند بود که به هوش مصنوعی اجازه دهند استدلال های خود را بیان کند، اما یکی قبلاً این کار را انجام داده است و قاضی برانتلی استار اقداماتی را انجام می دهد تا اطمینان حاصل کند که خرابکاری در این کشور تکرار نمی شود. خود دادگاه
قاضی فدرال تگزاس این شرط را اضافه کرده است که هر وکیلی که در دادگاه او حاضر می شود باید تأیید کند که “هیچ بخشی از پرونده توسط هوش مصنوعی مولد تهیه شده است” یا اگر چنین بوده است، “توسط یک انسان” بررسی شده است.
هفته گذشته، وکیل استیون شوارتز به ChatGPT اجازه داد تا تحقیقات حقوقی خود را در یک پرونده فدرال اخیر «تکمیل» کند و شش پرونده و سابقه مرتبط را به او ارائه دهد – که همه آنها کاملاً با مدل زبانی توهم زده شده بودند. او اکنون از انجام این کار «بسیار پشیمان است»، و در حالی که پوشش ملی این گاف احتمالاً باعث شده است که هر وکیل دیگری که به فکر تلاش برای آن بود دوباره فکر کند، قاضی استار هیچ شانسی نمیکند.
در سایت فدرال ناحیه شمالی تگزاس، استار مانند سایر قضات این فرصت را دارد که قوانین خاصی را برای دادگاه خود تعیین کند. و اخیراً اضافه شده است (اگرچه مشخص نیست که آیا این در پاسخ به پرونده فوق الذکر بوده است) “گواهی اجباری در رابطه با هوش مصنوعی مولد” است. یوجین ولوخ ابتدا این خبر را گزارش کرد.
همه وکلایی که در دادگاه حاضر میشوند باید گواهی ارائه کنند که نشان میدهد هیچ بخشی از پرونده توسط هوش مصنوعی مولد (مانند ChatGPT، Harvey.AI یا Google Bard) تهیه نشده است یا هر زبانی که توسط هوش مصنوعی مولد پیشنویس شده است. برای صحت، با استفاده از گزارشگران چاپی یا پایگاه های داده قانونی سنتی، توسط یک انسان بررسی می شود.
فرمی برای امضای وکلا ضمیمه شده است، با ذکر این نکته که «نقلها، نقلقولها، اظهارات بازنویسی شده و تحلیلهای حقوقی» همگی مشمول این ممنوعیت هستند. از آنجایی که خلاصه یکی از موارد قوی هوش مصنوعی است، و یافتن و خلاصه کردن موارد سابقه یا قبلی چیزی است که بهعنوان بالقوه مفید در کارهای حقوقی تبلیغ میشود، این ممکن است بیشتر از حد انتظار وارد عمل شود.
هرکسی که در دفتر قاضی استار پیش نویس یادداشتی را در این مورد تهیه کرده است، انگشت خود را روی نبض خود گذاشته است. الزامات گواهینامه شامل توضیح کاملاً آگاهانه و قانع کننده در مورد ضرورت آن است (شکاف خط برای خوانایی اضافه شده است):
این پلتفرمها فوقالعاده قدرتمند هستند و کاربردهای بسیاری در قانون دارند: فرم طلاق، درخواست کشف، اشتباهات پیشنهادی در اسناد، سوالات پیشبینیشده در بحث شفاهی. اما توجیه حقوقی یکی از آنها نیست. در اینجا دلیل آن است.
این پلتفرم ها در حالت فعلی خود مستعد توهم و سوگیری هستند. در مورد توهم، آنها چیزهایی می سازند – حتی نقل قول ها و نقل قول ها. موضوع دیگر قابلیت اطمینان یا تعصب است. در حالی که وکلای دادگستری سوگند یاد میکنند که تعصبات شخصی، تعصبات و اعتقادات خود را کنار بگذارند تا صادقانه از قانون حمایت کنند و از موکلان خود نمایندگی کنند، هوش مصنوعی مولد محصول برنامهنویسی است که توسط انسانهایی طراحی شده است که مجبور به ادای چنین سوگند نیستند.
به این ترتیب، این سیستم ها به هیچ مشتری، حاکمیت قانون، یا قوانین و قانون اساسی ایالات متحده (یا همانطور که در بالا اشاره شد، حقیقت) وفاداری ندارند. بدون هیچ گونه احساس وظیفه، شرافت یا عدالت، چنین برنامههایی بر اساس کدهای رایانهای عمل میکنند تا اعتقادات، بر اساس برنامهنویسی و نه اصول. هر طرفی که معتقد است یک پلت فرم دارای دقت و قابلیت اطمینان لازم برای توجیه قانونی است، ممکن است مرخصی بگیرد و دلیل آن را توضیح دهد.
به عبارت دیگر، برای توجیه خود آماده باشید.
در حالی که این فقط یک قاضی در یک دادگاه است، تعجب آور نخواهد بود که دیگران این قانون را به عنوان قانون خود در نظر بگیرند. در حالی که همانطور که دادگاه می گوید، این یک فناوری قدرتمند و بالقوه مفید است، استفاده از آن باید حداقل به وضوح اعلام شده و از نظر دقت بررسی شود.